日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當(dāng)前位置:首頁(yè) > 智能硬件 > 人工智能AI
[導(dǎo)讀]循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一類以序列(sequence)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursive neural network)。對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀(jì)80-90年代,并在二十一世紀(jì)初發(fā)展為深度學(xué)習(xí)(deep learning)算法之一,其中雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional RNN, Bi-RNN)和長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory networks,LSTM)是常見的循環(huán)神經(jīng)網(wǎng)絡(luò)。

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是一類以序列(sequence)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursive neural network)。對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀(jì)80-90年代,并在二十一世紀(jì)初發(fā)展為深度學(xué)習(xí)(deep learning)算法之一,其中雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional RNN, Bi-RNN)和長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory networks,LSTM)是常見的循環(huán)神經(jīng)網(wǎng)絡(luò)。

1982年,美國(guó)加州理工學(xué)院物理學(xué)家John Hopfield發(fā)明了一種單層反饋神經(jīng)網(wǎng)絡(luò)Hopfield Network,用來(lái)解決組合優(yōu)化問(wèn)題。這是最早的RNN的雛形。86年,另一位機(jī)器學(xué)習(xí)的泰斗Michael I.Jordan定義了Recurrent的概念,提出Jordan Network。1990年,美國(guó)認(rèn)知科學(xué)家Jeffrey L.Elman對(duì)Jordan Network進(jìn)行了簡(jiǎn)化,并采用BP算法進(jìn)行訓(xùn)練,便有了如今最簡(jiǎn)單的包含單個(gè)自連接節(jié)點(diǎn)的RNN模型。但此時(shí)RNN由于梯度消失(Gradient Vanishing)及梯度爆炸(Gradient Exploding)的問(wèn)題,訓(xùn)練非常困難,應(yīng)用非常受限。直到1997年,瑞士人工智能研究所的主任Jurgen Schmidhuber提出長(zhǎng)短期記憶(LSTM),LSTM使用門控單元及記憶機(jī)制大大緩解了早期RNN訓(xùn)練的問(wèn)題。同樣在1997年,Mike Schuster提出雙向RNN模型(Bidirectional RNN)。這兩種模型大大改進(jìn)了早期RNN結(jié)構(gòu),拓寬了RNN的應(yīng)用范圍,為后續(xù)序列建模的發(fā)展奠定了基礎(chǔ)。此時(shí)RNN雖然在一些序列建模任務(wù)上取得了不錯(cuò)的效果,但由于計(jì)算資源消耗大,后續(xù)幾年一直沒(méi)有太大的進(jìn)展。

2010年,Tomas Mikolov對(duì)Bengio等人提出的feedforward Neural network language model(NNLM)進(jìn)行了改進(jìn),提出了基于RNN的語(yǔ)言模型(RNN LM),并將其用在語(yǔ)音識(shí)別任務(wù)中,大幅提升了識(shí)別精度。在此基礎(chǔ)上Tomas Mikolov于2013年提出了大名鼎鼎的word2vec。

與NNLM及RNNLM不同,word2vec的目標(biāo)不再專注于建模語(yǔ)言模型,而是專注于如何利用語(yǔ)言模型學(xué)習(xí)每個(gè)單詞的語(yǔ)義化向量(distributed representation),當(dāng)然distributed representation概念最早要來(lái)源于Hinton 1986年的工作。word2vec引發(fā)了深度學(xué)習(xí)在自然語(yǔ)言處理領(lǐng)域的浪潮,除此之外還啟發(fā)了knowledge representation,network representation等新的領(lǐng)域。

另一方面,2014年Bengio團(tuán)隊(duì)與Google幾乎同時(shí)提出了seq2seq架構(gòu),將RNN用于機(jī)器翻譯。沒(méi)過(guò)多久,Bengio團(tuán)隊(duì)又提出注意力Attention機(jī)制,對(duì)seq2seq架構(gòu)進(jìn)行改進(jìn)。自此機(jī)器翻譯全面進(jìn)入到神經(jīng)機(jī)器翻譯(NMT)的時(shí)代,NMT不僅過(guò)程簡(jiǎn)單,而且效果要遠(yuǎn)超統(tǒng)計(jì)機(jī)器翻譯的效果。目前主流的機(jī)器翻譯系統(tǒng)幾乎都采用了神經(jīng)機(jī)器翻譯的技術(shù),除此之外,Attention機(jī)制也被廣泛用于基于深度學(xué)習(xí)的各種任務(wù)中。

近兩年,相關(guān)領(lǐng)域仍有一些突破性進(jìn)展,2017年,F(xiàn)acebook人工智能實(shí)驗(yàn)室提出基于卷積神經(jīng)網(wǎng)絡(luò)的seq2seq架構(gòu),將RNN替換為帶有門控單元的CNN,提升效果的同時(shí)大幅加快了模型訓(xùn)練速度。此后不久,Google提出Transformer架構(gòu),使用Self-Attention代替原有的RNN及CNN,更進(jìn)一步降低了模型復(fù)雜度。在詞表示學(xué)習(xí)方面,Allen人工智能研究所2018年提出上下文相關(guān)的表示學(xué)習(xí)方法ELMo,利用雙向LSTM語(yǔ)言模型對(duì)不同語(yǔ)境下的單詞,學(xué)習(xí)不同的向量表示,在6個(gè)NLP任務(wù)上取得了提升。OpenAI團(tuán)隊(duì)在此基礎(chǔ)上提出預(yù)訓(xùn)練模型GPT,把LSTM替換為Transformer來(lái)訓(xùn)練語(yǔ)言模型,在應(yīng)用到具體任務(wù)時(shí),與之前學(xué)習(xí)詞向量當(dāng)作特征的方式不同,GPT直接在預(yù)訓(xùn)練得到的語(yǔ)言模型最后一層接上Softmax作為任務(wù)輸出層,然后再對(duì)模型進(jìn)行微調(diào),在多項(xiàng)任務(wù)上GPT取得了更好的效果。

不久之后,Google提出BERT模型,將GPT中的單向語(yǔ)言模型拓展為雙向語(yǔ)言模型(Masked Language Model),并在預(yù)訓(xùn)練中引入了sentence prediction任務(wù)。BERT模型在11個(gè)任務(wù)中取得了最好的效果,是深度學(xué)習(xí)在NLP領(lǐng)域又一個(gè)里程碑式的工作。BERT自從在arXiv上發(fā)表以來(lái)獲得了研究界和工業(yè)界的極大關(guān)注,感覺像是打開了深度學(xué)習(xí)在NLP應(yīng)用的潘多拉魔盒。隨后涌現(xiàn)了一大批類似于“BERT”的預(yù)訓(xùn)練(pre-trained)模型,有引入BERT中雙向上下文信息的廣義自回歸模型XLNet,也有改進(jìn)BERT訓(xùn)練方式和目標(biāo)的RoBERTa和SpanBERT,還有結(jié)合多任務(wù)以及知識(shí)蒸餾(Knowledge Distillation)強(qiáng)化BERT的MT-DNN等。這些種種,還被大家稱為BERTology。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

LED驅(qū)動(dòng)電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: 驅(qū)動(dòng)電源

在工業(yè)自動(dòng)化蓬勃發(fā)展的當(dāng)下,工業(yè)電機(jī)作為核心動(dòng)力設(shè)備,其驅(qū)動(dòng)電源的性能直接關(guān)系到整個(gè)系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動(dòng)勢(shì)抑制與過(guò)流保護(hù)是驅(qū)動(dòng)電源設(shè)計(jì)中至關(guān)重要的兩個(gè)環(huán)節(jié),集成化方案的設(shè)計(jì)成為提升電機(jī)驅(qū)動(dòng)性能的關(guān)鍵。

關(guān)鍵字: 工業(yè)電機(jī) 驅(qū)動(dòng)電源

LED 驅(qū)動(dòng)電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個(gè)照明設(shè)備的使用壽命。然而,在實(shí)際應(yīng)用中,LED 驅(qū)動(dòng)電源易損壞的問(wèn)題卻十分常見,不僅增加了維護(hù)成本,還影響了用戶體驗(yàn)。要解決這一問(wèn)題,需從設(shè)計(jì)、生...

關(guān)鍵字: 驅(qū)動(dòng)電源 照明系統(tǒng) 散熱

根據(jù)LED驅(qū)動(dòng)電源的公式,電感內(nèi)電流波動(dòng)大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關(guān)鍵字: LED 設(shè)計(jì) 驅(qū)動(dòng)電源

電動(dòng)汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產(chǎn)業(yè)的重要發(fā)展方向。電動(dòng)汽車的核心技術(shù)之一是電機(jī)驅(qū)動(dòng)控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機(jī)驅(qū)動(dòng)系統(tǒng)中的關(guān)鍵元件,其性能直接影響到電動(dòng)汽車的動(dòng)力性能和...

關(guān)鍵字: 電動(dòng)汽車 新能源 驅(qū)動(dòng)電源

在現(xiàn)代城市建設(shè)中,街道及停車場(chǎng)照明作為基礎(chǔ)設(shè)施的重要組成部分,其質(zhì)量和效率直接關(guān)系到城市的公共安全、居民生活質(zhì)量和能源利用效率。隨著科技的進(jìn)步,高亮度白光發(fā)光二極管(LED)因其獨(dú)特的優(yōu)勢(shì)逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關(guān)鍵字: 發(fā)光二極管 驅(qū)動(dòng)電源 LED

LED通用照明設(shè)計(jì)工程師會(huì)遇到許多挑戰(zhàn),如功率密度、功率因數(shù)校正(PFC)、空間受限和可靠性等。

關(guān)鍵字: LED 驅(qū)動(dòng)電源 功率因數(shù)校正

在LED照明技術(shù)日益普及的今天,LED驅(qū)動(dòng)電源的電磁干擾(EMI)問(wèn)題成為了一個(gè)不可忽視的挑戰(zhàn)。電磁干擾不僅會(huì)影響LED燈具的正常工作,還可能對(duì)周圍電子設(shè)備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來(lái)解決L...

關(guān)鍵字: LED照明技術(shù) 電磁干擾 驅(qū)動(dòng)電源

開關(guān)電源具有效率高的特性,而且開關(guān)電源的變壓器體積比串聯(lián)穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機(jī)重量也有所下降,所以,現(xiàn)在的LED驅(qū)動(dòng)電源

關(guān)鍵字: LED 驅(qū)動(dòng)電源 開關(guān)電源

LED驅(qū)動(dòng)電源是把電源供應(yīng)轉(zhuǎn)換為特定的電壓電流以驅(qū)動(dòng)LED發(fā)光的電壓轉(zhuǎn)換器,通常情況下:LED驅(qū)動(dòng)電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: LED 隧道燈 驅(qū)動(dòng)電源
關(guān)閉