日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 前言:人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(LSTM)算法。 我們知道,RNN是一類功能強(qiáng)大的人工神經(jīng)網(wǎng)絡(luò)算法,RNN一個(gè)

前言:人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(LSTM)算法。

我們知道,RNN是一類功能強(qiáng)大的人工神經(jīng)網(wǎng)絡(luò)算法,RNN一個(gè)重要的優(yōu)點(diǎn)在于,其能夠在輸入和輸出序列之間的映射過程中利用上下文相關(guān)信息。但是RNN存在著梯度消失或梯度爆炸等問題。因此,為了解決上述問題,長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)(LSTM)誕生了。

長短期記憶神經(jīng)網(wǎng)絡(luò)LSTM是一種特殊的RNN,能夠?qū)W習(xí)長期依賴關(guān)系。由Hochreiter和Schmidhuber (1997)提出,在后期工作中又由許多人進(jìn)行了調(diào)整和普及(除了原始作者之外,許多人為現(xiàn)代LSTM做出了貢獻(xiàn),不完全統(tǒng)計(jì):Felix Gers(目前在谷歌的DeepMind任職), Fred Cummins, Santiago Fernandez, Felix Gers(發(fā)明了LSTM遺忘門),JusTIn Bayer(自動(dòng)演化), Daan Wierstra, Julian Togelius, FausTIan Gomez, Matteo Gagliolo 和 Alex Graves)。LSTM在大量問題上效果異常出色,現(xiàn)在正在廣泛使用。

LTSM概念:

長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)LSTM(Long Short–Term Memory)是一種時(shí)間遞歸神經(jīng)網(wǎng)絡(luò),適合于處理和預(yù)測(cè)時(shí)間序列中間隔和延遲相對(duì)較長的重要事件。

與其說長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò),倒不如說是一個(gè)加強(qiáng)版的組件被放在了循環(huán)神經(jīng)網(wǎng)絡(luò)中。具體地說,就是把循環(huán)神經(jīng)網(wǎng)絡(luò)中隱含層的小圓圈換成長短時(shí)記憶的模塊,如下圖所示。

LTSM本質(zhì):

LSTM引入自循環(huán)的巧妙構(gòu)思,以產(chǎn)生梯度長時(shí)間持續(xù)流動(dòng)的路徑是初始LSTM模型的核心貢獻(xiàn)。其中一個(gè)關(guān)鍵擴(kuò)展是使自循環(huán)的權(quán)重視上下文而定,而不是固定的。門控此自循環(huán)(由另一個(gè)隱藏單元控制)的權(quán)重,累積的時(shí)間尺度可以動(dòng)態(tài)地改變。

LSTM循環(huán)網(wǎng)絡(luò)除了外部的RNN循環(huán)外,還具有內(nèi)部的LSTM細(xì)胞循環(huán)(自環(huán))。

LSTM 通過刻意的設(shè)計(jì)來避免長期依賴問題。記住長期的信息在實(shí)踐中是 LSTM 的默認(rèn)行為,而非需要付出很大代價(jià)才能獲得的能力。

LSTM原理:

LSTM區(qū)別于RNN的地方,主要就在于它在算法中加入了一個(gè)判斷信息有用與否的“處理器”,這個(gè)處理器作用的結(jié)構(gòu)被稱為cell。

一個(gè)cell當(dāng)中被放置了三扇門,分別叫做輸入門、遺忘門和輸出門。一個(gè)信息進(jìn)入LSTM的網(wǎng)絡(luò)當(dāng)中,可以根據(jù)規(guī)則來判斷是否有用。只有符合算法認(rèn)證的信息才會(huì)留下,不符的信息則通過遺忘門被遺忘。

說起來無非就是一進(jìn)二出的工作原理,卻可以在反復(fù)運(yùn)算下解決神經(jīng)網(wǎng)絡(luò)中長期存在的大問題。目前已經(jīng)證明,LSTM是解決長序依賴問題的有效技術(shù),并且這種技術(shù)的普適性非常高,導(dǎo)致帶來的可能性變化非常多。各研究者根據(jù)LSTM紛紛提出了自己的變量版本,這就讓LSTM可以處理千變?nèi)f化的垂直問題。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除( 郵箱:macysun@21ic.com )。
換一批
延伸閱讀
關(guān)閉