日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當前位置:首頁 > 電源 > 數(shù)字電源
[導讀]近十年來,人工智能又到了一個快速發(fā)展的階段。深度學習在其發(fā)展中起到了中流砥柱的作用,盡管擁有強大的模擬預測能力,深度學習還面臨著超大計算量的問題。在硬件層面上,

近十年來,人工智能又到了一個快速發(fā)展的階段。深度學習在其發(fā)展中起到了中流砥柱的作用,盡管擁有強大的模擬預測能力,深度學習還面臨著超大計算量的問題。在硬件層面上,GPU,ASIC,F(xiàn)PGA都是解決龐大計算量的方案。本文將闡釋深度學習和FPGA各自的結構特點以及為什么用FPGA加速深度學習是有效的,并且將介紹一種遞歸神經網(wǎng)絡(RNN)在FPGA平臺上的實現(xiàn)方案。

揭開深度學習的面紗

深度學習是機器學習的一個領域,都屬于人工智能的范疇。深度學習主要研究的是人工神經網(wǎng)絡的算法、理論、應用。自從2006年Hinton等人提出來之后,深度學習高速發(fā)展,在自然語言處理、圖像處理、語音處理等領域都取得了非凡的成就,受到了巨大的關注。在互聯(lián)網(wǎng)概念被人們普遍關注的時代,深度學習給人工智能帶來的影響是巨大的,人們會為它隱含的巨大潛能以及廣泛的應用價值感到不可思議。

事實上,人工智能是上世紀就提出來的概念。1957年,Rosenblatt提出了感知機模型(Perception),即兩層的線性網(wǎng)絡;1986年,Rumelhart等人提出了后向傳播算法(Back PropagaTIon),用于三層的神經網(wǎng)絡的訓練,使得訓練優(yōu)化參數(shù)龐大的神經網(wǎng)絡成為可能;1995年,Vapnik等人發(fā)明了支持向量機(Support Vector Machines),在分類問題中展現(xiàn)了其強大的能力。以上都是人工智能歷史上比較有代表性的事件,然而受限于當時計算能力,AI總是在一段高光之后便要陷入灰暗時光——稱為:“AI寒冬”。

然而,隨著計算機硬件能力和存儲能力的提升,加上龐大的數(shù)據(jù)集,現(xiàn)在正是人AI發(fā)展的最好時機。自Hinton提出DBN(深度置信網(wǎng)絡)以來,人工智能就在不斷的高速發(fā)展。在圖像處理領域,CNN(卷積神經網(wǎng)絡)發(fā)揮了不可替代的作用,在語音識別領域,RNN(遞歸神經網(wǎng)絡)也表現(xiàn)的可圈可點。而科技巨頭也在加緊自己的腳步,谷歌的領軍人物是Hinton,其重頭戲是Google brain,并且在去年還收購了利用AI在游戲中擊敗人類的DeepMind;Facebook的領軍人物是Yann LeCun,另外還組建了Facebook的AI實驗室,Deepface在人臉識別的準確率更達到了驚人的97.35%;而國內的巨頭當屬百度,在挖來了斯坦福大學教授Andrew Ng(Coursera的聯(lián)合創(chuàng)始人)并成立了百度大腦項目之后,百度在語音識別領域的表現(xiàn)一直十分強勢。

一覽深度學習

簡單來說,深度學習與傳統(tǒng)的機器學習算法的分類是一致的,主要分為監(jiān)督學習(supervised learning)和非監(jiān)督學習(unsupervised learning)。所謂監(jiān)督學習,就是輸出是有標記的學習,讓模型通過訓練,迭代收斂到目標值;而非監(jiān)督學習不需要人為輸入標簽,模型通過學習發(fā)現(xiàn)數(shù)據(jù)的結構特征。比較常見的監(jiān)督學習方法有邏輯回歸、多層感知機、卷積神經網(wǎng)絡登;而非監(jiān)督學習主要有稀疏編碼器、受限玻爾茲曼機、深度置信網(wǎng)絡等。所有的這些都是通過神經網(wǎng)絡來實現(xiàn)的,他們通常來說都是非常復雜的結構,需要學習的參數(shù)也非常多。但是神經網(wǎng)絡也可以做簡單的事情,比如XNOR門,如圖。

 

 

在圖1(a)中,兩個輸入x_1和x_2都是分別由一個神經元表示,在輸入中還加入了一個作為偏置(bias)的神經元,通過訓練學習參數(shù),最終整個模型的參數(shù)收斂,功能和圖1(b)真值表一模一樣。圖1(c)分類結果。

而通常來說,模型都是比較復雜的。比如ILSVRC2012年圖像識別大賽中Krizhevsky等人構建出來的 Alex Net。他們一共構建了11層的神經網(wǎng)絡(5個卷積層,3個全連接層,3個池化層),一共有65萬個神經元,6千萬個參數(shù),最終達到了15.2%的識別錯誤率,大大領先于第二名的26.2%。

 

 

當前深度學習得以流行,是得益于大數(shù)據(jù)和計算性能的提升。但其仍然遭受計算能力和數(shù)據(jù)量的瓶頸。針對數(shù)據(jù)量的需求,專家們可以通過模型的調整、變更來緩解,但計算力的挑戰(zhàn)沒有捷徑??拼笥嶏w、百度、阿里、360在深度學習方面也面臨著計算力的困擾。科大訊飛的深度學習平臺屬于計算密集型的平臺,集群幾百臺機器之間要實現(xiàn)高速互聯(lián),是類似超算的結構,但它又不是一個非常典型的超算。科大訊飛最開始探索傳統(tǒng)的方式,用大量CPU來支持大規(guī)模數(shù)據(jù)預處理,運行GMM-HMM等經典模型的訓練,在千小時的數(shù)據(jù)量下,效果很不好。而360每天處理的數(shù)據(jù)有上億條,參數(shù)50萬以上,如果用CPU,每次模型訓練就要花幾天,這對于崇尚快速迭代的互聯(lián)網(wǎng)公司運營來說簡直是不可接受的。

為什么選擇FPGA

FPGA(Field Programmable Gate Array)是在PAL、GAL、CPLD等可編程邏輯器件的基礎上進一步發(fā)展的產物。它是作為專用集成電路領域中的一種半定制電路而出現(xiàn)的,既解決了全定制電路的不足,又克服了原有可編程邏輯器件門電路數(shù)有限的缺點。FPGA的開發(fā)相對于傳統(tǒng)PC、單片機的開發(fā)有很大不同。FPGA以并行運算為主,以硬件描述語言來實現(xiàn);相比于PC或單片機(無論是馮諾依曼結構還是哈佛結構)的順序操作有很大區(qū)別。FPGA開發(fā)需要從頂層設計、模塊分層、邏輯實現(xiàn)、軟硬件調試等多方面著手。FPGA可以通過燒寫位流文件對其進行反復編程,目前,絕大多數(shù) FPGA 都采用基于 SRAM(StaTIc Random Access Memory 靜態(tài)隨機存儲器)工藝的查找表結構,通過燒寫位流文件改變查找表內容實現(xiàn)配置。

使用CPU。在2006年的時候,人們還是用串行處理器處理機器學習的問題,當時Mutch 和 Lowe開發(fā)了一個工具FHLib(feature hierarchy library)用來處理hierarchical 模型。對于CPU來說,它所要求的編程量是比較少的并且有可遷移性的好處,但是串行處理的特點變成了它在深度學習領域的缺點,而這個缺點是致命的。時至今日,據(jù)2006年已經過去了十年,過去的十年集成電路的發(fā)展還是遵循著摩爾定律,CPU的性能得到了極大的提升,然而,這并沒有讓CPU再次走入深度學習研究者的視野。盡管在小數(shù)據(jù)集上CPU能有一定的計算能力表現(xiàn),多核使得它能夠并行處理,然而這對深度學習來說還是遠遠不夠的。

使用GPU。GPU走進了研究者的視線,相比于CPU,GPU的核心數(shù)大大提高了,這也讓它有更強大的并行處理能力,它還有更加強大的控制數(shù)據(jù)流和儲存數(shù)據(jù)的能力。Chikkerur進行了CPU和GPU在處理目標識別能力上的差別,最終GPU的處理速度是CPU的3-10倍。

使用ASIC。專用集成電路芯片(ASIC)由于其定制化的特點,是一種比GPU更高效的方法。但是其定制化也決定了它的可遷移性低,一旦專用于一個設計好的系統(tǒng)中,要遷移到其它的系統(tǒng)是不可能的。并且,其造價高昂,生產周期長,使得它在目前的研究中是不被考慮的。當然,其優(yōu)越的性能還是能在一些領域勝任。用的就是ASIC 的方案,在640×480pixel的圖像中識別速率能達到 60幀/秒。

使用FPGA。FPGA在GPU和ASIC中取得了權衡,很好的兼顧了處理速度和控制能力。一方面,F(xiàn)PGA是可編程重構的硬件,因此相比GPU有更強大的可調控能力;另一方面,與日增長的門資源和內存帶寬使得它有更大的設計空間。更方便的是,F(xiàn)PGA還省去了ASIC方案中所需要的流片過程。FPGA的一個缺點是其要求使用者能使用硬件描述語言對其進行編程。但是,已經有科技公司和研究機構開發(fā)了更加容易使用的語言比如Impulse Accelerated Technologies Inc. 開發(fā)了C-to-FPGA編譯器使得FPGA更加貼合用戶的使用,耶魯?shù)腅-Lab 開發(fā)了Lua腳本語言。這些工具在一定程度上縮短了研究者的開發(fā)時限,使研究更加簡單易行。

在FPGA上運行LSTM神經網(wǎng)絡

LSTM簡介

傳統(tǒng)的RNN由一個三層的網(wǎng)絡:輸入層it,隱藏層ht,輸出層yt;其中ht的信息作用到下一時刻的輸入,這樣的結構簡單的模仿了人腦的記憶功能,圖3是其拓撲圖:

 

 

只有一個隱藏層方程:

其中 Wx和 Wh分別是輸入和隱藏層的權重,b 是偏置。

LSTM 是RNN(遞歸神經網(wǎng)絡)的一種,在處理時序數(shù)據(jù)得到了最廣泛的應用,它由門控制信息一共有三個個門:輸入門it,遺忘門ft,輸出門ot,另外還有隱藏層ht和記憶細胞ct。圖4是其拓撲圖:

 

 

輸入門控制了某一時刻的輸入;遺忘門通過作用到上一時刻記憶細胞上,控制了上一時刻的數(shù)據(jù)流要流多少進入下一時刻;記憶細胞是由上一時刻的輸入和這一時刻的候選輸入共同決定的;輸出門作用到記憶細胞上,決定了這一時刻的隱藏層信息,并且送到下一層神經網(wǎng)絡上。全部方程如下:

 

 

其中W 代表各自的權重,b 代表各自的偏置, σ 是logisTIc sigmoid 函數(shù):

設計FPGA模塊

 

 

一種遞歸神經網(wǎng)絡在FPGA平臺上的實現(xiàn)方案詳解

LSTM主要進行的是矩陣的乘法和非線性函數(shù)的計算(tanh,sigmoid),因此,選擇了Q8.8定點。

矩陣乘法由MAC單元進行(MulTIply Accumulate),一共有兩個數(shù)據(jù)流:向量和權重矩陣流,如圖6(a)。在迭代完一次之后MAC就會重置以防止之前的數(shù)據(jù)混入下一時刻的數(shù)據(jù)。兩個MAC單元的數(shù)據(jù)相加之后進行非線性函數(shù)計算。同時用一個rescale模塊將32位的數(shù)據(jù)轉變?yōu)?6位的數(shù)據(jù)。

標量計算的模塊,是為了計算ct和ht,最終傳入下一時刻的計算。如圖6(b)。

整個模型一共用了三個圖6(a)和一個圖6(b)的模塊,如圖6(c)。數(shù)據(jù)的流入流出用了DMA(Direct Memory Access)串口控制。由于DMA串口是獨立的,因此,還需要一個時鐘模塊對其進行時序控制。時鐘模塊主要是一個緩沖存儲器組成并暫存了一些數(shù)據(jù)直到數(shù)據(jù)都到達。當最后的一個端口數(shù)據(jù)流入時鐘模塊才開始傳送數(shù)據(jù),這保證了輸入跟權重矩陣是同個時刻相關的。

通過在不同平臺上訓練LSTM網(wǎng)絡,我們得到了不同模型的對比。表1是平臺的參數(shù),運行結果如圖7,可以發(fā)現(xiàn):即使在142MHz的時鐘頻率下,F(xiàn)PGA平臺下的運行時間遠遠小于其他平臺,并行八個LSTM 記憶細胞的處理取得了比 Exynos5422 快16倍的結果。

深度學習采用包含多個隱藏層的深層神經網(wǎng)絡(DeepNeural Networks,DNN)模型。DNN內在的并行性,使得具備大規(guī)模并行體系結構的GPU和FPGA成為加速深度學習的主流硬件平臺,其突出優(yōu)勢是能夠根據(jù)應用的特征來定制計算和存儲結構,達到硬件結構與深度學習算法的最優(yōu)匹配,獲得更高的性能功耗比;并且,F(xiàn)PGA靈活的重構功能也方便了算法的微調和優(yōu)化,能夠大大縮短開發(fā)周期。毫無疑問,F(xiàn)PGA在深度學習的未來是十分值得期待的。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

LED驅動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關鍵字: 驅動電源

在工業(yè)自動化蓬勃發(fā)展的當下,工業(yè)電機作為核心動力設備,其驅動電源的性能直接關系到整個系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動勢抑制與過流保護是驅動電源設計中至關重要的兩個環(huán)節(jié),集成化方案的設計成為提升電機驅動性能的關鍵。

關鍵字: 工業(yè)電機 驅動電源

LED 驅動電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個照明設備的使用壽命。然而,在實際應用中,LED 驅動電源易損壞的問題卻十分常見,不僅增加了維護成本,還影響了用戶體驗。要解決這一問題,需從設計、生...

關鍵字: 驅動電源 照明系統(tǒng) 散熱

根據(jù)LED驅動電源的公式,電感內電流波動大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關鍵字: LED 設計 驅動電源

電動汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產業(yè)的重要發(fā)展方向。電動汽車的核心技術之一是電機驅動控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機驅動系統(tǒng)中的關鍵元件,其性能直接影響到電動汽車的動力性能和...

關鍵字: 電動汽車 新能源 驅動電源

在現(xiàn)代城市建設中,街道及停車場照明作為基礎設施的重要組成部分,其質量和效率直接關系到城市的公共安全、居民生活質量和能源利用效率。隨著科技的進步,高亮度白光發(fā)光二極管(LED)因其獨特的優(yōu)勢逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關鍵字: 發(fā)光二極管 驅動電源 LED

LED通用照明設計工程師會遇到許多挑戰(zhàn),如功率密度、功率因數(shù)校正(PFC)、空間受限和可靠性等。

關鍵字: LED 驅動電源 功率因數(shù)校正

在LED照明技術日益普及的今天,LED驅動電源的電磁干擾(EMI)問題成為了一個不可忽視的挑戰(zhàn)。電磁干擾不僅會影響LED燈具的正常工作,還可能對周圍電子設備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來解決L...

關鍵字: LED照明技術 電磁干擾 驅動電源

開關電源具有效率高的特性,而且開關電源的變壓器體積比串聯(lián)穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機重量也有所下降,所以,現(xiàn)在的LED驅動電源

關鍵字: LED 驅動電源 開關電源

LED驅動電源是把電源供應轉換為特定的電壓電流以驅動LED發(fā)光的電壓轉換器,通常情況下:LED驅動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關鍵字: LED 隧道燈 驅動電源
關閉