日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當前位置:首頁 > 物聯(lián)網(wǎng) > 區(qū)塊鏈
[導(dǎo)讀] 當與區(qū)塊鏈數(shù)據(jù)集一起使用時,機器學習模型往往會過擬合。什么是過度擬合以及如何解決? 乍一看,使用機器學習來分析區(qū)塊鏈數(shù)據(jù)集的想法聽起來非常吸引人,但這是充滿挑戰(zhàn)的道路。在這些挑戰(zhàn)中,當

當與區(qū)塊鏈數(shù)據(jù)集一起使用時,機器學習模型往往會過擬合。什么是過度擬合以及如何解決?

乍一看,使用機器學習來分析區(qū)塊鏈數(shù)據(jù)集的想法聽起來非常吸引人,但這是充滿挑戰(zhàn)的道路。在這些挑戰(zhàn)中,當將機器學習方法應(yīng)用于區(qū)塊鏈數(shù)據(jù)集時,缺少標記數(shù)據(jù)集仍然是要克服的最大難題。這些局限性導(dǎo)致許多機器學習模型使用非常小的數(shù)據(jù)樣本進行操作,以訓練和過度優(yōu)化那些引起過擬合現(xiàn)象的模型。今天,我想深入探討區(qū)塊鏈分析中的過度擬合挑戰(zhàn),并提出一些解決方案。

過度擬合被認為是現(xiàn)代深度學習應(yīng)用程序中的最大挑戰(zhàn)之一。從概念上講,當模型生成的假設(shè)過于適合特定數(shù)據(jù)集的假設(shè)而無法適應(yīng)新數(shù)據(jù)集時,就會發(fā)生過度擬合。理解過度擬合的一個有用類比是將其視為模型中的幻覺。本質(zhì)上,模型從數(shù)據(jù)集中推斷出錯誤的假設(shè)時會產(chǎn)生幻覺/過度擬合。自從機器學習的早期以來,已經(jīng)有很多關(guān)于過擬合的文章,所以我不認為有任何聰明的方法來解釋它。對于區(qū)塊鏈數(shù)據(jù)集,過度擬合是缺少標記數(shù)據(jù)的直接結(jié)果。

區(qū)塊鏈是大型的半匿名數(shù)據(jù)結(jié)構(gòu),其中的所有事物都使用一組通用的構(gòu)造表示,例如交易,地址和區(qū)塊。從這個角度來看,有最少的信息可以證明區(qū)塊鏈記錄。這是轉(zhuǎn)賬還是付款交易?這是個人投資者錢包或交易所冷錢包的地址?這些限定符對于機器學習模型至關(guān)重要。

想象一下,我們正在創(chuàng)建一個模型來檢測一組區(qū)塊鏈中的交換地址。這個過程需要我們使用現(xiàn)有的區(qū)塊鏈地址數(shù)據(jù)集訓練模型,我們都知道這不是很常見。如果我們使用來自EtherScan或其他來源的小型數(shù)據(jù)集,則該模型可能會過度擬合并做出錯誤的分類。

使過擬合變得如此具有挑戰(zhàn)性的方面之一是很難在不同的深度學習技術(shù)中進行概括。卷積神經(jīng)網(wǎng)絡(luò)傾向于形成過擬合模式,該模式與觀察到的與生成模型不同的遞歸神經(jīng)網(wǎng)絡(luò)不同,該模式可以外推到任何類型的深度學習模型。具有諷刺意味的是,過度擬合的傾向隨著深度學習模型的計算能力線性增加。由于深度學習主體幾乎可以免費產(chǎn)生復(fù)雜的假設(shè),因此過擬合的可能性增加了。

在機器學習模型中,過度擬合是一個持續(xù)的挑戰(zhàn),但是在使用區(qū)塊鏈數(shù)據(jù)集時,這幾乎是必然的。解決過度擬合的明顯答案是使用更大的訓練數(shù)據(jù)集,但這并不總是一種選擇。在IntoTheBlock,我們經(jīng)常遇到過度擬合的挑戰(zhàn),我們依靠一系列基本方法來解決問題。

對抗區(qū)塊鏈數(shù)據(jù)集過擬合的三種簡單策略

對抗過度擬合的第一個規(guī)則是認識到這一點。雖然沒有防止過度擬合的靈丹妙藥,但實踐經(jīng)驗表明,一些簡單的,幾乎是常識的規(guī)則可以幫助防止在深度學習應(yīng)用中出現(xiàn)這種現(xiàn)象。為了防止過度擬合,已經(jīng)發(fā)布了數(shù)十種最佳實踐,其中包含三個基本概念。

數(shù)據(jù)/假設(shè)比率

當模型產(chǎn)生太多假設(shè)而沒有相應(yīng)的數(shù)據(jù)來驗證它們時,通常會發(fā)生過度擬合。因此,深度學習應(yīng)用程序應(yīng)嘗試在測試數(shù)據(jù)集和應(yīng)評估的假設(shè)之間保持適當?shù)谋嚷?。但是,這并不總是一種選擇。
?

有許多深度學習算法(例如歸納學習)依賴于不斷生成新的,有時是更復(fù)雜的假設(shè)。在這些情況下,有一些統(tǒng)計技術(shù)可以幫助估計正確的假設(shè)數(shù)量,以優(yōu)化找到接近正確的假設(shè)的機會。盡管此方法無法提供確切的答案,但可以幫助在假設(shè)數(shù)量和數(shù)據(jù)集組成之間保持統(tǒng)計平衡的比率。哈佛大學教授萊斯利·瓦利安特(Leslie Valiant)在他的《大概是正確的》一書中出色地解釋了這一概念。

進行區(qū)塊鏈分析時,數(shù)據(jù)/假設(shè)比率非常明顯。假設(shè)我們正在基于一年的區(qū)塊鏈交易構(gòu)建預(yù)測算法。因為我們不確定要測試哪種機器學習模型,所以我們使用了一種神經(jīng)架構(gòu)搜索(NAS)方法,該方法針對區(qū)塊鏈數(shù)據(jù)集測試了數(shù)百種模型。假設(shè)數(shù)據(jù)集僅包含一年的交易,則NAS方法可能會產(chǎn)生一個完全適合訓練數(shù)據(jù)集的模型。

支持簡單假設(shè)

防止深度學習模型過度擬合的概念上瑣碎但技術(shù)上困難的想法是不斷生成更簡單的假設(shè)。當然!簡單總是更好,不是嗎?但是在深度學習算法的背景下,一個更簡單的假設(shè)是什么?如果我們需要將其減少到一個定量因素,我會說深度學習假設(shè)中的屬性數(shù)量與它的復(fù)雜度成正比。

簡單的假設(shè)往往比其他具有大量計算和認知屬性的假設(shè)更易于評估。因此,與復(fù)雜模型相比,較簡單的模型通常不易過擬合?,F(xiàn)在,下一個明顯的難題是弄清楚如何在深度學習模型中生成更簡單的假設(shè)。一種不太明顯的技術(shù)是基于估計的復(fù)雜度將某種形式的懲罰附加到算法上。該機制傾向于傾向于更簡單,近似準確的假設(shè),而不是在出現(xiàn)新數(shù)據(jù)集時可能會崩潰的更復(fù)雜(有時甚至更準確)的假設(shè)。

為了在區(qū)塊鏈分析的背景下解釋這個想法,讓我們想象一下我們正在建立一個模型,用于對區(qū)塊鏈中的支付交易進行分類。該模型使用一個復(fù)雜的深度神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)會生成1000個特征以執(zhí)行分類。如果將其應(yīng)用于較小的區(qū)塊鏈(例如Dash或Litecoin),則該模型很可能會過擬合。

偏差/方差余額

偏差和方差是深度學習模型中的兩個關(guān)鍵估計量。從概念上講,偏差是模型的平均預(yù)測與我們試圖預(yù)測的正確值之間的差。具有高偏差的模型很少關(guān)注訓練數(shù)據(jù),從而簡化了模型??偸菚?dǎo)致培訓和測試數(shù)據(jù)的錯誤率很高?;蛘撸讲钍侵附o定數(shù)據(jù)點的模型預(yù)測的可變性或一個告訴我們數(shù)據(jù)分布的值。具有高方差的模型將大量注意力放在訓練數(shù)據(jù)上,并且沒有對以前從未見過的數(shù)據(jù)進行概括。結(jié)果,這樣的模型在訓練數(shù)據(jù)上表現(xiàn)很好,但是在測試數(shù)據(jù)上有很高的錯誤率。

偏差和方差與過度擬合如何相關(guān)?用超簡單的術(shù)語來說,可以通過減少模型的偏差而不增加其方差來概括泛化的技巧。深度學習的一種良好做法是對它進行建模,以定期將產(chǎn)生的假設(shè)與測試數(shù)據(jù)集進行比較并評估結(jié)果。如果假設(shè)繼續(xù)輸出相同的錯誤,則說明我們存在很大的偏差問題,需要調(diào)整或替換算法。相反,如果沒有明確的錯誤模式,則問題在于差異,我們需要更多數(shù)據(jù)。

綜上所述

? 任何低復(fù)雜度模型-由于高偏差和低方差,容易出現(xiàn)擬合不足。
? 任何高復(fù)雜度模型(深度神經(jīng)網(wǎng)絡(luò))-由于低偏差和高方差,容易出現(xiàn)過度擬合。

在區(qū)塊鏈分析的背景下,偏差方差摩擦無處不在。讓我們回到我們的算法,該算法嘗試使用許多區(qū)塊鏈因素來預(yù)測價格。如果我們使用簡單的線性回歸方法,則該模型可能不合適。但是,如果我們使用具有少量數(shù)據(jù)集的超復(fù)雜神經(jīng)網(wǎng)絡(luò),則該模型可能會過擬合。

使用機器學習來分析區(qū)塊鏈數(shù)據(jù)是一個新生的空間。結(jié)果,大多數(shù)模型在機器學習應(yīng)用程序中都遇到了傳統(tǒng)挑戰(zhàn)。根本上,由于缺乏標記數(shù)據(jù)和訓練有素的模型,過度擬合是區(qū)塊鏈分析中無所不在的挑戰(zhàn)之一。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: 驅(qū)動電源

在工業(yè)自動化蓬勃發(fā)展的當下,工業(yè)電機作為核心動力設(shè)備,其驅(qū)動電源的性能直接關(guān)系到整個系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動勢抑制與過流保護是驅(qū)動電源設(shè)計中至關(guān)重要的兩個環(huán)節(jié),集成化方案的設(shè)計成為提升電機驅(qū)動性能的關(guān)鍵。

關(guān)鍵字: 工業(yè)電機 驅(qū)動電源

LED 驅(qū)動電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個照明設(shè)備的使用壽命。然而,在實際應(yīng)用中,LED 驅(qū)動電源易損壞的問題卻十分常見,不僅增加了維護成本,還影響了用戶體驗。要解決這一問題,需從設(shè)計、生...

關(guān)鍵字: 驅(qū)動電源 照明系統(tǒng) 散熱

根據(jù)LED驅(qū)動電源的公式,電感內(nèi)電流波動大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關(guān)鍵字: LED 設(shè)計 驅(qū)動電源

電動汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產(chǎn)業(yè)的重要發(fā)展方向。電動汽車的核心技術(shù)之一是電機驅(qū)動控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機驅(qū)動系統(tǒng)中的關(guān)鍵元件,其性能直接影響到電動汽車的動力性能和...

關(guān)鍵字: 電動汽車 新能源 驅(qū)動電源

在現(xiàn)代城市建設(shè)中,街道及停車場照明作為基礎(chǔ)設(shè)施的重要組成部分,其質(zhì)量和效率直接關(guān)系到城市的公共安全、居民生活質(zhì)量和能源利用效率。隨著科技的進步,高亮度白光發(fā)光二極管(LED)因其獨特的優(yōu)勢逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關(guān)鍵字: 發(fā)光二極管 驅(qū)動電源 LED

LED通用照明設(shè)計工程師會遇到許多挑戰(zhàn),如功率密度、功率因數(shù)校正(PFC)、空間受限和可靠性等。

關(guān)鍵字: LED 驅(qū)動電源 功率因數(shù)校正

在LED照明技術(shù)日益普及的今天,LED驅(qū)動電源的電磁干擾(EMI)問題成為了一個不可忽視的挑戰(zhàn)。電磁干擾不僅會影響LED燈具的正常工作,還可能對周圍電子設(shè)備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來解決L...

關(guān)鍵字: LED照明技術(shù) 電磁干擾 驅(qū)動電源

開關(guān)電源具有效率高的特性,而且開關(guān)電源的變壓器體積比串聯(lián)穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機重量也有所下降,所以,現(xiàn)在的LED驅(qū)動電源

關(guān)鍵字: LED 驅(qū)動電源 開關(guān)電源

LED驅(qū)動電源是把電源供應(yīng)轉(zhuǎn)換為特定的電壓電流以驅(qū)動LED發(fā)光的電壓轉(zhuǎn)換器,通常情況下:LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: LED 隧道燈 驅(qū)動電源
關(guān)閉