日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 近日,麻省理工學(xué)院和IBM 研究人員組成的團(tuán)隊(duì),共同創(chuàng)建了一個(gè)ObjectNet圖像識別數(shù)據(jù)集,這是一類高性能的視覺模型,同時(shí)難倒了目前世界上最好的計(jì)算器視覺模型。 目前,全球最大的「C

近日,麻省理工學(xué)院和IBM 研究人員組成的團(tuán)隊(duì),共同創(chuàng)建了一個(gè)ObjectNet圖像識別數(shù)據(jù)集,這是一類高性能的視覺模型,同時(shí)難倒了目前世界上最好的計(jì)算器視覺模型。

目前,全球最大的「CV 習(xí)題庫」ImageNet,由世界上頂尖的計(jì)算器視覺專家李飛飛參與建立,應(yīng)用于人工智能領(lǐng)域中的圖像分類最常用來訓(xùn)練和測試的數(shù)據(jù)集。最近,對該計(jì)算器視覺模型測試,結(jié)果發(fā)現(xiàn):在 ImageNet 測試準(zhǔn)確率高達(dá) 97% 的計(jì)算器視覺模型,在 ObjectNet 數(shù)據(jù)集上檢測的準(zhǔn)確率下降到了 50%-55%。為何測試結(jié)果會如此差距?主要原因在于,目前幾乎所有的視覺模型,在類似于物體旋轉(zhuǎn)、背景變換、視角切換等復(fù)雜情境下,識別過程都缺乏穩(wěn)定性。換句話說,并不是因?yàn)閿?shù)據(jù)量不夠,而是模型對類似于旋轉(zhuǎn)、背景變換、視角切換等等的認(rèn)知缺乏穩(wěn)定性。

麻省理工學(xué)院計(jì)算器科學(xué)與人工智能實(shí)驗(yàn)室 (CSAIL) 和大腦、心智與機(jī)器中心 (CBMM) 的研究科學(xué)家 Andrei Barbu,是ObjectNet該項(xiàng)目的主持人之一。他在接受 DeepTech 專訪時(shí)表示以下見解,摘要如下:

AI人工智能借助神經(jīng)元層組成的神經(jīng)網(wǎng)絡(luò)在大量的原始數(shù)據(jù)中尋找規(guī)律,例如:透過機(jī)器學(xué)習(xí)上千張椅子的照片之后,而學(xué)會了椅子的形狀。于是,ImageNet 從Flickr等其他社交媒體網(wǎng)站上下載了接近 10 億張圖片,含有近 1500 萬張照片的數(shù)據(jù)庫,涵蓋了22000種物品。

計(jì)算器視覺模型已經(jīng)學(xué)會了精確地識別照片中的物體,以至于有些模型在某些數(shù)據(jù)集上表現(xiàn)得比人類還要好。但是,當(dāng)這些模型真正進(jìn)入到生活中時(shí),它們的準(zhǔn)確率會顯著下降,這帶給自動駕駛汽車和其他使用計(jì)算器視覺的關(guān)鍵系統(tǒng)帶來了安全隱憂。

ObjectNet與ImageNet隨意收集的照片不同。因?yàn)?,ObjectNet從多個(gè)視點(diǎn)在不同的背景上進(jìn)行映像,提供的照片是有特殊背景和角度的,因而產(chǎn)生數(shù)據(jù)集的大量變化。研究人員讓自由職業(yè)者為數(shù)百個(gè)隨機(jī)擺放的家具物品拍照,告訴他們從什么角度拍攝以及是擺在廚房、浴室還是客廳。因此,大多數(shù)檢測器對 ObjectNet中包含的大多數(shù)圖像都識別失敗了

麻省理工學(xué)院研究科學(xué)家認(rèn)為,物體識別問題仍然是個(gè)難題,我們需要更好、更聰明的算法。機(jī)器仍然很難理解物體是三維空間存在,物體也可以旋轉(zhuǎn)和移動到新的環(huán)境中,目前這些概念并沒有構(gòu)建到檢測器的架構(gòu)中。

ObjectNet與Imagenet的區(qū)別為何?

Andrei Barbu認(rèn)為:

1、收集圖像的方式可以控制偏差。我們告訴人們?nèi)绾涡D(zhuǎn)物體,在什么背景中放置物體,以及在哪個(gè)角度拍照。在大多數(shù)的數(shù)據(jù)集中,圖像背景的信息會導(dǎo)致機(jī)器不自覺的「欺騙」,它們會憑借對于廚房背景的了解來預(yù)測某個(gè)東西可能是平底鍋。

2、這些照片不是從社交媒體上收集的,所以它們不是那種好看的照片,人們也不想分享。我們還確保收集來自印度、美國以及不同社會經(jīng)濟(jì)階層的圖像。我們還有損壞或破碎物體的圖像。

3、沒有訓(xùn)練集。

一般會有訓(xùn)練集及測試集,但ObjectNet沒有訓(xùn)練集。

從新的角度想象物體的三維形狀,這也是計(jì)算器視覺的未來。ObjectNet的設(shè)計(jì)就是提供了一個(gè)更可靠的工具,用來檢測你的模型是不是足夠強(qiáng)。下一個(gè)版本的 ObjectNet開發(fā),它對于檢測器來說會更加困難,因帶有部分遮擋的物體對象被其他對象部分覆蓋,因而造成探測器對有遮擋的物體的識別還不夠穩(wěn)定。ObjectNet的目標(biāo)是激勵研究人員開發(fā)出下一波革命性的技術(shù)。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時(shí)聯(lián)系本站刪除( 郵箱:macysun@21ic.com )。
換一批
延伸閱讀
關(guān)閉