ImageNet 創(chuàng)始人李飛飛在 CVPR“超越 ILSVRC” workshop 介紹了最后一屆 ImageNet镜粤。回顧過去 8 年玻褪,計(jì)算機(jī)視覺中一個最艱深的學(xué)術(shù)命題物體識別被攻克肉渴,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)重新定義了人工智能的方法論。李飛飛在接受新智元采訪時(shí)談了這 8 年里她印象最深的兩件事——在線眾包平臺 Amazon Mechanical Turk 的發(fā)現(xiàn)和深度學(xué)習(xí)的應(yīng)用带射,前者令她意識到構(gòu)建 ImageNet 大規(guī)模數(shù)據(jù)集的可行性同规,后者開啟了深度學(xué)習(xí)乃至人工智能新的篇章。
在 CVPR 會議期間窟社,計(jì)算機(jī)視覺期刊 IJCV 舉辦了 IJCV Asia Night 學(xué)術(shù)主題活動券勺,李飛飛作為當(dāng)晚嘉賓,對一些曾給予她幫助的朋友和同事表示了真摯的感謝桥爽,其中包括 UC 伯克利教授 Jitendra Malik朱灿,李飛飛稱他是在 CV 和 AI 方面對她啟發(fā)最大的人之一;UCLA 終身教授朱松純钠四,李飛飛認(rèn)為他在計(jì)算機(jī)視覺領(lǐng)域的思考和研究對她也有巨大的啟發(fā)盗扒;中國工程院跪楞、中國科學(xué)院外籍院士黃煦濤,李飛飛在 UIUC 獲得的第一份教授職位在很大程度上得到了他的提攜侣灶;微軟全球執(zhí)行副總裁沈向洋甸祭,他在李飛飛去谷歌時(shí)給出了很好的建議;普林斯頓大學(xué)的李凱褥影,他在李飛飛開始做 ImageNet 時(shí)給予了巨大的鼓勵和支持池户。另外,李飛飛特別提到了凡怎,她一共有 23 個學(xué)生和博士后是亞洲血統(tǒng)校焦,他們來自中國、印度统倒、日本寨典、韓國、伊朗等等房匆。李飛飛特別對她的兩個學(xué)生鄧嘉和李佳表示了感謝耸成。李飛飛引用了蜘蛛俠的名言“能力越大,責(zé)任越大”浴鸿,指出人工智能工作者重任在肩井氢。李飛飛同時(shí)指出,中國是世界上第一個發(fā)布人工智能白皮書的國家岳链,領(lǐng)先于美國花竞、英國和所有業(yè)界力量看到人工智能的潛能。李飛飛引用了現(xiàn)代哲學(xué)家 Shannon Vallor 的話作為她分享的結(jié)束語:機(jī)器沒有獨(dú)立的價(jià)值觀宠页,機(jī)器的價(jià)值觀就是人類的價(jià)值觀左胞。
如今看寇仓,ImageNet 及其競賽的重要性已經(jīng)不言而喻举户,但實(shí)際上,從更長的周期看遍烦,ImageNet 系列工作對計(jì)算機(jī)視覺俭嘁、機(jī)器學(xué)習(xí)、人工智能乃至人類進(jìn)步的影響都更為巨大——ImagNet 數(shù)據(jù)集讓人們意識到服猪,構(gòu)建優(yōu)良數(shù)據(jù)集的工作是 AI 研究的核心供填,數(shù)據(jù)和算法一樣至關(guān)重要。ImageNet 開源開放的原則也代表了 AI 研究的根本罢猪,我們需要讓所有人都參與開發(fā)更好的 AI 算法和模型近她。
2006 年,李飛飛開始反復(fù)思考一個問題膳帕。
當(dāng)時(shí)的李飛飛才剛剛在伊利諾伊大學(xué)香檳分校(UIUC)任教粘捎,她看到整個學(xué)界和工業(yè)界普遍流行一種想法薇缅,都在致力于打造更好的算法,認(rèn)為更好的算法將帶來更好的決策攒磨,不論數(shù)據(jù)如何泳桦。
但李飛飛意識到了這樣做的局限——即使是最好的算法,如果沒有好的娩缰、能夠反映真實(shí)世界的訓(xùn)練數(shù)據(jù)灸撰,也沒辦法用。
李飛飛的解決方案是:構(gòu)建一個更好的數(shù)據(jù)集拼坎。
“我們決定我們想做一件史無前例的事情浮毯,”李飛飛說,這里的“我們”指的是最初與她合作的一個小團(tuán)隊(duì)泰鸡∏坠欤“我們要詳細(xì)描繪出整個世界的物體∧袼常”
由此生成的數(shù)據(jù)集名叫 ImageNet惦蚊。相關(guān)論文發(fā)表于 2009 年,最初作為一篇研究海報(bào)在邁阿密海灘會議中心的角落展示出來讯嫂。但沒過多久蹦锋,這個數(shù)據(jù)集就迅速發(fā)展成為一項(xiàng)年度競賽,衡量哪些算法可以以最低的錯誤率識別數(shù)據(jù)集圖像中的物體欧芽。 許多人都認(rèn)為 ImageNet 競賽是如今席卷全球 AI 浪潮的催化劑莉掂。
ImageNet 競賽的歷屆參賽成員散布在科技界的每一個角落。2010 年比賽第一名的獲獎?wù)咔樱笠来卧诎俣仍髅睢⒐雀韬腿A為擔(dān)任要職。2013 年 ImageNet 獲獎?wù)?Matthew Zeiler 根據(jù)他的獲獎方案建立了 Clarifai曲楚,現(xiàn)在得到了 4000 萬美元的風(fēng)險(xiǎn)投資支持厘唾。2014 年,來自牛津大學(xué)的兩名研究人員和谷歌共同獲得了 ImageNet 競賽龙誊,他們迅速被吸收然后加入了 DeepMind抚垃。
李飛飛現(xiàn)在是谷歌云的首席科學(xué)家、斯坦福大學(xué)教授趟大,斯坦福 AI 實(shí)驗(yàn)室的主任鹤树。
今天,她在 CVPR 上介紹 2017 年 ImageNet 的成果——而 2017 年是比賽的最后一年逊朽。在短短 7 年時(shí)間里罕伯,物體分類冠軍的精確度從 71.8% 上升到 97.3%,超越了人類物體分類水平叽讳,也有力證明了更大的數(shù)據(jù)會帶來更好的決策追他。
就算 ImageNet 競爭結(jié)束熊昌,其遺產(chǎn)已經(jīng)形成。自 2009 年以來湿酸,在計(jì)算機(jī)視覺婿屹、自然語言處理和語音識別等子領(lǐng)域,研究人員也引入了幾十種新的 AI 研究數(shù)據(jù)集推溃。
“ImageNet 思維所帶來的范式轉(zhuǎn)變是昂利,盡管很多人都在注意模型,但我們要關(guān)心數(shù)據(jù)铁坎,”李飛飛說:“數(shù)據(jù)將重新定義我們對模型的看法蜂奸。”
ImageNet 數(shù)據(jù)集:起初不被看好的偉大成功
在 20 世紀(jì) 80 年代后期硬萍,普林斯頓心理學(xué)家喬治·米勒(George Miller)創(chuàng)建了一個名為 WordNet 的項(xiàng)目扩所,旨在建立一個英語層級結(jié)構(gòu)。WordNet 像字典一樣朴乖,但其中單詞會被顯示為與其他單詞相關(guān)的形式祖屏,而不是依照字母順序排列。例如在 WordNet 中买羞,“狗”這個詞將被嵌套在“犬”這個類別下袁勺,而“犬”又被嵌套在“哺乳動物”下,以此類推畜普。這是按照機(jī)器可讀的邏輯組織的語言的一種方式期丰,WordNet 積累了超過 155,000 個有索引的單詞。
李飛飛在 UIUC 的第一份教學(xué)工作中吃挑,一直在努力解決機(jī)器學(xué)習(xí)中的一個核心矛盾:過擬合和泛化钝荡。過擬合就是指算法只能處理與之前見過的數(shù)據(jù)類似的數(shù)據(jù);變化稍微大一點(diǎn)的問題就不能理解舶衬。另一方面埠通,如果一個模型無法在數(shù)據(jù)之間找到正確的模式,那么它就屬于 overgeneralizing约炎。
李飛飛說植阴,要找到完美的算法似乎還很遙遠(yuǎn)蟹瘾。她發(fā)現(xiàn)以前的數(shù)據(jù)集并沒有反映出世界的多變圾浅,就連只是識別貓的圖片都是件無限復(fù)雜的事情。但是憾朴,通過給算法更多的樣本狸捕,向算法展示世界是多么復(fù)雜,算法在數(shù)學(xué)意義上對現(xiàn)實(shí)有了更好的理解众雷。如果你只看 5 張貓的照片灸拍,那么你只知道這 5 個攝像機(jī)角度做祝、照明條件和最多 5 種不同種類的貓。但是鸡岗,如果你看過 500 張貓的照片混槐,你就能從更多的例子中發(fā)現(xiàn)共同點(diǎn)。
李飛飛開始閱讀其他人如何構(gòu)建數(shù)據(jù)集對世界進(jìn)行真切表示的文獻(xiàn)轩性。在這個搜索的過程中声登,她發(fā)現(xiàn)了 WordNet。
看過 WordNet 的方法后揣苏,李飛飛在 2006 年訪問普林斯頓期間悯嗓,見到了 Christiane Fellbaum 教授,后者在持續(xù)構(gòu)建 WordNet 方面有很大的影響力卸察。Fellbaum 認(rèn)為脯厨,WordNet 可以可以讓每個單詞都有一張相關(guān)聯(lián)的圖像,更多地作為參考而不是一個計(jì)算機(jī)視覺數(shù)據(jù)集坑质。這次會見后合武,李飛飛產(chǎn)生了一個更宏大的想法——一個大規(guī)模的數(shù)據(jù)集,每個單詞都有很多張圖像例子涡扼。
幾個月后眯杏,李飛飛加入了她的母校普林斯頓大學(xué)任職,并于 2007 年初開始從事 ImageNet 項(xiàng)目壳澳。她開始建立一個團(tuán)隊(duì)來做這件事情岂贩,首先找到了同校的 Kai Li 教授,后者說服博士生 Jia Deng 轉(zhuǎn)入李飛飛的實(shí)驗(yàn)室巷波。Jia Deng 一直參與 ImageNet 項(xiàng)目萎津,直到 2017 年。
“對我而言抹镊,這顯然與其他人正在做的事情有很大的不同锉屈,與其他人當(dāng)時(shí)關(guān)注的焦點(diǎn)有很大不同】宥” Jia Deng 說:“我很清楚地知道這將為整個視覺研究帶來改變颈渊,但我不知道具體會如何改變≈辗穑”
ImageNet 數(shù)據(jù)集中的物體(對象)將覆蓋實(shí)物(如大熊貓或教堂)到抽象概念俊嗽,比如愛情。
李飛飛首先想到雇用本科生铃彰,10 美元一小時(shí)绍豁,手動查找圖像并將其添加到數(shù)據(jù)集中。但簡單的數(shù)學(xué)很快就讓李飛飛意識到牙捉,以本科生收集圖像的速度竹揍,項(xiàng)目需要 90 年才能完成敬飒。
在本科生工作團(tuán)隊(duì)解散后,李飛飛和她的團(tuán)隊(duì)又開始重新思考芬位。如果讓計(jì)算機(jī)視覺算法從互聯(lián)網(wǎng)上收集照片无拗,人類只負(fù)責(zé)標(biāo)注呢?但經(jīng)過數(shù)月修改算法后昧碉,團(tuán)隊(duì)得出的結(jié)論蓝纲,這種方法也不可持續(xù)——當(dāng)使用這種方法構(gòu)建的數(shù)據(jù)集弄好以后,未來的算法將只能判斷算法能夠識別的圖像晌纫。
本科生耗費(fèi)時(shí)間税迷,算法有缺陷,團(tuán)隊(duì)沒有錢——李飛飛說锹漱,項(xiàng)目不僅沒有贏得任何聯(lián)邦撥款箭养,還收到很多負(fù)面評論,稱普林斯頓研究這課題太浪費(fèi)(shameful)哥牍,項(xiàng)目申請唯一可以稱道的點(diǎn)就是李飛飛是女人毕泌。
最終,李飛飛在跟研究生閑聊的時(shí)候意外浮現(xiàn)出了一個解決方案嗅辣。這個研究生問李飛飛有沒有聽說過 Amazon Mechanical Turk撼泛,這項(xiàng)服務(wù)讓世界各地坐在電腦前的人完成一小筆小筆的在線工作。
“他向我展示了網(wǎng)站澡谭,就是那一天愿题,我知道 ImageNet 項(xiàng)目一定能成功,”李飛飛說:“突然間蛙奖,我們發(fā)現(xiàn)了一個可以擴(kuò)展的工具潘酗,這是招聘普林斯頓的大學(xué)生完全不能想象的⊙阒伲”
眾包平臺 Mechanical Turk 本身也帶來了一大堆問題仔夺,其中許多工作都是由李飛飛的兩名博士生學(xué)生,Jia Deng 和 Olga Russakovsky 完成的攒砖。例如缸兔,每張圖像需要多少個眾包工人來看?也許兩個人就能確定一只貓是一只貓吹艇,但是一張微型哈士奇的圖片可能需要 10 輪驗(yàn)證惰蜜。如果一些眾包工人胡亂標(biāo)注怎么辦?李飛飛的團(tuán)隊(duì)最終為眾包工人的行為創(chuàng)建了一批統(tǒng)計(jì)模型掐暮,幫助確保數(shù)據(jù)集只包含正確的圖像蝎抽。
即使在發(fā)現(xiàn) Mechanical Turk 這個平臺后,數(shù)據(jù)也花了兩年半的時(shí)間才完成路克。ImageNet 數(shù)據(jù)集由 320 萬個標(biāo)記圖像組成樟结,分為 5,247 個類別,歸到 12 個子例里精算,比如“哺乳動物”瓢宦,“車輛”和“家具”。
2009 年灰羽,李飛飛和她的團(tuán)隊(duì)發(fā)表了 ImageNet 數(shù)據(jù)集的論文驮履,基本沒有引發(fā)什么反響。李飛飛回憶說廉嚼,計(jì)算機(jī)視覺研究領(lǐng)域的頂級會議 CVPR玫镐,只給了那篇論文一張海報(bào)展示(poster)的位置,而不是口頭介紹(oral)怠噪。李飛飛和她的團(tuán)隊(duì)在會場發(fā)帶有 ImageNet 字樣的筆來吸引人們的興趣恐似。當(dāng)時(shí)的人都很懷疑他們更多的數(shù)據(jù)有助于開發(fā)更好算法的看法。
“當(dāng)時(shí)有人說‘如果你連一個物體都做不好傍念,為什么要做上千乃至上萬個呢矫夷?”Jia Deng 說。
如果數(shù)據(jù)是新的原油憋槐,那么在 2009 年双藕,它還處于恐龍化石的形態(tài)。
ImageNet 競賽:深度學(xué)習(xí)等待已久的機(jī)遇
2009 年晚些時(shí)候阳仔,在京都舉行的計(jì)算機(jī)視覺會議上忧陪,一位名叫 Alex Berg 的研究員找到李飛飛,建議在比賽中增加一個命題近范,讓算法找到圖片中物體(對象)所在的位置赤嚼,而不僅僅說圖中有這么個東西。李飛飛回應(yīng)說:那你來和我一起工作吧顺又。
于是更卒,李飛飛、Berg 和 Deng 一起稚照,根據(jù)數(shù)據(jù)集撰寫了 5 篇論文蹂空,探討了算法如何解釋這樣大量的數(shù)據(jù)。第一篇論文后來成為如何處理幾千種圖像的基準(zhǔn)果录,這也是 ImageNet 競賽的前身上枕。
對于這第一篇論文,李飛飛說弱恒,“我們意識到要把這個想法推廣出去辨萍,我們需要找到更多人。”
然后锈玉,李飛飛聯(lián)系了歐洲知名圖像識別大賽 PASCAL VOC爪飘,后者同意與 ImageNet 合作,在宣傳 ImageNet 競賽時(shí)帶上他們的名字拉背。PASCAL 是業(yè)界知名的競賽和數(shù)據(jù)集师崎,但代表的是以前的思維方式。這個數(shù)據(jù)集只有 20 個類別椅棺,而 ImageNet 的這個數(shù)字是 1000犁罩。
隨著 ImageNet 在 2011 年和 2012 年連續(xù)舉辦,它很快成為圖像分類算法在處理當(dāng)時(shí)最復(fù)雜視覺數(shù)據(jù)集時(shí)的基準(zhǔn)两疚。
不僅如此床估,研究人員也開始注意到更多的事情,不僅僅是競賽——他們的算法在使用 ImageNet 數(shù)據(jù)集訓(xùn)練時(shí)表現(xiàn)更好诱渤。
“令人驚喜的是丐巫,你可以用在 ImageNet 上訓(xùn)練的模型啟動其他識別任務(wù)。你從 ImageNet 模型開始源哩,然后微調(diào)來進(jìn)行另一個任務(wù)鞋吉,”Berg說:“這是神經(jīng)網(wǎng)絡(luò)的突破,也是整個視覺識別的突破励烦∥阶牛”
在第一次 ImageNet 競賽的兩年后,2012 年坛掠,發(fā)生了一件更大的事情赊锚。事實(shí)上,如果我們今天看到的人工智能繁榮可以歸功于一個事件屉栓,那么這件事就是 2012 年 ImageNet 競賽結(jié)果的公布舷蒲。
多倫多大學(xué)的 Geoffrey Hinton,Ilya Sutskever 和 Alex Krizhevsky 提交了一個名為 AlexNet 的深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)——至今仍在研究中使用——實(shí)現(xiàn)了準(zhǔn)確率 10.8% 的大幅提升友多,高出第二名 41%牲平。
對于 Hinton 和他的兩個學(xué)生來說,ImageNet 的出現(xiàn)恰逢其時(shí)域滥。自 20 世紀(jì) 80 年代以來纵柿,Hinton 一直致力于人工神經(jīng)網(wǎng)絡(luò)的研究,盡管有些像 Yann LeCun 一樣启绰,能夠通過貝爾實(shí)驗(yàn)室的影響將這項(xiàng)技術(shù)應(yīng)用于 ATM 支票識別昂儒,但是 Hinton 的研究卻無處可用。幾年前委可,顯卡制造商英偉達(dá)的研究讓這些網(wǎng)絡(luò)的處理速度更快渊跋,但神經(jīng)網(wǎng)絡(luò)仍然不如其他技術(shù)。
Hinton 和他的團(tuán)隊(duì)表明,他們的網(wǎng)絡(luò)可以在較小的數(shù)據(jù)集上執(zhí)行較小的任務(wù)拾酝,如手寫字符檢測燕少。但是,他們需要更多的數(shù)據(jù)才能在現(xiàn)實(shí)世界中有用微宝。
“如果你在 ImageNet 上做得很好棺亭,你就能解決圖像識別問題虎眨,這是再清楚不過的蟋软。”Sutskever 說嗽桩。
今天岳守,這些卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)無處不在——LeCun 現(xiàn)在是 Facebook AI Research 的主管,F(xiàn)acebook 使用它們來標(biāo)記你的照片碌冶,自動駕駛汽車在使用它們來檢測物體湿痢,基本上任何識別圖像和視頻的系統(tǒng)都使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)。CNN 可以通過抓取抽象特征分辨圖像中的內(nèi)容扑庞,找到模式與新輸入的圖像模式相匹配譬重。Hinton 幾十年來一直試圖說服同行他的研究有用,現(xiàn)在他終于有了證據(jù)罐氨。
“更令人驚奇的是臀规,人們能夠通過深度學(xué)習(xí)來不斷改進(jìn),”Sutskever 說栅隐,指多層神經(jīng)網(wǎng)絡(luò)能夠處理更復(fù)雜的模式塔嬉,也是現(xiàn)在最受歡迎的人工智能技術(shù)∽馇模“深度學(xué)習(xí)就是我們要的東西(Deep learning is just the right stuff)谨究。”
2012 年 ImageNet 競賽的結(jié)果使計(jì)算機(jī)視覺研究人員紛紛開始復(fù)現(xiàn)這一過程泣棋。紐約大學(xué)的博士生 Matthew Zeiler 曾經(jīng)跟著 Hinton 學(xué)習(xí)胶哲,他發(fā)現(xiàn)了 ImageNet 競賽的結(jié)果,并通過多倫多大學(xué)的聯(lián)系很早獲知了論文和代碼潭辈。他開始與 Rob Fergus 合作鸯屿,F(xiàn)ergus 是紐約大學(xué)的教授,也一直研究神經(jīng)網(wǎng)絡(luò)萎胰。兩人開始為 2013 年的 ImageNet 競賽設(shè)計(jì)自己的方案碾盟,Zeiler 最后提前幾周結(jié)束了在谷歌實(shí)習(xí),專注于提交 ImageNet 競賽結(jié)果技竟。
2014 年冰肴,也就是 Zeiler 和 Fergus 獲勝那一年,所有的高分結(jié)果使用的方法都是深度神經(jīng)網(wǎng)絡(luò)。
“2012 年的 ImageNet 競賽無疑引發(fā)了 AI 大爆炸熙尉,”Zeiler 表示:“在此之前联逻,語音識別有一些非常有希望的結(jié)果(其中許多是由多倫多大學(xué)開啟的),但是都沒有像 2012 年和接下來的 ImageNet 競賽冠軍一樣廣為流傳检痰“椋”
競賽雖然結(jié)束,但 ImageNet 精神永存
現(xiàn)在铅歼,許多人都認(rèn)為 ImageNet 已經(jīng)被解決了——誤差率在 2% 左右真的很低了公壤。但是,這是分類的結(jié)果椎椰,也就是識別圖像中的物體是什么厦幅。這并不代表算法知道這個物體的屬性,它來自哪里慨飘、功能是什么确憨、如何使用,或者如何與其周圍環(huán)境進(jìn)行交互瓤的⌒萜總之,算法實(shí)際上并不理解它看到了什么圈膏。這在語音識別中塔猾,甚至在很多自然語言處理中也是如此。雖然 AI 今天在分辨事物上十分厲害本辐,但接下來要在現(xiàn)實(shí)世界情景中理解事物是什么桥帆。至于怎么做到這一點(diǎn),AI 研究人員目前還不清楚慎皱。
盡管 ImageNet 競賽結(jié)束了老虫,但 ImageNet 數(shù)據(jù)集——經(jīng)過多年來更新,現(xiàn)在已經(jīng)超過 1300 萬張圖片將會繼續(xù)茫多。
Berg 表示祈匙,團(tuán)隊(duì)試圖在 2014 年結(jié)束競賽的一個子命題,但卻遭到了來自包括谷歌和 Facebook 等公司的阻力天揖。產(chǎn)業(yè)界非常喜歡這個基準(zhǔn)夺欲,他們可以指著一個數(shù)字說:“看我們這么牛〗癫玻”
自 2010 年以來些阅,谷歌、微軟和 CIFAR 推出了其他一些數(shù)據(jù)集斑唬,因?yàn)槭聦?shí)表明深度學(xué)習(xí)需要像 ImageNet 這樣的大數(shù)據(jù)市埋。
數(shù)據(jù)集已經(jīng)變得非常重要黎泣。創(chuàng)始人和風(fēng)險(xiǎn)投資家會在 Medium 寫文章介紹最新發(fā)布的數(shù)據(jù)集,以及他們的算法在 ImageNet 上的表現(xiàn)缤谎∈阋校互聯(lián)網(wǎng)公司,比如谷歌坷澡、Facebook 和亞馬遜已經(jīng)開始創(chuàng)建自己的內(nèi)部數(shù)據(jù)集托呕,數(shù)據(jù)都來自每天在他們的平臺上輸入和共享的數(shù)百萬圖像、語音片段和文本片段频敛。即使是初創(chuàng)公司也開始構(gòu)建自己的數(shù)據(jù)集——TwentyBN项郊,一個專注于視頻理解的 AI 初創(chuàng)公司,發(fā)布了兩個免費(fèi)的學(xué)術(shù)數(shù)據(jù)集姻政,每個數(shù)據(jù)集有超過 100,000 個視頻呆抑。
李飛飛說:“各種數(shù)據(jù)集岂嗓,從視頻到語音到游戲汁展,都有很大的發(fā)展⊙嵫常”
有時(shí)人們理所當(dāng)然的認(rèn)為這些花了大力氣收集食绿、組合、檢驗(yàn)的數(shù)據(jù)集是免費(fèi)的公罕。開放和自由使用是 ImageNet 的原始宗旨器紧,這一宗旨也將超越 ImageNet 競賽,甚至數(shù)據(jù)集傳承下去楼眷。
2016 年铲汪,谷歌發(fā)布了 Open Images 數(shù)據(jù)集,其中包含 6000 多個類別的 900 萬張圖像罐柳。谷歌最近更新了數(shù)據(jù)集掌腰,在每個圖像中包含了特定對象所在的標(biāo)簽,這個特點(diǎn)在 2014 年的ImageNet 競賽后成了圖像數(shù)據(jù)集的標(biāo)配张吉。DeepMind 最近也發(fā)布了人類進(jìn)行各種行為的視頻數(shù)據(jù)集齿梁。
“ImageNet 讓 AI 領(lǐng)域發(fā)生的一個重大變化是,人們突然意識到構(gòu)建數(shù)據(jù)集這個苦活累活是 AI 研究的核心肮蛹,”李飛飛說: “人們真的明白了勺择,數(shù)據(jù)集跟算法一樣,對研究都至關(guān)重要伦忠∈『耍”