原文地址:https://en.wikipedia.org/wiki/Intelligent_personal_assistant
當(dāng)首次介紹深度學(xué)習(xí)時鹊奖,我們認(rèn)為它是一個要比機器學(xué)習(xí)更好的分類器婉宰¤厩溃或者,我們亦理解成大腦神經(jīng)計算。
第一種理解大大低估了深度學(xué)習(xí)構(gòu)建應(yīng)用的種類,而后者又高估了它的能力贞绵,因而忽略了那些不是一般人工智能應(yīng)用的更現(xiàn)實和務(wù)實的應(yīng)用。
最好最自然的理解應(yīng)該是從人機交互角度來看待深度學(xué)習(xí)應(yīng)用恍飘。深度學(xué)習(xí)系統(tǒng)似乎具備近似于生物大腦的能力榨崩,因此,它們可以非常高效地應(yīng)用于增強人類或者動物已經(jīng)可以執(zhí)行的任務(wù)上章母。此外母蛛,需要重視的一點是,深度學(xué)習(xí)系統(tǒng)與傳統(tǒng)的符號計算平臺非常不同乳怎,正如人類與計算機的計算方式不同一樣彩郊,深度學(xué)習(xí)也是如此前弯。
使用深度學(xué)習(xí)構(gòu)建應(yīng)用甚至可以如我們暢想的科幻小說一般。下面我們來分享基于深度學(xué)習(xí)開發(fā)出來的一些不可思議的應(yīng)用程序:
Facebook開發(fā)的一個移動應(yīng)用秫逝,可以讓盲人或者視力障礙者像正常人一樣瀏覽照片恕出。
微軟的Skype能夠?qū)⒄Z音實時翻譯成不同的語言。
Google的Mail可以代替您自動回復(fù)電子郵件违帆。
Moodstocks(已經(jīng)被Google收購)推出的智能手機圖像識別應(yīng)用程序Moodstocks Notes浙巫,可通過照片識別書籍、CD刷后、海報的畴、傳單和酒標(biāo)等對象。
Google能夠根據(jù)照片進行拍攝場景定位尝胆。
Google相冊可以自動整理分類到常見的主題下面丧裁。
Yelp可以根據(jù)業(yè)務(wù)分支對照片進行分類。
自動駕駛技術(shù)應(yīng)該是深度學(xué)習(xí)領(lǐng)域最為大家所知的應(yīng)用了含衔。
可以基于不同的作曲家風(fēng)格進行音樂組成煎娇。
可以基于著名的藝術(shù)家繪畫風(fēng)格創(chuàng)建。
利用深度學(xué)習(xí)發(fā)現(xiàn)新材料贪染。
Google DeepMind能夠創(chuàng)建視頻游戲系統(tǒng)缓呛,通過觀看游戲?qū)W習(xí)如何玩得很好。
Google DeepMind創(chuàng)建了一個Go播放系統(tǒng)抑进,能夠通過對抗自己來學(xué)習(xí)新的策略强经。
這個就無需解釋了睡陪。
一種RNN訓(xùn)練寺渗,生成吸引眼球的標(biāo)題。
將黑白照片自動轉(zhuǎn)換成彩色:http://richzhang.github.io/colorization/兰迫。
Google的一個移動應(yīng)用信殊,可將照片中的文字翻譯成您可以理解的文字。
Swiftkey正在構(gòu)建一種移動鍵盤汁果,讓輸入更加簡單方便涡拘。
看看MIT這些伙計是怎么說的。
使用不同的手勢据德,對沒有屏幕的設(shè)備進行交互鳄乏。
SmileVector可以把一張照片的人,自動轉(zhuǎn)換成微笑的表情的照片棘利。
例如Google開發(fā)的進行自動對話回復(fù)的郵件橱野。
百度開發(fā)的一個應(yīng)用,能夠基于深度學(xué)習(xí)技術(shù)進行面部追蹤善玫。
一個深度學(xué)習(xí)系統(tǒng)水援,在倉庫中用最佳的方式拿取和放置物品,這種系統(tǒng)明顯快于傳統(tǒng)的研究方法,并且效率更高蜗元。
將圖像進行視覺搜索查詢或渤。
通知腦電圖描記器參與提取記錄中語音混合物在神經(jīng)轉(zhuǎn)向聽力假肢中的應(yīng)用。
利用卷積網(wǎng)絡(luò)創(chuàng)建快速且高度逼真的流體模擬奕扣。
亞馬遜使用深度學(xué)習(xí)技術(shù)來驅(qū)動其個性化功能薪鹦。
在2013年BRATS測試數(shù)據(jù)集上的報結(jié)果表明,802,368參數(shù)網(wǎng)絡(luò)比已發(fā)布的最先進的技術(shù)改進了超過30倍成畦。
Google正在使用DeepMind人工智能子公司的技術(shù)距芬,以大幅節(jié)省其數(shù)據(jù)中心的電力功耗。
類似上面的倉庫優(yōu)化循帐,亞馬遜研究人員基于深度學(xué)習(xí)技術(shù)分析3D掃描框仔,讓機器人對物品進行整理。
Facebook正在利用深度學(xué)習(xí)技術(shù)拄养,從衛(wèi)星圖像上創(chuàng)建更加準(zhǔn)確的地圖离斩。
通過聲音進行識別。
用戶可以更加快速準(zhǔn)確地理解已經(jīng)被著色的紅外圖像瘪匿。
現(xiàn)實中的3D打印技術(shù)跛梗。
將草圖合成真實的面部圖像。
一個RNN訓(xùn)練棋弥,8年時間從來自26萬患者和14805名醫(yī)生的EHR數(shù)據(jù)核偿,該神經(jīng)網(wǎng)絡(luò)進行多標(biāo)簽預(yù)測(每次診斷或藥物類別作為一個標(biāo)簽),該系統(tǒng)可以執(zhí)行召回鑒別診斷率高達(dá)79%顽染,明顯高于基線漾岳。
使用深度學(xué)習(xí)來確定客戶的“皮膚年齡”,確定問題領(lǐng)域粉寞,并提供旨在解決這些問題的產(chǎn)品方案尼荆。
藥物設(shè)計,虛擬篩選(VS)唧垦,定量結(jié)構(gòu)——活性關(guān)系(QSAR)研究捅儒,蛋白質(zhì)結(jié)構(gòu)預(yù)測和基因組學(xué)(和其他組學(xué))數(shù)據(jù)挖掘。