以深度學習為標桿的人工智能在過去兩年風光無限院究。眾多巨頭紛紛發(fā)布人工智能平臺或者人工智能芯片圈地為王耘戚,無數(shù)人工智能初創(chuàng)公司期待借風口上飄搖而上上嗡髓,無數(shù)人工智能愛好者一起使得Python成了2017最熱門語言,使得賣顯卡的英偉達股票翻番收津。
這樣的群體狂歡下饿这,人工智能似乎已經(jīng)登頂智慧的巔峰,大家都開始未雨綢繆撞秋,認真預測哪些行業(yè)會被人工智能替代长捧,家里兒子女兒是不是該換個大學讀讀。
且慢吻贿,不才認為大家似乎都太過高看了現(xiàn)在的人工智能串结。
AlphaGo和深度學習
提到人工智能不提及AlphaGo有點像談乒乓球不提中國隊一樣。
去年AlphaGo兄弟幾個摧枯拉朽一樣擊敗眾多世界頂尖圍棋高手的時候舅列,一種最悲觀的觀點是
人類千圍棋智慧的結晶使得圍棋頂尖高手終于登上了一個山峰肌割。可惜這個山峰只是茫茫群峰中很低的一個帐要。而基于深度學習的AlphaGo則可以達到真正的頂峰把敞。
深度學習大行其道的原因有兩個,一個是大數(shù)據(jù)宠叼,另一個是足夠強大的運算能力先巴。前者依賴互聯(lián)網(wǎng)和大數(shù)據(jù)以獲得足夠多有效數(shù)據(jù)來訓練神經(jīng)網(wǎng)絡其爵,后者則歸功于摩爾定律驅(qū)動下芯片處理能力的極大提高以及成本和功耗的大大下降。針對神經(jīng)網(wǎng)絡特性而開發(fā)的擅長并行運算處理器如NPU伸蚯,TPU 以及GPU等為深度學習提供了強大的火力支援摩渺。
所謂深度學習是機器學習的一種,AlphaGo Zero可以和自己下棋剂邮,不再需要人工干預和棋譜摇幻。在AlphaGo Zero橫空出世前它和自己下了68000000盤棋。
機器學習就是計算能力支撐的暴力破解
AlphaGo和它的兄弟們都是經(jīng)過了百萬盤棋的廝殺之后訓練出來的挥萌。
我不是很熟悉人類頂尖棋手的學習訓練強度绰姻。假設棋手每天訓練10小時每局花費一小時,一年無休下來人類棋手可以下3600盤棋引瀑。十年寒窗棋手可以下36000盤棋狂芋。
這說明人類棋手訓練的效率要大大高于機器的基于蒙特卡洛隨機樹的訓練。人類選手在每一盤棋的廝殺和復盤中會學到很多憨栽,如策略帜矾,經(jīng)驗,頓悟屑柔,技巧屡萤。而這些概念在深度學習中壓根不存在。神經(jīng)網(wǎng)絡只會將所有的訓練結果體現(xiàn)在眾多的神經(jīng)網(wǎng)絡權重上掸宛。而這些權重和真的人腦的工作方式是不是吻合死陆?明顯不是。
機器學習只能針對特定任務實現(xiàn)
機器學習這個弱點的一個明證就是學成的神經(jīng)網(wǎng)絡只能干一件事情唧瘾,比如下圍棋的絕對不會下象棋措译。而人類則可以在不同的棋類游戲之間互相借鑒諸如策略等而相互提高。
機器學習的另外一個經(jīng)典的例子就是計算機看了1000萬張圖片后終于可以認出貓了饰序。
回想一下人類從嬰兒期第一次見到貓之后瞳遍,即使只見到幾只貓,也會很快分辨出貓菌羽,甚至是長相,體型由缆,品種注祖,顏色完全不同的貓。這對機器學習都是極大的挑戰(zhàn)均唉。
人類認識事物的時候會將事物內(nèi)在的聯(lián)系使用起來是晨,比如貓和狗都是動物這樣的知識會幫助人類趕快更準確認識世界萬物。
人腦的復雜程度也許遠遠超出人類的想象舔箭。用神經(jīng)網(wǎng)絡來模擬人腦工作試圖復制人類大腦任重而道遠罩缴。
就像人類千年的圍棋智慧比之圍棋的終極智慧蚊逢,當下的人工智能也許只是無盡的群山中一個小小的山峰。