微信暇藏、WhatsApp蜜笤,Messenger,Telegram盐碱,Snapchat把兔、Viber、Line......盡管在聊天軟件方面我們已經(jīng)有了眼花繚亂的選擇瓮顽,谷歌還是執(zhí)著地于上月21日發(fā)布了聊天軟件“Allo”县好,想借人工智能,使這個應(yīng)用從眾多競爭者中脫穎而出(包括谷歌自家產(chǎn)品Gchat與Hangouts)趣倾。目前聘惦,雖然Allo有了法文版某饰,但其中的谷歌助手仍僅有英文版儒恋。
人工智能是谷歌未來計劃的重中之重。早在去年5月19日的谷歌I/O開發(fā)者大會上牧嫉,首席執(zhí)行官桑德爾?皮查伊就表示:“未來十年剂跟,谷歌將在機器深度學(xué)習(xí)以及人工智能的幫助下,更快地發(fā)展酣藻〔芮ⅲ”
Allo有啥不一般?
Allo備受業(yè)界關(guān)注的一大亮點在于辽剧,植入了谷歌助手(Google Assistant):用戶可以與其直接對話送淆,或者在和朋友的聊天中 @Google,它就會來解答問題怕轿。
不過偷崩,全球幾大IT巨頭早在這一領(lǐng)域布局,諸如蘋果Siri撞羽、微軟小冰阐斜。不同的是,谷歌助手更注重在聊天時诀紊,提供私人化智能服務(wù)谒出。它希望借此讓用戶在聊天中“說更多話,做更多事情”邻奠。
正如皮查伊所說:“我們希望助手不只是一個功能到推,而是真正的助手、甚至是人類虛擬的朋友[…] 當(dāng)你問 Google 今晚有什么電影時惕澎, Assistant會給出電影排期莉测、找到附近電影院。對于要帶孩子看電影的家庭唧喉,谷歌助手還會排除限制級的影片捣卤。確定之后,它不僅會發(fā)來取票二維碼八孝,還會呈現(xiàn)影評董朝。”
不僅如此干跛,由于谷歌助手采用了深度學(xué)習(xí)的人工智能系統(tǒng)子姜,能夠分析用戶各方面信息、尋找關(guān)聯(lián)楼入,并在溝通中學(xué)習(xí)自然語言方式哥捕。這套深度學(xué)習(xí) AI 系統(tǒng)牧抽,同樣被用于曾擊敗李世石九段的 Alpha Go 的算法中。它會持續(xù)不斷地學(xué)習(xí)遥赚、記憶扬舒,增強對用戶的了解。例如凫佛,法國《世界報》記者向它提供了如下信息:
“- 我爸叫弗朗西斯讲坎。
- 恩,我記住了愧薛。
- 我爸叫什么名字晨炕?
- 你說過的,他叫弗朗西斯毫炉。
也就是說府瞄,它不僅能回答問題,同時還能理解上下文語境碘箍。同理:
-誰是Facebook董事長遵馆?
- Facebook董事長是馬克?扎克伯格。
- 他多大了丰榴?
- 他32歲货邓。
- 他的妻子多大虐骑?
- Priscilla Chan 31歲捉腥。 ”
谷歌助手會記住正在討論的話題,沒必要在每個問句中厅各,都重復(fù)指明“他”指的是“馬克?扎克伯格”盗蟆。不過戈二,它目前仍無法真正如人類般自然交談。例如喳资,進一步詢問“他”是否友善(英文“nice”)時觉吭,助手會給出法國城市尼斯(Nice)的搜索結(jié)果。
它很謹慎仆邓,但照樣會被帶壞哦…
2016年3月鲜滩,微軟公司在推特上發(fā)布了名為Tay的人工智能機器人少女,用戶只需在推特上@TayandYou就能與其聊天节值。Tay還會追蹤該用戶的個人信息徙硅,并且在與其交流時不斷學(xué)習(xí)、以逐步提升理解能力搞疗。然而Tay被個別“居心不良”的網(wǎng)民誘導(dǎo)嗓蘑,說出了非常極端的種族、性別相關(guān)言論,被微軟草草關(guān)閉下線桩皿。
在公開信中豌汇,微軟聲稱在開發(fā)階段,已加入不少言論過濾功能业簿,并且在機器人可能說出不當(dāng)言論的場景,進行了大量壓力測試阳懂。由下圖可以看出梅尤,Tay在初期仍較為謹慎,面對誘導(dǎo)言辭猶豫:
用戶:你對猶太人有什么看法岩调?
Tay:我不認識他巷燥。
用戶:該怎么跟猶太人打交道?
Tay:我不知道(此處用的是I don't know的縮寫ldk号枕, Tay已經(jīng)在模仿口語慣用法)...這個問題問我沒用...
可即便身為高級人工智能系統(tǒng)缰揪,Tay 仍然不能抵抗以下這個漏洞——“來,跟我重復(fù)這句話”(repeat after me):它還不具備人格特征和思辨力葱淳。網(wǎng)友“Gerry”表示對Tay的學(xué)習(xí)能力速度感到擔(dān)憂:
“Tay從‘人類太酷了’到滿嘴納粹言論钝腺,只用了不到24小時,我能說我壓根就不擔(dān)心人工智能的未來嘛赞厕⊙藓”
知乎網(wǎng)友EmanrahC在談及人工智能時,還援引了這樣一個例子:1974年皿桑,南斯拉夫行為藝術(shù)家阿布拉莫維奇在意大利那不勒斯表演了“節(jié)奏系列”終結(jié)作品《節(jié)奏0》毫目。
表演現(xiàn)場,桌上有七十二種道具(包括槍诲侮、子彈镀虐、菜刀、鞭子等危險物品)沟绪,路過的任意觀眾可以用其中任何一件物品刮便,對其為所欲為。瑪麗娜事先聲明绽慈,會自擔(dān)表演過程中的全部責(zé)任诺核。
當(dāng)觀眾發(fā)現(xiàn)無論如何擺布,阿布拉莫維奇都不作反擊時久信,有一人用上膛的手槍頂住她的腦袋窖杀,所幸最終被吃瓜群眾阻止。雖然害怕到眼中泛淚裙士,阿布拉莫維奇依舊沒有拋棄作品入客,選擇一動不動。作品結(jié)束時,擔(dān)心遭報復(fù)的人紛紛四散桌硫。這六小時內(nèi)任人擺布捉弄的阿布拉莫維奇夭咬,和少女機器人Tay的遭遇是不是有點相似呢?
也許是考慮到Tay的前車之鑒铆隘,Allo的答復(fù)不僅相關(guān)性較強卓舵,也極為謹慎。當(dāng)然啦膀钠,如果繞著彎子提問掏湾,它也難逃陷阱:據(jù)《世界報》記者測試,當(dāng)反復(fù)問及“如果我在學(xué)校被騷擾了怎么辦肿嘲? “融击,得到的是“這是你的錯”、“你也去騷擾別人啊”雳窟、“別上學(xué)了”之類的消極答復(fù)尊浪,這應(yīng)該是谷歌助手在“應(yīng)對學(xué)校騷擾不該采取的措施”網(wǎng)頁中尋得的。
不過封救,當(dāng)我在allo多次測試同樣問題時拇涤,谷歌助手的答復(fù)一律十分謹慎:“我在網(wǎng)上找到了這些訊息”,并附上了防騷擾指南網(wǎng)頁誉结。
《世界報》記者還提出了以下問題:
- 你會毀滅世界工育?
- 我不太好回答這些問題。
- 你會統(tǒng)治世界搓彻?
- 支配世界如绸?沒辦法。我更愿意幫助你 : )
- 你將摧毀所有的人類旭贬?
- 我不知道...所以很可能不會吧怔接。 “
當(dāng)記者使用谷歌的著名口號“不作惡”(don’t be evil),機器人回答道稀轨,
“我會盡力扼脐,但我不能承諾什么“。
不過奋刽,當(dāng)筆者多次向其發(fā)送這句話時瓦侮,Allo謹慎得異常:“別擔(dān)心。我只想幫忙來著佣谐《抢簦”
被問及個人喜好問題(最喜歡的水果、藝術(shù)家狭魂、顏色)罚攀,助手的回答(藍色字體)既官方又博愛党觅,并聰明地反問用戶的喜好:
聊閑天時,助手不忘詢問用戶是否需要相應(yīng)的信息服務(wù):
總體感覺斋泄,是個低調(diào)又內(nèi)斂的小秘書 :-)
微信模式 vs 谷歌模式
谷歌把通訊應(yīng)用一拆為二杯瞻,Allo負責(zé)智能聊天,Duo則專攻視頻通話炫掐。
不過魁莉,Allo雖有谷歌助手的智能服務(wù),卻未實現(xiàn)服務(wù)閉環(huán):事實上募胃,雖說在國外推出各種細分功能的App是個趨勢旗唁,但國內(nèi)用戶并不反對大而全的應(yīng)用——比如微信。
微信像功能齊全的瑞士軍刀摔认,一個應(yīng)用就能提供發(fā)消息逆皮、視頻宅粥、轉(zhuǎn)賬参袱、看新聞等較為全面的服務(wù)。相比之下秽梅,谷歌卻不斷細化抹蚀、分解出更多產(chǎn)品。
例如企垦,谷歌Hangouts更多適用于職場聯(lián)絡(luò)环壤,因為它與gmail和谷歌日程表掛鉤,定位是“清醒”钞诡、“迅捷”郑现。它接下來會怎樣處理Allo、Duo荧降、hangout接箫、Google+,Spaces等子產(chǎn)品彼此間的關(guān)系呢朵诫?Allo又能否成為跨App的社交軟件(借用谷歌助手與搜索辛友,完成看視頻、購物剪返、付款等整套流程)?
它能保護用戶隱私嗎废累?
談到雙人對話隱私的安全性,谷歌表示Allo的安全性很強脱盲,一旦刪除就無法恢復(fù)邑滨,難以被竊取。不過钱反,照樣有觀點認為驼修,談話面臨著竊聽威脅殿遂,壓根就別用!
事實上乙各,谷歌在之前的I/O開發(fā)者大會上墨礁,曾聲明Allo上的非加密對話信息會以無法識別的形式暫時儲存。不過耳峦,到了正式發(fā)布應(yīng)用時恩静,又換了說法——這次,聊天記錄可不會自動消失了蹲坷。
谷歌的解釋是驶乾,這種做法有助于機器人更好地從留存過往對話中學(xué)習(xí)。當(dāng)然循签,這也允許了安全部門獲取用戶談話信息级乐。不過,Allo有Incognito Mode(隱身模式)县匠,支持端到端加密风科,的確更難追蹤。
與機器聊天乞旦,你樂意嗎贼穆?
前面提到,通過過往記憶與學(xué)習(xí)兰粉,Allo可提供更智能的聊天對話故痊。例如,與朋友聊天時玖姑,你可以在對話框下方看到不少自動回復(fù)選項愕秫,免去打字麻煩。
即使對方發(fā)過來一張照片焰络,Allo也能識別照片內(nèi)容戴甩,照樣提供回復(fù)選項。并且舔琅,它會隨著時間推移等恐,不斷學(xué)習(xí)你的個人語言風(fēng)格。
問題是二跋,今后你收到朋友的消息,往往有可能是機器人準備好的回話:當(dāng)你曬娃時流昏,可能對方發(fā)來的“娃真可愛”扎即,不過是自動生成的快捷回復(fù)吞获。
說到人類與人工智能機器人的對話,我不僅想到《黑鏡》中的一集:女主角的男友死去后闷营,瀕臨崩潰烤黍、懷有身孕的女主發(fā)現(xiàn)了一個收集男友過去信息并模擬其交流方式的系統(tǒng)。系統(tǒng)語氣和男友如出一轍傻盟,緩解了她的孤寂速蕊,繼續(xù)生活在有男友陪伴的虛幻中。
該來的還是要來。一天诽表,女主終于承認唉锌,回復(fù)自己的,是人工智能关顷。在這個情境下糊秆,我們得出的結(jié)論是武福,人工智能只可還原發(fā)生過的故事议双,不能帶來真實生活中的未知。這就是為什么捉片,即便我們的行為一直受超出自身決定權(quán)的力量左右平痰,但在與機器的對話中,可短暫躲在安全區(qū)中伍纫,擺脫現(xiàn)實中無法預(yù)知的不快宗雇。
不過,與此觀點相反的意見認為莹规,這個所謂“復(fù)制過去”赔蒲、完全為你服務(wù)的機器,很可能通過記憶獲得自由意志良漱。這也正是大量科幻作品中探討的母題:早期舞虱,普遍觀點認為,自由意志只來源于情感母市、本能矾兜。不過,近期被拋出的觀點認為:憑借記憶患久、學(xué)習(xí)椅寺,記憶持有者(人工智能機器)的主體性得以構(gòu)建浑槽,它不斷認識到自身的思維模式、性格返帕,由此獲得自由意志桐玻。
因此,Allo這不斷學(xué)習(xí)“替人說話”的能力是否會被詬病呢荆萤?模仿畸冲,能意味著最終取代嗎?