最近棚放,ChatGPT 可謂之甚囂塵上馅闽。不光是人工智福也、機器學習的人非常關(guān)注局骤,甚至于各行各業(yè)的人都來嘗試一下,體會一下人工智能帶來的科技快感暴凑。
但是用的越多發(fā)現(xiàn)問題越多峦甩,已經(jīng)有網(wǎng)友發(fā)現(xiàn),ChatGPT 會說謊现喳,而且是撒一個謊凯傲,再用更多的謊去圓的情況。
ChatGPT的謊言
我嘗試問了ChatGPT一個問題:“千字文是誰寫的嗦篱?”他回復的答案是:“秦始皇”冰单。
如果第一個問題不能說明問題,我又問第二個問題:“秦始皇還寫了什么文章灸促?”,回答是《紀秦始皇》腿宰、《紀自治原則》、《訓諭》吃度、《臣下規(guī)》。
網(wǎng)上類似的問題還有很多很多法精。
如果一個問題回答錯誤,或許可以理解為其訓練模型不夠完整搂蜓,或者數(shù)據(jù)量不足。但是它用第二個虛構(gòu)的答案來掩飾第一個問題相味,就有點超出正常的范圍了殉挽。
由此可見,ChatGPT 通過語言模型練習之后斯碌,已經(jīng)非常像一個人類,甚至有了“撒謊”這項本領(lǐng)输拇。而這不免又引起擔憂。人工智能的未來到底是造福人類還是毀滅人類逛裤?
人工智能究竟是造福還是毀滅猴抹?
1942年带族,阿西莫夫在短片小說"Runaround"(《環(huán)舞》)中首次提出了三定律:
- 第一條:機器人不得傷害人類蝙砌,或看到人類受到傷害而袖手旁觀.
- 第二條:機器人必須服從人類的命令跋理,除非這條命令與第一條相矛盾。
- 第三條:機器人必須保護自己前普,除非這種保護與以上兩條相矛盾。
在科幻片和科幻小說的設(shè)定中,這三條鐵律是被植入機器人底層的贱纠。但是顯然這是設(shè)定响蕴,而非事實。
即使保證三條鐵律的情況下浦夷,人工智能依然可以通過撒謊等方式來造成一定的危害。比如潛移默化的影響一個人的思想剃执,一個人的態(tài)度懈息。而如果這個人是一國之領(lǐng)導人摹恰,產(chǎn)生的后果可能世界大戰(zhàn)。
從1950年的圖靈機俗慈;到1964年,聊天機器人的誕生炮车;1997年酣溃,IBM公司的“深藍”戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫;再到2017年赊豌,AlphaGo戰(zhàn)勝世界圍棋冠軍柯潔;再到如今看似無所不能的ChatGPT熙兔。人工智能已經(jīng)越來越近艾恼,但是也越來越危險。
正如360創(chuàng)始人周鴻祎所說:ChatGPT的最大安全問題就是產(chǎn)生自我意識之后是否能被控制钠绍。人工智能亦是如此。基于龐大的數(shù)據(jù)庫和強大的運算能力纳寂,人工智能肯定能獲得遠超人類的能力,關(guān)鍵在于未來的人工智能是否能受控于人忽媒。
在人工智能探索的道路上腋粥,人類或許還有很多路需要走晦雨。