或許我真是個(gè)多愁善感的家伙。交代下周五和傻兮兮聊的人工智能話題李滴。
我們從人工智能是否會(huì)在未來存在情緒展開螃宙,聊到情緒就意味著人情味,意味著人性所坯,這當(dāng)然是一個(gè)機(jī)器不該有的只能屬于人類的特征谆扎。人類的大腦有感情中樞,所以有人性底線和情緒起伏的遏制芹助,人類才會(huì)犯錯(cuò)或者知道自己錯(cuò)了堂湖。所有人都知道當(dāng)錯(cuò)誤大到一定程度時(shí)再有權(quán)勢(shì)或扭曲的人也會(huì)選擇放棄和自殺,比如希特勒状土。但人工智能沒有情緒无蜂,它們的可怕之處可能就在于碰到問題會(huì)過于冷靜,沒有是非觀沒有情感底線是能讓所有可以繼續(xù)的事情以極端理性的方式進(jìn)行到人類所有情感底線之外很遠(yuǎn)的蒙谓。它不會(huì)意識(shí)到自己錯(cuò)的斥季,除非人類一開始就把識(shí)別錯(cuò)誤的智能寫進(jìn)代碼里±弁裕可什么是對(duì)錯(cuò)酣倾,人工智能要如何取舍判斷?這又會(huì)是一個(gè)沒有盡頭的故事谤专。要么人類能時(shí)時(shí)掌控人工智能的每次升級(jí)和進(jìn)步躁锡。
已經(jīng)有專家在說,人工智能在設(shè)計(jì)編寫上要充分體現(xiàn)程序員作為人的各種原則置侍,可惜人類價(jià)值觀多種多樣映之,很難衡量界定清楚完善。
人類未來是否會(huì)對(duì)屆時(shí)的高級(jí)人工智能失控蜡坊?如果有一開始的人為作用讓人工智能刻意隱藏自身實(shí)力怎么辦杠输?因?yàn)槿祟愒絹碓窖鲑嚾斯ぶ悄苷J(rèn)識(shí)自己,但人工智能不能從情感上區(qū)分不同生命體秕衙,這個(gè)一開始最基本起碼的機(jī)器特征會(huì)否讓人類反而越來越偏離自然的掌控抬伺?最后會(huì)有什么后果?還有那些初衷是拉近人類距離灾梦,方便彼此交流的人工智能軟件會(huì)讓人們?cè)绞桦x還是越親近峡钓?