AI的很多優(yōu)勢是眾所周知、被接受和被吹捧的,可它的局限性也是比較明顯的。不過,AI還是有一些顯著的特征,雖不常被提及,但也值得關(guān)注。
優(yōu)點(diǎn)
AI應(yīng)用程序可以輕松執(zhí)行極其復(fù)雜的任務(wù)。其可以為你可能喜歡的下一首歌曲提供個(gè)性化推薦,或者從數(shù)百萬張x光片中挑選出顯示問題的那一首。此外,其還能夠以人類專家無法比擬的數(shù)量和準(zhǔn)確度完成此類任務(wù)。單調(diào)而重要的工作可以被完美地、毫無怨言地完成。
局限性
與此同時(shí),也有很多文章說人類擁有AI所缺乏的能力。這些文章通常認(rèn)為,人類和AI必須合作,AI可以增強(qiáng)人類更廣泛的能力。我們可以想象、預(yù)測、感覺和判斷不斷變化的情況。由于尚未實(shí)現(xiàn)更廣泛的通用AI,當(dāng)前的AI模型——在狹窄任務(wù)中表現(xiàn)出色——仍然受益于人類指導(dǎo)。
比較明顯的是,AI的優(yōu)勢與人類的弱點(diǎn)直接對應(yīng)。與人類不同的是,AI理解概率,不引入偏見,保持一致,并避免不必要的風(fēng)險(xiǎn)。
概率vs結(jié)果
人類理解結(jié)果,但通常不擅長處理概率。MontyHall的《Let’sMakeaDeal》便是一個(gè)例子,在這里人類表現(xiàn)出了對概率和先驗(yàn)更新的缺乏理解。在這個(gè)游戲中,有三扇門:一扇有汽車,另兩扇有山羊。 參賽者隨機(jī)選擇一扇門,Monty 選擇打開一扇有山羊的門。然后, Monty給參賽者一個(gè)機(jī)會(huì),讓他們可切換到另一扇關(guān)閉的門。他們應(yīng)該嗎?事實(shí)證明,通過打開一扇門, Monty給了參賽者額外的信息,如果參賽者總是切換,那么有三分之二的幾率贏得汽車。人類往往會(huì)錯(cuò)誤地回答這類問題,但AI可以完美地回答它。
偏見
人類有很多偏見,不管是叫它們“直覺”還是其他什么名字。確認(rèn)偏差可能是最常見的:人類尋找并解釋支持先入為主假設(shè)或理論的信息。兩個(gè)人在觀看同一個(gè)新聞節(jié)目時(shí),可能會(huì)對當(dāng)天的事件得出不同的結(jié)論。相比之下,偏見只會(huì)在AI中通過人類提供給其學(xué)習(xí)的數(shù)據(jù)表現(xiàn)出來。AI的偏見僅限于有限的數(shù)據(jù)集,而不是不斷變化的人類經(jīng)驗(yàn)、記憶、信仰和恐懼的復(fù)雜性。從這個(gè)意義上說,AI偏見可以說比人類偏見更加離散和可解決。
一致性
AI是一致的,這讓人很痛苦。除非另有說明,否則AI將按照人類一貫的要求行事。人類始終如一的一個(gè)特點(diǎn)就是在運(yùn)動(dòng)、飲食、上班路線等方面都是不一致的。此外,人類會(huì)為自己的不一致找到合理的解釋。同樣的病人以同樣的癥狀出現(xiàn)在同一個(gè)醫(yī)生面前,可能在不同的時(shí)間得到不同的診斷,這并不是不可理解的。AI保證程序和結(jié)果的一致性,前提是基礎(chǔ)人群不存在巨大偏差。
風(fēng)險(xiǎn)
AI不會(huì)冒險(xiǎn),但人類會(huì)。這就是為什么希望人類智能來增強(qiáng)AI。人類智慧的力量正在承擔(dān)風(fēng)險(xiǎn),并押注于此。例如,在沒有算法支持的情況下,押注電動(dòng)汽車。但有時(shí)這種風(fēng)險(xiǎn)會(huì)表現(xiàn)為動(dòng)力失調(diào),比如造成機(jī)組人員死亡的挑戰(zhàn)者號(hào)航天飛機(jī)災(zāi)難。雖然一名工程師以O(shè)型密封圈的設(shè)計(jì)缺陷為理由,敦促推遲發(fā)射,但航天飛機(jī)還是按計(jì)劃升空,并在起飛一分鐘后爆炸。在對1986年那場致命災(zāi)難的分析中,社會(huì)學(xué)家DianeVaughan創(chuàng)造了“偏差正常化”這一詞,用來描述團(tuán)隊(duì)對不健全的實(shí)踐變得麻木不仁。AI會(huì)客觀地評價(jià)并決定推遲發(fā)射。
所以,AI無法想象、預(yù)測、感覺和判斷,但理解概率,不會(huì)引入新的偏見,保持一致,并避免不必要的風(fēng)險(xiǎn)。人類能夠感知和判斷的事實(shí),可能并不總是對自己有利。?