AI系統(tǒng)的脆弱性一直被行業(yè)人員所詬病,稍微的數(shù)據(jù)錯誤就會使系統(tǒng)發(fā)生故障。例如在圖像識別中,圖片微小的像素改變,不會干擾人類視覺,但機(jī)器可能會發(fā)生紊亂。正如CVPR 2017論文中所論述的那樣“修改一個像素,就能讓神經(jīng)網(wǎng)絡(luò)識別圖像出錯”。
至于原因,研究人員有過很多探究:數(shù)據(jù)不夠好,算法設(shè)計不精妙....近日,在科技媒體wired上,計算機(jī)科學(xué)家Erik J. Larson撰文表示:優(yōu)化思維是AI脆弱性的根源。
"然后,我們必須承認(rèn)AI當(dāng)前脆弱性的根源正是AI設(shè)計現(xiàn)在推崇的崇高理想:優(yōu)化。"
優(yōu)化是推動AI盡可能準(zhǔn)確的動力,在抽象的邏輯世界中,這種推動無疑是好的,但在AI運(yùn)行的現(xiàn)實(shí)世界中,每一個好處都是有代價的。例如需要更多數(shù)據(jù)來提高機(jī)器學(xué)習(xí)計算精度,需要更好的數(shù)據(jù)來確保計算的真實(shí)性。
“這種更好”必須保證不斷的進(jìn)行數(shù)據(jù)收集,因此當(dāng)AI開始逐漸形成完整的畫面時,新數(shù)據(jù)的出現(xiàn)可能改變現(xiàn)有狀況,從而導(dǎo)致系統(tǒng)崩潰。這也是大眾眼中近乎完美的AI經(jīng)常“犯精神病”的原因之一:將狗狗當(dāng)成菠蘿,把無辜的人看成通緝犯。
1.優(yōu)化的脆弱性
人類不是一個優(yōu)化者,過去幾萬年大腦本身也并沒有進(jìn)化出完美優(yōu)化的功能。大腦是輕量級的,從不追求100%的準(zhǔn)確性,并能夠從小數(shù)據(jù)中得出假設(shè)。
換句話說,大腦滿足于在“門檻”上混日子,如果1%的準(zhǔn)確率就能讓它生存,那么這就是大腦所需要的準(zhǔn)確率。但這種最小生存策略也會導(dǎo)致認(rèn)知偏見,讓人們思維封閉、魯莽、宿命論、恐慌。
AI嚴(yán)格的數(shù)據(jù)驅(qū)動訓(xùn)練方法能有效避免這種認(rèn)知偏見,卻也讓其陷入“過度糾正”。確實(shí),對人類而言,好的心態(tài)能夠抵御完美主義帶來的破壞性影響,一個不那么神經(jīng)質(zhì)的大腦已經(jīng)幫助我們在“生活的沖撞和搖擺”中茁壯成長。
將這種“反脆弱”引入AI,那么也意味著:與其追求壓縮越來越大的數(shù)據(jù)堆,不如專注于提高AI對不良信息、用戶差異和環(huán)境動蕩的容忍度。這種AI將消耗更少的能量,產(chǎn)生更少的隨機(jī)失誤,帶來更少的負(fù)擔(dān)。如何做?目前來看,有三種方式。
2.構(gòu)建AI直面不確定性
五百年前,實(shí)用主義大師尼科勒·馬基雅維利指出,世俗的成功需要一種反直覺的勇氣。對于聰明人來說,大部分不存在的知識將是不必要的;生活往往不會符合我們的預(yù)期。因此,人類可以改變對模糊性的處理方式。
例如當(dāng)AI遇到單詞suit時,它會通過分析更多的信息來確定該單詞是表示衣服,還是法律名詞。分析更多信息通常意味著利用大數(shù)據(jù)縮小答案范圍,這在99.9%的情況下有效,剩下的0.1%,AI仍然會“自信”的將suit表示為法律名詞,但實(shí)際上它是衣服。
因此,AI應(yīng)該有足夠大的答案范圍。研究人員在設(shè)計AI時候,應(yīng)該允許“模棱兩可”,并將模糊選項(xiàng)代入后續(xù)任務(wù)中,就像人類能夠讀懂一首詩歌的多個潛在含義一樣。如果下游任務(wù)不允許“模棱兩可”的存在,這時設(shè)計的AI應(yīng)該能請求人類的幫助,讓人類代替它進(jìn)行決策。
3.用數(shù)據(jù)作為靈感來源
目前的AI希望通過大數(shù)據(jù)的發(fā)散性思維實(shí)現(xiàn)創(chuàng)造。但眾多科學(xué)研究顯示,生物的創(chuàng)造力往往涉及無數(shù)據(jù)和非邏輯過程。因此,依靠大數(shù)據(jù)或許能夠批量創(chuàng)造出許多“新”作品,但這些作品僅限于歷史數(shù)據(jù)的混合和匹配。換句話說,大規(guī)模的發(fā)散性思維的產(chǎn)生必然伴隨著低質(zhì)量。
數(shù)據(jù)驅(qū)動的創(chuàng)造所產(chǎn)生的局限性可以從GPT-3以及Artbreeder等文本和圖像生成器中看到。通過“觀察”歷史場景,然后添加專家意見,試圖產(chǎn)生下一個梵高。但結(jié)果往往是這位“梵高”只能復(fù)制以前畫家的作品。這種AI設(shè)計文化,顯然誤解了創(chuàng)新的含義。這種情況從大家對FaceNet的盛譽(yù)中可見一斑,因?yàn)橛幸恍┟娌孔R別的創(chuàng)新,仍然是蠻力優(yōu)化??梢灶惐葹檎{(diào)整汽車的扭矩帶增加汽車性能,并稱其為汽車交通革命。
因此,是時候?qū)?shù)據(jù)看成靈感來源,而不是偽造來源了。90年前,《科學(xué)發(fā)現(xiàn)的邏輯》一書的作者卡爾·波普爾就指出:用事實(shí)推翻想法比證明想法更合乎邏輯。將這種思維引入到AI產(chǎn)物中,我們可以將數(shù)據(jù)的功能從小想法的大量產(chǎn)生者轉(zhuǎn)變成大規(guī)模的毀滅者(a mass destroyer of anything except),當(dāng)然一些前所未有的想法除外。(譯者注:這里的大規(guī)模毀滅者是指將“重復(fù)作品”篩選出來)
因此,與其無休止的產(chǎn)生“重復(fù)作品”,不如讓計算機(jī)搜索有價值的作品,從而找到未被賞識的“梵高”。
4.人機(jī)結(jié)合
將人腦融入AI聽起來很科幻,短期內(nèi)很難有大的進(jìn)展,但我們可以另辟蹊徑,設(shè)計友好的人機(jī)關(guān)系。當(dāng)前人與機(jī)器的合作關(guān)系并沒有發(fā)揮它應(yīng)有的作用,人類要么充當(dāng)機(jī)器的保姆,要么充當(dāng)AI系統(tǒng)更新的附屬品。前者意味著乏味、枯燥,后者意味著被動。如何解決?當(dāng)前的工作重點(diǎn)已經(jīng)關(guān)注三個方面:
1.攻關(guān)科研,讓AI有能力“知道”它何時缺少訓(xùn)練數(shù)據(jù)。換句話說,追求正確的AI,不如追求讓AI知道自己何時不正確,賦予AI認(rèn)知自己的智慧。人類的大腦無法擁有計算機(jī)的數(shù)據(jù)處理速度,所以當(dāng)無知的算法認(rèn)為自己無所不能的時候,人類的干預(yù)總是太晚。因此,應(yīng)該通過編程讓“傻瓜”發(fā)現(xiàn)自己是“傻瓜”。
2. 完善人機(jī)交互界面。因追求優(yōu)化而造成的不透明設(shè)計,即黑盒算法。交互設(shè)計應(yīng)該消除黑盒性質(zhì),例如將剛性按鈕(只有一個選項(xiàng))替換成包含概率的選項(xiàng),標(biāo)明第一個選項(xiàng)的可能性為70%,第二個選項(xiàng)的可能性為20%,第三個選項(xiàng)的可能性為5%,以此類推。如果沒有滿意的選項(xiàng),那么就要求AI重新定向,或者進(jìn)行手動操作,以最大的限度提高計算機(jī)的邏輯和人類的主動性。
3. 仿照大腦建立去中心化的AI模型。大腦包含去中心化的認(rèn)知機(jī)制,例如邏輯、敘述、情感,它們之間相互制約、相互平衡。因此,AI系統(tǒng)也可以設(shè)計包含不同推理架構(gòu),例如如果深度學(xué)習(xí)不能訪問它所需要的數(shù)據(jù),系統(tǒng)就可以過渡到if-then的控制程序。更重要的是,AI可以向外看,從人類學(xué)的線索中學(xué)習(xí),而不是狂熱地集中在自己的內(nèi)部優(yōu)化策略上。
以上技術(shù)建議并不是未來虛幻的想象,它是現(xiàn)在就可以實(shí)現(xiàn)的設(shè)計創(chuàng)新。需要研究者拋棄大數(shù)據(jù)以及完美智能的假設(shè),在這個不斷變化的世界中,創(chuàng)造性要求比最準(zhǔn)確要求來的更加明智。