青青草原在线视频,亚洲视频无码专区,玖玖爱在线观看视频,国产A级理论片无码免费孕妇做为

當(dāng)前位置:首頁(yè) > 最新資訊 > 行業(yè)資訊

AI最糟糕的真實(shí)應(yīng)用場(chǎng)景

AI(人工智能)的最糟糕應(yīng)用場(chǎng)景在好萊塢電影大片中屢見(jiàn)不鮮:機(jī)器學(xué)會(huì)了類似人類的智慧,具備了感知能力,免不了變成邪惡的霸主,并企圖摧毀人類。這種敘事技巧利用了我們對(duì)未知領(lǐng)域的先天恐懼,反映出伴隨新事物出現(xiàn)的深刻變化。

不過(guò),就像ML工程師,同時(shí)也是小說(shuō)《量子價(jià)格》作者的馬爾科姆•默多克所說(shuō)的那樣:“AI要想殺死我們,不一定要有感情。在有感情的AI成為問(wèn)題之前,就有很多可能消滅我們的場(chǎng)景。”

通過(guò)對(duì)AI專家的采訪,本刊揭示了真實(shí)世界中的6個(gè)最糟糕的AI場(chǎng)景,這些場(chǎng)景遠(yuǎn)比電影中描繪的平淡,但它們依然是反烏托邦的。大多數(shù)這些場(chǎng)景都不需要惡毒的獨(dú)裁者來(lái)實(shí)現(xiàn)。相反,如果不采取措施進(jìn)行阻止,這些可能會(huì)輕易成為默許場(chǎng)景并自然地呈現(xiàn)出來(lái)。為了防止這些最糟糕的場(chǎng)景發(fā)生,我們必須摒棄對(duì)AI的流行文化看法,謹(jǐn)慎對(duì)待其意外后果。

1.當(dāng)虛構(gòu)來(lái)定義我們的現(xiàn)實(shí)

如果讓虛構(gòu)來(lái)定義我們的現(xiàn)實(shí),那么就可能發(fā)生不必要的悲劇。然而,在數(shù)字世界中我們無(wú)法分辨真假,如何進(jìn)行選擇呢?

在可怕的場(chǎng)景中,不斷增多的深度偽造(高級(jí)ML工具產(chǎn)生的偽造圖像、視頻、音頻和文本等)有一天可能會(huì)導(dǎo)致國(guó)家安全決策者根據(jù)錯(cuò)誤信息在真實(shí)世界中采取行動(dòng),從而造成重大危機(jī),甚至更嚴(yán)重地引發(fā)戰(zhàn)爭(zhēng)。

喬治敦大學(xué)安全和新興技術(shù)中心(CSET)的高級(jí)研究員安德魯•洛恩(Andrew Lohn)說(shuō):“現(xiàn)在,采用AI的系統(tǒng)能夠(大規(guī)模)生成虛假信息。”通過(guò)產(chǎn)生大量、多變的虛假信息,這些系統(tǒng)能夠混淆其本質(zhì),進(jìn)行優(yōu)化并獲取成功,隨著時(shí)間的推移,提高其預(yù)期影響。

在緊要關(guān)頭,如果無(wú)法及時(shí)地確認(rèn)信息的真實(shí)性,深度偽造的概念就足以導(dǎo)致領(lǐng)導(dǎo)者行動(dòng)時(shí)猶豫不決。

德國(guó)漢堡研究和安全政策研究所的研究員瑪麗娜•法瓦羅(Marina Favaro)指出:“深度偽造損害了我們對(duì)信息流的信任。”深度偽造導(dǎo)致的作為和不作為都可能會(huì)給世界帶來(lái)災(zāi)難性的后果。

2.逼近底線的危險(xiǎn)競(jìng)爭(zhēng)

涉及AI和國(guó)家安全時(shí),速度是重點(diǎn)也是難點(diǎn)。采用AI的系統(tǒng)能夠給用戶帶來(lái)更大的速度效益,發(fā)展軍事應(yīng)用領(lǐng)先的國(guó)家將具備戰(zhàn)略優(yōu)勢(shì)。不過(guò),在這個(gè)過(guò)程中,可能會(huì)犧牲哪些設(shè)計(jì)原則呢?

系統(tǒng)的微小缺陷和被黑客利用會(huì)造成形勢(shì)崩潰。喬治敦大學(xué)安全和新興技術(shù)中心的戰(zhàn)略總監(jiān)海倫•托納(Helen Toner)表示,危機(jī)可能會(huì)“從一次無(wú)惡意的單點(diǎn)故障開(kāi)始,故障導(dǎo)致所有通信中斷,引發(fā)人們的恐慌并造成經(jīng)濟(jì)活動(dòng)停滯。信息持續(xù)缺失,伴隨其他誤判,可能會(huì)造成事態(tài)急劇失控。”

瑞典斯德哥爾摩國(guó)際和平研究所(SIPRI)的高級(jí)研究員文森特•博拉寧(Vincent Boulanin)警告說(shuō),重大災(zāi)難可能會(huì)導(dǎo)致“大國(guó)為了搶占先機(jī)而搶先走上捷徑。如果一個(gè)國(guó)家將速度優(yōu)先于安全、檢測(cè)或人類監(jiān)督,那就會(huì)形成逼近底線的危險(xiǎn)競(jìng)爭(zhēng)。”

例如,為了獲得速度優(yōu)勢(shì),國(guó)家安全負(fù)責(zé)人可能會(huì)被誘惑下放指揮和控制權(quán),去除對(duì)我們并未充分了解的ML模型的人工監(jiān)督。在這種場(chǎng)景中,無(wú)需人類授權(quán)便可啟動(dòng)的導(dǎo)彈防御系統(tǒng),可能會(huì)導(dǎo)致事件意外升級(jí)并引發(fā)核戰(zhàn)爭(zhēng)。

3.隱私和自由意志的終結(jié)

每一次數(shù)字行為都會(huì)產(chǎn)生新的數(shù)據(jù),如電子郵件、文本、下載、采購(gòu)、信息發(fā)布、自拍和GPS定位等。在允許企業(yè)和政府不受限制地訪問(wèn)這些數(shù)據(jù)的過(guò)程中,我們拱手交出了監(jiān)督和控制的工具。

再加上面部識(shí)別、生物特征提取、基因組數(shù)據(jù),以及采用AI的預(yù)測(cè)分析,喬治敦大學(xué)安全和新興技術(shù)中心的洛恩很擔(dān)心:“隨著通過(guò)數(shù)據(jù)進(jìn)行監(jiān)管和跟蹤的增多,我們進(jìn)入了一個(gè)未知的危險(xiǎn)領(lǐng)域,我們對(duì)潛在影響幾乎一無(wú)所知。”

賓夕法尼亞大學(xué)全球事務(wù)研究中心“佩里世界大廈”(Perry World House)的負(fù)責(zé)人邁克爾•C. 霍洛維茨(Michael C. Horowitz)提出了警告:“要注意有關(guān)AI的邏輯及其對(duì)國(guó)內(nèi)的壓制意味著什么。過(guò)去,獨(dú)裁者鎮(zhèn)壓群眾依靠的是大量軍隊(duì),但有的軍人可能支持社會(huì)群體并可能發(fā)動(dòng)政變,而AI則會(huì)減少這種約束。”

經(jīng)過(guò)收集和分析的數(shù)據(jù)力量遠(yuǎn)遠(yuǎn)不止檢查和監(jiān)督等預(yù)測(cè)性控制功能。如今,采用AI的系統(tǒng)能夠預(yù)測(cè)我們購(gòu)買什么商品、觀看什么娛樂(lè)節(jié)目,以及會(huì)點(diǎn)擊哪些鏈接。如果這些平臺(tái)比我們更了解我們自己,我們可能無(wú)法注意到自己的自由意志逐漸被剝奪,并受到外部力量的控制。

4.人類行為實(shí)驗(yàn)

孩子延遲即時(shí)滿足的能力,等待第二塊棉花糖,曾被認(rèn)為是預(yù)測(cè)人生成功的重要指標(biāo)。很快,即便是獲得第二塊棉花糖的孩子也會(huì)屈服于撩人的參與算法。

社交媒體用戶已經(jīng)成為了實(shí)驗(yàn)室里的小白鼠,生活在人類的斯金納箱中,緊盯著智能手機(jī)屏幕,被迫犧牲珍貴的時(shí)間和精力,貢獻(xiàn)給從中贏利的平臺(tái)。

喬治敦大學(xué)安全和新興技術(shù)中心的海倫•托納說(shuō):“算法被優(yōu)化,盡可能讓用戶長(zhǎng)時(shí)間停留在平臺(tái)。”馬爾科姆•默多克解釋道,通過(guò)點(diǎn)贊、評(píng)論和關(guān)注等形式提供獎(jiǎng)勵(lì),“算法讓我們大腦的工作短路,讓我們無(wú)法抗拒地繼續(xù)參與。”

為了最大限度地追求廣告利潤(rùn),企業(yè)在我們的工作、家庭和朋友、責(zé)任,甚至業(yè)余愛(ài)好中,偷走我們的精力。更可怕的是,平臺(tái)的內(nèi)容讓我們感覺(jué)比以前更痛苦、更糟糕。托納警告道:“在這些平臺(tái)上花的時(shí)間越多,我們?cè)谧非蠓e極、豐富、有意義的生活上花的時(shí)間就越少。”

5.AI設(shè)計(jì)的專制

每天,我們把更多的日常生活交給采用AI的機(jī)器。這很成問(wèn)題,正如霍洛維茨所說(shuō):“我們還沒(méi)有充分認(rèn)識(shí)到AI的偏見(jiàn)問(wèn)題。即便是出于善意,采用AI的系統(tǒng)設(shè)計(jì)(包括訓(xùn)練數(shù)據(jù)和數(shù)學(xué)模型)也反映了設(shè)計(jì)者有偏見(jiàn)的狹隘經(jīng)驗(yàn)和利益。我們每個(gè)人都有偏見(jiàn)。”

因此,美國(guó)佛羅里達(dá)州克利爾沃特IT安全公司KnowBe4的新興技術(shù)分析高級(jí)副總裁莉迪亞•科斯托普洛斯(Lydia Kostopoulos)表示:“許多采用AI的系統(tǒng)未能考慮不同人的不同經(jīng)驗(yàn)和特征。”由于AI解決問(wèn)題的根據(jù)是有偏見(jiàn)的觀點(diǎn)和數(shù)據(jù),而不是每一個(gè)個(gè)體的獨(dú)特需求,因此這種系統(tǒng)產(chǎn)生的某種程度的一致性,在人類社會(huì)是不存在的。

甚至在AI興起之前,我們?nèi)粘I钪谐R?jiàn)物品的設(shè)計(jì)也往往是迎合特定類型的人群而設(shè)計(jì)的。例如,研究表明,汽車、手機(jī)等手持型工具,甚至是辦公環(huán)境中的溫度設(shè)定都是針對(duì)中等身材的男性而設(shè)計(jì)的,這給身材和體型不同的人群(包括女性)帶來(lái)了諸多不便,有時(shí)甚至?xí)o他們的生活帶來(lái)很大風(fēng)險(xiǎn)。

當(dāng)處于偏見(jiàn)常態(tài)之外的個(gè)體被忽略、被邊緣化、被排斥時(shí),AI就成為了卡夫卡式的“看門人”,導(dǎo)致這些人無(wú)法享受客戶服務(wù)、獲得工作、享受醫(yī)療衛(wèi)生服務(wù),等等。AI設(shè)計(jì)的決策會(huì)限制人們,而不是將其從日常問(wèn)題中解放出來(lái)。此外,這些選擇會(huì)將有些不好的人類偏見(jiàn)轉(zhuǎn)化成為種族和性別的歧視和風(fēng)險(xiǎn)實(shí)踐,以及有嚴(yán)重缺陷和偏見(jiàn)的判決結(jié)果。

6.對(duì)AI的恐懼使人類不再受益

隨著計(jì)算能力和運(yùn)行硬件復(fù)雜性的提高,AI的功能一定會(huì)增強(qiáng),社會(huì)對(duì)AI的恐懼似乎只會(huì)隨著時(shí)間而增強(qiáng)。“人工神經(jīng)網(wǎng)絡(luò)可以做出非常瘋狂的事。”默多克說(shuō),“我們需要謹(jǐn)慎對(duì)待相關(guān)風(fēng)險(xiǎn)。”不過(guò),如果人們過(guò)于害怕AI,以至于政府對(duì)AI進(jìn)行嚴(yán)格管控,使得人類不再受益,那又會(huì)怎樣呢?例如,DeepMind的AlphaFold程序?qū)崿F(xiàn)重大突破,能夠預(yù)測(cè)氨基酸是如何折疊形成蛋白質(zhì)的,科學(xué)家因此有可能確定人類98.5%的蛋白質(zhì)結(jié)構(gòu)。這一里程碑將為生命科學(xué)的快速發(fā)展建立富有成效的基礎(chǔ)。再比如,AI通過(guò)各種人類語(yǔ)言組合的流暢翻譯,使推進(jìn)跨文化交流和理解成為可能;采用AI的系統(tǒng)可以識(shí)別新的疾病治療和護(hù)理方法等。為了防止發(fā)生AI的最壞結(jié)果,政府的本能性監(jiān)管行為也可能帶來(lái)事與愿違的效果,產(chǎn)生意外的負(fù)面影響,導(dǎo)致我們害怕這種強(qiáng)大技術(shù)的威力,抵制利用它真正為世界造福。

猜你喜歡