隨著企業(yè)將更多機(jī)器學(xué)習(xí)和人工智能模型投入生產(chǎn),人們?cè)絹?lái)越意識(shí)到自己的系統(tǒng)存在偏見(jiàn)。這種偏見(jiàn)不僅可能導(dǎo)致AI系統(tǒng)做出更糟糕的決定,還可能使運(yùn)行AI系統(tǒng)的組織陷入法律危機(jī)。偏見(jiàn)可以滲透到應(yīng)用于各種行業(yè)的AI系統(tǒng)中。
哈佛大學(xué)和埃森哲公司在去年發(fā)布的一份報(bào)告中展示了算法偏見(jiàn)如何潛入人力資源部門(mén)的招聘流程。在2021年的聯(lián)合報(bào)告《隱藏的員工:未開(kāi)發(fā)的人才》中,不當(dāng)?shù)穆毼幻枋龊蛧?yán)重依賴(lài)算法進(jìn)行招聘廣告發(fā)布和簡(jiǎn)歷評(píng)估的自動(dòng)化招聘系統(tǒng),是怎樣阻止合格的個(gè)人找到工作。
偏見(jiàn)導(dǎo)致了兩個(gè)最壞情況。盡管企業(yè)在技術(shù)上花費(fèi)了大量金錢(qián),系統(tǒng)仍固守著以往錯(cuò)誤的做法,而且效率更高,結(jié)果更差。
警務(wù)是另一個(gè)容易因算法偏見(jiàn)而產(chǎn)生意外后果的領(lǐng)域。某些警務(wù)預(yù)測(cè)產(chǎn)品被證明對(duì)特定社區(qū)的犯罪預(yù)測(cè)和種族之間存在顯著的相關(guān)性,這種流行的預(yù)測(cè)性警務(wù)產(chǎn)品可能對(duì)少數(shù)族裔存在偏見(jiàn)。研究發(fā)現(xiàn)在美國(guó),居住在一個(gè)地區(qū)的白人居民越少,而居住在那里的黑人和拉丁裔居民越多,該產(chǎn)品預(yù)測(cè)發(fā)生犯罪的可能性就越大。同樣的差距也存在于富裕和貧困社區(qū)之間。
DataRobot在一項(xiàng)針對(duì)美國(guó)和英國(guó)各行業(yè)350家機(jī)構(gòu)的調(diào)查中,超過(guò)一半的機(jī)構(gòu)表示,他們非常擔(dān)心人工智能偏見(jiàn)可能會(huì)傷害他們的客戶(hù)和自己。
該調(diào)查顯示,54%的美國(guó)受訪者表示,對(duì)其組織中人工智能偏見(jiàn)的潛在危害感到“非常擔(dān)憂”或“深感擔(dān)憂”。而在2019年進(jìn)行的一項(xiàng)類(lèi)似研究中持相同觀點(diǎn)的人占42%。調(diào)查顯示,他們的英國(guó)同事對(duì)人工智能的偏見(jiàn)懷疑態(tài)度更深,64%的人表示他們也有這種看法。
而調(diào)查中超過(guò)三分之一(36%)的受訪者說(shuō),他們的組織已經(jīng)因AI偏見(jiàn)受到影響,收入損失和失去客戶(hù)是最常見(jiàn)的后果。
消費(fèi)者信任的喪失被認(rèn)為是人工智能偏見(jiàn)的第一大潛在風(fēng)險(xiǎn),56%的受訪者提到了這一風(fēng)險(xiǎn)因素,其次是品牌聲譽(yù)受損、監(jiān)管審查增加、員工信任的喪失、與個(gè)人道德不符、訴訟和股票價(jià)值的下降。
雖然有四分之三的受訪機(jī)構(gòu)稱(chēng)計(jì)劃對(duì)AI偏見(jiàn)進(jìn)行檢測(cè),約四分之一的組織說(shuō)他們“非常有信心”有能力來(lái)檢測(cè)AI偏見(jiàn)。
受訪者列舉了消除偏見(jiàn)的幾個(gè)具體挑戰(zhàn),包括:難以理解人工智能模型為什么會(huì)做出決定;理解輸入值和模型決策之間的模式;對(duì)算法缺乏信任;訓(xùn)練數(shù)據(jù)的清晰性;保持AI模型的動(dòng)態(tài)更新;教育利益相關(guān)者識(shí)別人工智能偏見(jiàn);以及也不清楚什么是偏見(jiàn)。
那么,如何解決人工智能中的偏見(jiàn)問(wèn)題呢?首先,81%的受訪者表示,他們認(rèn)為“政府監(jiān)管將有助于定義和防止人工智能偏見(jiàn)。”該調(diào)查稱(chēng),在沒(méi)有政府監(jiān)管的情況下,約三分之一的人擔(dān)心人工智能“會(huì)傷害用戶(hù)”。但同時(shí)45%的受訪者表示,他們擔(dān)心政府監(jiān)管會(huì)增加成本,使采用人工智能變得更加困難。只有約23%的人表示,他們不擔(dān)心政府對(duì)人工智能的監(jiān)管。
總而言之,在人工智能的偏見(jiàn)問(wèn)題上,似乎正處于十字路口。隨著采用人工智能日益被視為現(xiàn)代企業(yè)的必備條件,采用這項(xiàng)技術(shù)的壓力相當(dāng)大。企業(yè)越來(lái)越擔(dān)心人工智能帶來(lái)的意外后果,尤其是在道德方面。
人工智能領(lǐng)域的從業(yè)者需要了解并理解人工智能和道德的重要性和影響。消除偏見(jiàn)的核心挑戰(zhàn)是理解為什么算法會(huì)首先做出這樣的決定。在應(yīng)對(duì)人工智能偏見(jiàn)和隨之而來(lái)的復(fù)雜問(wèn)題時(shí),需要規(guī)則和條例來(lái)指導(dǎo)。如今,國(guó)際組織和產(chǎn)業(yè)巨頭已經(jīng)開(kāi)始研究人工智能原則和法規(guī),但要確保模型公平、可信和可解釋?zhuān)€有更多工作要做。