人工智能是一個(gè)充滿活力的技術(shù)領(lǐng)域,為工業(yè)機(jī)器人和機(jī)器人流程自動(dòng)化(RPA)領(lǐng)域的新興應(yīng)用提供動(dòng)力。與之前出現(xiàn)的變革性技術(shù)一樣,人工智能帶來的道德倫理問題正受到越來越嚴(yán)格的審查,從而催生了限制其應(yīng)用范圍的法規(guī)和政策。那么,采用人工智能有哪些風(fēng)險(xiǎn)?以及正在采取哪些措施來促進(jìn)人工智能的道德應(yīng)用?
人工智能與機(jī)器人的交叉點(diǎn)
人工智能到底是什么?它在機(jī)器人技術(shù)中扮演什么角色?隨著時(shí)間的推移,利用能夠?qū)W習(xí)和推理的計(jì)算、模式識(shí)別系統(tǒng)的概念已經(jīng)擴(kuò)展到機(jī)器學(xué)習(xí)、自然語言處理和數(shù)據(jù)科學(xué)等更廣泛的領(lǐng)域。在工業(yè)機(jī)器人技術(shù)中,人工智能通常用于感知和感知物理機(jī)器運(yùn)行的環(huán)境,以便安全地自動(dòng)化操作(例如汽車裝配線上的機(jī)械臂)。工業(yè)機(jī)器人往往局限于重復(fù)運(yùn)動(dòng),不需要持續(xù)學(xué)習(xí),通常不會(huì)被視為威脅。
但人工智能遠(yuǎn)不止是工業(yè)機(jī)器中的傳感器和執(zhí)行器;它也是開發(fā)強(qiáng)大的建模軟件、決策支持軟件、預(yù)測分析軟件和其他能夠產(chǎn)生可疑的自主輸出的智能應(yīng)用軟件背后的力量。因此,與機(jī)器人不同,人工智能應(yīng)用程序接收大量數(shù)據(jù),需要實(shí)時(shí)解釋和分析以實(shí)現(xiàn)持續(xù)學(xué)習(xí),因此更容易受到風(fēng)險(xiǎn)的影響。
道德風(fēng)險(xiǎn)和其他風(fēng)險(xiǎn)是什么?
考慮到人工智能技術(shù)的范圍仍處于定義過程中,并且其運(yùn)行環(huán)境可能有些模糊,因此以合乎道德的方式實(shí)現(xiàn)人工智能的好處可能是一個(gè)相當(dāng)大的挑戰(zhàn)。無論如何,圍繞人工智能潛在問題方面的辯論仍在持續(xù),目前集中在一些關(guān)鍵問題上:
隱私和安全——人工智能基于數(shù)據(jù)運(yùn)行,由于所有數(shù)據(jù)收集和存儲(chǔ)現(xiàn)在都已經(jīng)實(shí)現(xiàn)數(shù)字化和網(wǎng)絡(luò)化,網(wǎng)絡(luò)安全漏洞可能對個(gè)人和組織構(gòu)成威脅。
不透明度/透明度——數(shù)據(jù)如何處理以及如何使用?人工智能系統(tǒng)識(shí)別的模式可能無法真正代表分析決策輸出。選擇了哪些數(shù)據(jù)以及如何確定其質(zhì)量?需要在系統(tǒng)中建立透明度、社區(qū)參與和“算法問責(zé)制”,以確保對人工智能衍生的輸出符合道德標(biāo)準(zhǔn)、公平和無偏見的信心。
偏差——偏差可以通過多種方式影響算法,無論是使用與當(dāng)前問題無關(guān)的有缺陷的數(shù)據(jù)或數(shù)據(jù)集(統(tǒng)計(jì)偏差),無意識(shí)地將正面或負(fù)面品質(zhì)歸因于被分析的對象(無意識(shí)偏差),或者以確認(rèn)個(gè)人先入為主的觀念的方式解釋信息(確認(rèn)偏差)。
解決道德問題
與人工智能之前的其他顛覆性技術(shù)一樣,制定的法規(guī)正在迎頭趕上,因?yàn)樗c這個(gè)令人難以置信的增長和機(jī)遇領(lǐng)域相關(guān)。在檢測和消除人工智能系統(tǒng)中的偏見方面,有大量的技術(shù)和應(yīng)用還處于早期階段。此外,技術(shù)修復(fù)也有其局限性,因?yàn)樗鼈冃枰l(fā)展一個(gè)難以實(shí)現(xiàn)的數(shù)學(xué)公平概念。
盡管實(shí)際制定的政策很少,但已經(jīng)有了一些顯著的開端。美國數(shù)據(jù)創(chuàng)新中心(CenterforDataInnovation)在發(fā)布的2019年歐盟政策文件提出,“值得信賴的人工智能”應(yīng)該是合法、道德和技術(shù)穩(wěn)健的,并闡明了實(shí)現(xiàn)這些目標(biāo)的要求:人為監(jiān)督、技術(shù)穩(wěn)健、隱私和安全數(shù)據(jù)治理、透明度、公平性、福利和問責(zé)制。目前,2021年4月,歐盟框架已被寫入法規(guī),導(dǎo)致擬議的立法被《紐約時(shí)報(bào)》稱為一項(xiàng)首創(chuàng)的政策,概述了政府和企業(yè)如何使用被視為最重要的技術(shù)之一。
評估人工智能應(yīng)用程序的框架
人工智能可以為成功利用其力量的企業(yè)帶來巨大利益,但如果在沒有道德保障的情況下實(shí)施,也可能損害企業(yè)的聲譽(yù)和未來業(yè)績。然而,與其他新引入的技術(shù)(如藍(lán)牙)不同,制定標(biāo)準(zhǔn)或起草法律并不容易。這是因?yàn)槿斯ぶ悄芎w了一個(gè)廣泛的、無定形的領(lǐng)域——從戰(zhàn)場機(jī)器人到用于審查合同的自動(dòng)化法律助理,無所不包。事實(shí)上,幾乎所有與機(jī)器學(xué)習(xí)和數(shù)據(jù)科學(xué)相關(guān)的東西現(xiàn)在都被認(rèn)為是人工智能的一種形式,這使得人工智能在制定行業(yè)標(biāo)準(zhǔn)方面相形見絀。
展望未來,一個(gè)確保道德實(shí)施的擬議框架正在成為焦點(diǎn)。該框架圍繞四個(gè)關(guān)鍵支柱構(gòu)建:可信度、透明度、公平性、隱私性。
可信度——首先,能夠證明人工智能應(yīng)用程序的可信度是需要確認(rèn)的基本問題。人們需要知道,他們使用的人工智能應(yīng)用程序來自可靠的來源,并且是在負(fù)責(zé)任和可信的監(jiān)督下開發(fā)的。
透明度——對人工智能的使用方式保持透明度,并在特定用例場景中解釋其好處,這將顯著有助于減少擔(dān)憂和擴(kuò)大采用。
公平性——開發(fā)人員需要證明人工智能是以公平、公正的方式部署的。由于人工智能在其基本狀態(tài)下缺乏應(yīng)用判斷的能力,而主要關(guān)注于模式識(shí)別,因此需要對算法進(jìn)行微調(diào)以消除偏見。還應(yīng)引入流程,以避免人類因自身經(jīng)歷而帶來的偏見。
隱私性——開發(fā)人員考慮使用人工智能可能影響嵌入在正在處理的數(shù)據(jù)中的任何個(gè)人可識(shí)別信息(PII)是至關(guān)重要的。雖然人工智能處理確實(shí)消除了一些隱私問題,因?yàn)樗@過了人類與敏感數(shù)據(jù)的交互,但也引發(fā)了其他問題,如信息的使用范圍、存儲(chǔ)位置以及誰可以訪問信息。
結(jié)論
人工智能將會(huì)繼續(xù)存在,行業(yè)參與者需要積極思考,并尋找方法將他們的應(yīng)用程序嵌入到前面提到的框架中。一種可能性是使用同行評審系統(tǒng)來幫助建立信任并提高透明度。在這里,人工智能開發(fā)人員將在類似于以前的開源環(huán)境的人工智能社區(qū)中提交他們的用例供審查。
雖然開源最初遭遇了挫折,但最終有所好轉(zhuǎn)。起初,免費(fèi)提供源代碼的想法讓全世界科技公司的首席財(cái)務(wù)官感到恐懼。隨著時(shí)間的推移,社區(qū)監(jiān)控、更新和提供評論的開源軟件的發(fā)布所帶來的透明度提高了巨大的效率,并帶來了更重大的發(fā)展。如今沒有一家軟件公司不利用開源代碼。
另一種提高人工智能應(yīng)用清晰度的方法是建立一個(gè)臨時(shí)組織,并將他們的項(xiàng)目和應(yīng)用程序提交給中央人工智能注冊表。與通常由控制議程的大型組織主導(dǎo)的正式標(biāo)準(zhǔn)機(jī)構(gòu)不同,注冊管理機(jī)構(gòu)將是一個(gè)自我報(bào)告機(jī)構(gòu),用于收集反饋、建議和確認(rèn)。最終,確保人工智能應(yīng)用程序以合乎道德的方式部署的最佳方法可能是從一開始就將道德嵌入計(jì)算機(jī)科學(xué)課程中。