高管們長期以來一直抵制將數(shù)據(jù)分析用于更高層次的決策,他們總是青睞依靠基于現(xiàn)場經(jīng)驗的直覺層面的決策,而不是AI輔助的決策。
AI已在許多行業(yè)被廣泛用于戰(zhàn)術(shù)性、低級別的決策——信用評分、超額促銷建議、聊天機器人或管理機器性能都是成功部署AI的例子。然而,它在更高層次的戰(zhàn)略決策中的作用尚待證明——比如重組產(chǎn)品線,改變企業(yè)戰(zhàn)略,在各職能部門重新配置人力資源,或與新的合作伙伴建立關(guān)系。
無論是AI還是高級分析,企業(yè)領(lǐng)導(dǎo)者仍然還沒有做好準備,以深刻的方式將他們的業(yè)務(wù)完全押在機器做出的決策上。瑞士國際管理發(fā)展學院商學院(IMD Business School)的阿米特·喬希(Amit Joshi)和邁克爾·韋德(Michael Wade)對金融和零售企業(yè)中的AI活動開展的研究發(fā)現(xiàn),“AI現(xiàn)在主要被用于戰(zhàn)術(shù)性而非戰(zhàn)略性目的——事實上,很少能夠找到一個完整的長期AI戰(zhàn)略愿景。”
在接受德勤(Deloitte)的一項調(diào)查時,三分之二以上的高管(67%)表示,他們在訪問或使用先進分析系統(tǒng)的數(shù)據(jù)時感到“不自在”。在擁有強大數(shù)據(jù)驅(qū)動文化的企業(yè)中,37%的受訪者仍然表達了不適。同樣,在畢馬威(KPMG)開展的一項類似調(diào)查中,67%的CEO表示他們通常更喜歡根據(jù)自己的直覺和經(jīng)驗來做決定,而不是通過數(shù)據(jù)分析產(chǎn)生的見解。該研究證實,許多高管對其公司的數(shù)據(jù)、分析和AI缺乏高度信任,而且不確定誰該對錯誤和濫用AI負責。數(shù)據(jù)科學家和分析師也看到了高管們的這種不情愿——SAS最近的一項調(diào)查發(fā)現(xiàn),42%的數(shù)據(jù)科學家表示他們的結(jié)果沒有被企業(yè)決策者使用。
高管們何時才能做好準備,將AI推向下一步,對AI足夠信任,以至于會按照那些影響他們業(yè)務(wù)的更具戰(zhàn)略性的建議而采取行動?雖然存在許多挑戰(zhàn),但是現(xiàn)在可以采取四項行動,以增加高管在AI輔助決策方面的信心。
創(chuàng)建可靠的模式
高管的猶豫可能源于負面的經(jīng)歷,比如某AI系統(tǒng)提供了誤導(dǎo)性的銷售結(jié)果。幾乎每個失敗的AI項目都有一個共同點——缺乏數(shù)據(jù)質(zhì)量。在舊的企業(yè)模式中,結(jié)構(gòu)化的數(shù)據(jù)占主導(dǎo)地位,它在數(shù)據(jù)從源頭到達時就對其進行分類,使得數(shù)據(jù)相對容易立即投入使用。
雖然AI可以使用高質(zhì)量的結(jié)構(gòu)化數(shù)據(jù),但它也使用大量的非結(jié)構(gòu)化數(shù)據(jù)來創(chuàng)建機器學習(machine learning, ML)模型和深度學習(deep learning,DL)模型。這些非結(jié)構(gòu)化數(shù)據(jù)雖然很容易以原始格式收集,但如果不對其進行適當?shù)姆诸?、標記和清理,它們是無法使用的——視頻、圖像、圖片、音頻、文本和日志——都需要進行分類、標記,以便AI系統(tǒng)創(chuàng)建和訓(xùn)練模型,然后才能將這些模型部署到現(xiàn)實世界。因此,輸入AI系統(tǒng)的數(shù)據(jù)可能是過時、不相關(guān)、多余、有限的或不準確的數(shù)據(jù)。輸入AI/ML模型的片面數(shù)據(jù)只會提供企業(yè)的局部視野。AI模型的構(gòu)建可能是為了反映企業(yè)一直以來的經(jīng)營方式,并沒有能力適應(yīng)新的機會或現(xiàn)實,例如我們看到的因全球疫情的影響而造成的供應(yīng)鏈中斷。這意味著數(shù)據(jù)需要實時輸入,這樣才能實時創(chuàng)建或改變模型。
難怪,許多數(shù)據(jù)科學家把一半的時間花在數(shù)據(jù)準備上。在創(chuàng)建能提供適當結(jié)果的可靠AI模型的過程中,這仍然是唯一的重要任務(wù)。要獲得高管的信任,背景和可靠性是關(guān)鍵。有許多AI工具可以用來幫助進行數(shù)據(jù)準備——從綜合數(shù)據(jù)到數(shù)據(jù)去偏,再到數(shù)據(jù)清理,企業(yè)應(yīng)該考慮使用其中一些人AI工具在合適的時間提供合適的數(shù)據(jù),以創(chuàng)建可靠的AI模型。
避免數(shù)據(jù)偏見
高管的遲疑態(tài)度可能是出于持續(xù)、合理的擔憂,認為AI結(jié)果會在其企業(yè)內(nèi)部導(dǎo)致歧視或影響客戶。同樣,固有的AI偏見可能會將企業(yè)決策引向錯誤的方向。如果不采取謹慎的措施清除數(shù)據(jù)中的任何偏見,所產(chǎn)生的AI模型始終會帶有偏見,結(jié)果造成“輸入垃圾,輸出垃圾”的局面。如果某一AI模型是用有偏見的數(shù)據(jù)進行訓(xùn)練的,它就會影響該模型的準確性并產(chǎn)生有偏見的建議。
模型和決策只有在數(shù)據(jù)不存在偏見的情況下才算是好的模型和決策。糟糕的數(shù)據(jù),無論是有意還是無意,都可能包含隱性偏見信息——比如種族、性別、出身、政治、社會或其他意識形態(tài)偏見。此外,對企業(yè)有害的其他形式的偏見也可能是固有的?,F(xiàn)在大約有175種已認定的人類偏見需要關(guān)注。這需要通過分析找出輸入數(shù)據(jù)的偏見和其他負面特征來解決。如上所述,AI團隊花了過多的時間準備數(shù)據(jù)格式和質(zhì)量,但沒花多少時間來消除偏見數(shù)據(jù)。
高層決策中使用的數(shù)據(jù)需要進行徹底審查,以向高管們保證這些數(shù)據(jù)經(jīng)過驗證、有權(quán)威性、經(jīng)過鑒定,并且來源可靠。它需要從已知的歧視性做法中清理出來,那些做法會影響算法的準確性。
如果數(shù)據(jù)來自有問題的或未經(jīng)審核的來源,它要么應(yīng)該完全根除,要么應(yīng)該得到較低的信任分數(shù)。另外,通過控制分類精度,歧視可以以最小的增量成本大幅減少。這種數(shù)據(jù)預(yù)處理的優(yōu)化應(yīng)該集中在控制歧視、限制數(shù)據(jù)集的失真和保持效用上。
人們通常假設(shè)——錯誤地假設(shè)——AI的數(shù)學模型最終可以濾除人類的偏見。其風險在于,這種模型,如果不受限制地運行,可能會導(dǎo)致額外的不可預(yù)見的偏見——原因還是輸入的數(shù)據(jù)受限或準確性受到影響。
做出符合倫理和道德的決策
高管的遲疑態(tài)度可能反映了這樣一個事實:企業(yè)正面臨著前所未有的壓力,要確保企業(yè)的運營符合道德和倫理,而AI輔助的決策也需要反映倫理觀和道德觀。部分原因是他們希望以具有倫理和道德價值觀的公司形象出現(xiàn)并誠信經(jīng)營,部分原因是做出錯誤的決定可能引起法律責任,而這些錯誤決定可能會在法庭上受到質(zhì)疑——尤其是考慮到?jīng)Q定如果是由AI做出的或由AI輔助的,它將經(jīng)歷額外一層的審查。
研究和教育機構(gòu)正在進行研究,將人類的價值觀應(yīng)用于AI系統(tǒng),將這些價值觀轉(zhuǎn)換成機器可以理解的工程術(shù)語。比如,加州大學伯克利分校的計算機科學教授斯圖爾特·拉塞爾(Stuart Russell)率先提出了人稱“價值對齊原則”(Value Alignment Principle)的有用想法,該想法實質(zhì)上是“獎勵”AI系統(tǒng)從事更可接受的行為。AI系統(tǒng)或機器人可以被訓(xùn)練來閱讀故事,從這些故事中學習可接受的事件序列,并更好地反映成功的行為方式。
至關(guān)重要的是,拉塞爾開展的這種研究被引入商業(yè)領(lǐng)域,因為AI極有可能影響到涉及生活與事業(yè)的決策的準確性。企業(yè)需要確保有足夠的制衡,以確保AI輔助的決策符合倫理和道德。
能夠解釋AI決策
如果缺乏透明度,高管們在接受AI決策時可能會有戒心。大多數(shù)AI決策都沒有內(nèi)在的可解釋性。當做出的決定和采取的行動會給企業(yè)帶來數(shù)百萬美元的風險,或涉及人們的生命/工作時,如果聲稱是AI做出了這個決策、所以我們是在按此決策行事,這樣做不太好。
AI產(chǎn)生的結(jié)果和在此基礎(chǔ)上采取的行動不可能不透明。直到最近,大多數(shù)系統(tǒng)都被編制了程序,可以清晰識別和處理預(yù)先確定的情況。然而,傳統(tǒng)的非認知型系統(tǒng)在遇到它們程序中未設(shè)定的情況時就會碰壁。另一方面,要置入一定程度的批判性思維能力,旨在更接近地模仿人腦。隨著新情況的出現(xiàn),這些系統(tǒng)可以學習、理解、分析情況并根據(jù)情況采取行動,無需另外編程。
用于訓(xùn)練算法的數(shù)據(jù)需要以負責任的方式進行維護——通過安全存儲、驗證、審核和加密。區(qū)塊鏈或其他分布式賬本技術(shù)之類的新興方法也提供了一個永恒不變且可審核的存儲方式。此外,需要設(shè)立一個第三方管理框架,以確保AI決策不僅可以解釋,而且是基于事實和數(shù)據(jù)。在一天結(jié)束時,應(yīng)該有可能證明,人類專家如果被提供了同樣數(shù)據(jù)集,是否會得出同樣的結(jié)果——AI沒有操縱結(jié)果。
AI基于數(shù)據(jù)的決策幾乎總是以概率(概率性相比于確定性)為基礎(chǔ)。正因為如此,當AI做出決定時,總是存在一定程度的不確定性。對結(jié)果的可靠性必須要有相應(yīng)程度的信心或評分。正是由于這個原因,大多數(shù)系統(tǒng)不能、不會、也不應(yīng)該實現(xiàn)自動化。在近期的未來,人類需要在決策圈中發(fā)揮作用。這使得在涉及醫(yī)療衛(wèi)生等敏感行業(yè)時,依賴基于機器的決策難度更大。在醫(yī)療衛(wèi)生行業(yè),決策不夠好的概率是98%。
隨著系統(tǒng)之間的相互作用,事情變得復(fù)雜和不可預(yù)測。據(jù)隸屬于哈佛大學伯克曼·克萊因互聯(lián)網(wǎng)與社會中心(Berkman Klein Center for Internet and Society at Harvard University)的戴維·溫伯格(David Weinberger)博士稱:“我們開始接受這樣的事實:世界的真正復(fù)雜性遠遠超過了我們設(shè)計來解釋它的法則和模型”。無論決策變得多么復(fù)雜,今天的企業(yè)仍然需要來自人類的批判性思維來運營。高管們?nèi)匀恍枰心芰Ψ駴Q或質(zhì)疑基于AI的輸出,尤其是在一個不透明的過程中。
提高高管信心的任務(wù)
在尋求提高高管對AI方面的舒適度時,請考慮以下行動步驟:
提升IT部門之外接觸到AI流程的任何人對AI的主人翁和責任感。為促進合乎道德的決策,在數(shù)據(jù)經(jīng)濟中生存,需要進行文化變革。
認識到AI(在大多數(shù)情況下)只是根據(jù)先前的數(shù)據(jù)和模式做出決定并對未來進行一些猜測的代碼。每位企業(yè)領(lǐng)導(dǎo)——以及與他們共事的員工——仍然需要批判性思維能力來質(zhì)疑AI的輸出。
將AI瞄準其影響力最大的領(lǐng)域,并首先完善這些領(lǐng)域,這將增加最大的商業(yè)價值。
調(diào)查并推行最具影響力的技術(shù)。
通過提高透明度,并最大限度實現(xiàn)決策提供鏈的能觀性,確保AI中的公平性。
在各個級別促進對公平、可操作AI的更多認識和培訓(xùn),并將激勵措施與AI的成功采用掛鉤。
定期、系統(tǒng)性地審視或?qū)彶锳I結(jié)果。
負起責任,自主決策,如果做出了錯誤的決定,請糾正方向——不要怪罪于AI。
不可避免的是,出于戰(zhàn)略目的,更多的AI輔助決策將出現(xiàn)在高管辦公室。目前,AI將在決策方面協(xié)助人類表現(xiàn)出更強的智能,而不是按一個按鈕就能提供獨角獸式的正確見解。確保這些AI輔助決策的輸出是基于可靠、無偏見、可解釋、符合倫理、道德且透明的見解,這將有助于企業(yè)領(lǐng)導(dǎo)者現(xiàn)在及在未來幾年對基于AI的決策充滿信心。