自誕生以來,AI一直是一個強大的工具,通過自動化任務(wù)和簡化操作,構(gòu)建更好的技術(shù),并使最終用戶體驗更輕松和更個性化,幫助改善內(nèi)部運營。雖然AI對社會的影響并不新鮮,但更先進的AI解決方案的崛起引發(fā)了人們對這些技術(shù)將如何利用的擔憂。
AI的繁榮創(chuàng)造了對強大的AI治理的巨大需求。在宏偉的計劃中,AI治理是一個整體術(shù)語,對許多不同的群體可能意味著許多不同的事情,可能是因為可以(也應(yīng)該)實施的治理的多個層次。具體來說,AI治理可以分為三個層次:企業(yè)治理、用例治理、模型治理。由于治理的每一層對于任何企業(yè)的不同成員都有一個特定的目的,因此必須更詳細地檢查這三個治理級別。
治理的企業(yè)層面
在任何多層AI治理計劃中,第一個級別是企業(yè)級別,這一級別起著指導(dǎo)的作用,幫助所有從業(yè)者堅持特定的、必要的道德和責任級別。每家公司可能都有自己專有的AI行為準則,但它通常圍繞幾個關(guān)鍵原則。例如,萬事達卡建立了一套以三項核心原則為核心的AI行為準則:包容性、可解釋性和責任感。核心原則可能有所不同,但對于構(gòu)建類似的基于價值觀的使命聲明的公司來說,這是一個很好的參考。
雖然使命聲明是重要的起點,但企業(yè)層面的治理不僅僅是文字,它們對于幫助企業(yè)在為時已晚之前為即將到來的AI法規(guī)做好準備至關(guān)重要。在這一層面上,定義參與AI開發(fā)的每個成員的責任對于部署成功的實施程序至關(guān)重要。每個有效的AI治理計劃都明確定義了AI倫理、責任和安全的內(nèi)部政策,并制定了持續(xù)執(zhí)行這些政策的流程。
幸運的是,企業(yè)在實施這些政策時不必從頭開始?,F(xiàn)有的政策和框架,如NISTAI風險管理框架和歐盟AI法案,就企業(yè)如何建立成功的企業(yè)治理水平提供了明確的指導(dǎo)。例如,NIST框架的“治理”支柱列出了各種企業(yè)治理政策和流程,而歐盟AI法案包含了幾條概述AI治理的企業(yè)要求的條款。
治理的用例級別
AI治理的第二個級別側(cè)重于任何業(yè)務(wù)中AI的特定用例。用例級別的治理主要集中于確保AI的任何應(yīng)用程序及其對特定任務(wù)的使用都符合所有必要的治理標準,這是因為不適當?shù)厥褂肁I所產(chǎn)生的風險與它將如何應(yīng)用于任何企業(yè)的運營密切相關(guān)。
AI模型可以用于許多不同的事情,這些用例可以分為兩個單獨的類別:低風險和高風險。例如,低風險用例可能是簡單的任務(wù),比如總結(jié)會議筆記。相比之下,高風險用例,如匯總醫(yī)療患者記錄,涉及更敏感的信息,因此需要更多的審查。在這個階段,風險映射和緩解也是成功的關(guān)鍵,這通常依賴于法律和合規(guī)團隊發(fā)揮主要作用,特別是在審查和仔細審查AI用例和預(yù)期目標方面。
這一級別的治理也映射到總體企業(yè)級別的治理,因為這些法律和合規(guī)團隊將需要確認每個AI用例都符合監(jiān)管要求和參數(shù)。正如這些團隊的參與可能暗示的那樣,用例級別的治理意味著企業(yè)必須仔細和勤奮地記錄低風險和高風險用例的幾件事,包括將AI用于特定任務(wù)的預(yù)期目標、為什么AI是適當?shù)睦碛?、特定于上下文的風險,以及降低整個企業(yè)中的風險的技術(shù)和非技術(shù)緩解策略。
模型級治理
最后也是最細粒度的級別是治理的模型級別。在這個階段,AI從業(yè)者將承擔主要責任,包括模型評估、數(shù)據(jù)準確性測試以及進行模型偏差和公平性評估。
顧名思義,模型級治理迎合了任何AI系統(tǒng)的實際技術(shù)功能,并確保它們滿足預(yù)期的公平、準確和安全標準。更具體地說,負責管理治理模式級別的從業(yè)人員必須采取措施,考慮到保護私人信息,同時確認不存在可能影響受保護或邊緣化群體的偏見。
在技術(shù)層面,治理的模型級別還必須持續(xù)測試模型,以防止模型漂移,當模型的預(yù)測能力因外部環(huán)境的變化而降低時,模型漂移就會發(fā)生。模型漂移可能有幾個原因,比如模型沒有時間“趕上”的人口結(jié)構(gòu)變化。幸運的是,盡管模型漂移和偏差可能會在人為監(jiān)督下發(fā)生,但治理的模型級別可以得到幫助準確訓練和評估數(shù)據(jù)集的技術(shù)解決方案的支持。
由于這種類型的治理具有高度集中的性質(zhì),因此企業(yè)可能只有在某些時候才有可能實現(xiàn)特定的模型級別策略,尤其是在訪問諸如ChatGPT等公開可用的大型語言模型時。如果公司發(fā)現(xiàn)自己處于這種境地,他們將需要加倍管理他們可以控制的東西,例如用例和治理的企業(yè)級別。
AI治理不能再僅僅專注于評估ML模型和數(shù)據(jù)集,企業(yè)級、用例和模型級治理的組合將創(chuàng)建企業(yè)負責任地使用AI所需的整體治理模型。隨著監(jiān)管指導(dǎo)的繼續(xù)形成,企業(yè)可以采取行動建立他們的治理政策,為立法可能導(dǎo)致的任何徹底變化做好準備,并對建設(shè)合規(guī)、道德和準確的AI更有信心。