青青草原在线视频,亚洲视频无码专区,玖玖爱在线观看视频,国产A级理论片无码免费孕妇做为

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

影子人工智能:對企業(yè)采用生成式人工智能的隱藏威脅

影子人工智能:對企業(yè)采用生成式人工智能的隱藏威脅

生成式人工智能(GenAI)技術,尤其是像OpenAI的GPT-4這樣的大型語言模型,不斷引起渴望獲得競爭優(yōu)勢的企業(yè)的興趣。許多企業(yè)認識到這些技術的潛力,以徹底改變其運營的各個方面。然而,盡管人們的興趣日益濃厚,但在企業(yè)內部采用生成式人工智能方面存在明顯的猶豫。

數(shù)據隱私是企業(yè)最關心的問題之一。它不僅是一個問題,而且是開展業(yè)務的關鍵要素。

●91%的組織表示,他們需要采取更多措施來讓客戶放心他們的數(shù)據將如何被人工智能使用。

●98%的組織向董事會報告隱私指標。

●94%的組織表示,如果數(shù)據沒有得到充分保護,他們的客戶就不會從他們那里購買產品。

GenAI將人工智能能力交到更多用戶的手中。92%的受訪者認為,GenAI是一項完全不同的技術,具有新的挑戰(zhàn)和問題,需要新的技術來管理數(shù)據和風險。

此外,我們看到,全球范圍內,因違背客戶信任而對企業(yè)處以創(chuàng)紀錄的罰款的數(shù)量不斷增加。例如,

●2022年9月,Instagram因違反GDPR侵犯兒童隱私而被愛爾蘭數(shù)據保護專員(DPC)罰款4.03億美元。

●中國網約車企業(yè)滴滴全球出行有限公司(滴滴)因違反網絡安全和數(shù)據相關法律被罰款80.26億元人民幣(約合11.8億美元)。

●2021年夏天,零售巨頭亞馬遜的財務記錄披露,盧森堡當局因違反GDPR對其處以7.46億歐元(8.77億美元)的罰款。

數(shù)據隱私的風險從未如此高。

影子人工智能的崛起

隨著人工智能繼續(xù)無情地向企業(yè)邁進,一種潛在的威脅潛伏在黑暗中,可能會破壞其廣泛應用:影子人工智能。

影子人工智能與未經授權使用軟件的“影子IT”現(xiàn)象非常相似,指的是在沒有組織監(jiān)督的情況下部署或使用人工智能系統(tǒng)。但它給企業(yè)帶來的風險要大得多。

無論是出于方便還是無知,對人工智能開發(fā)進行妥善管理都可能制造定時炸彈。隨著人工智能通過云服務變得更容易訪問,同時又保持不透明,松懈控制留下的后門很容易被濫用。

渴望獲得優(yōu)勢的員工可以輕松地將企業(yè)數(shù)據粘貼到ChatGPT或GoogleBard中,目的很好,例如更快、更高效地完成工作。在沒有安全解決方案的情況下,員工將轉向可訪問的解決方案。

去年春天,三星員工三次意外與ChatGPT共享機密信息。泄露的信息包括軟件代碼和會議記錄,這導致該公司禁止員工使用GenAI服務。

此外,由于GenAIAPI易于訪問,軟件開發(fā)人員可以輕松地將GenAI集成到他們的項目中,這可以添加令人興奮的新功能,但往往以犧牲最佳安全實踐為代價。

影子人工智能的風險

隨著利用GenAI的壓力越來越大,多種威脅也日益增多。

數(shù)據泄露

GenAI工具的激增是一把雙刃劍。一方面,這些工具在提高生產力和促進創(chuàng)新方面提供了卓越的能力。另一方面,它們也帶來了與數(shù)據泄露相關的重大風險,尤其是在缺乏強大的AI可接受使用政策(AUP)和執(zhí)行機制的情況下。GenAI工具的易用性導致了一種令人擔憂的趨勢:員工在熱情或追求效率的驅使下,可能會無意中將敏感的企業(yè)數(shù)據泄露給第三方服務。

不僅僅是普通知識工作者在使用聊天機器人。去年,微軟員工也犯了一個錯誤,在將38TB的LLM培訓數(shù)據上傳到開發(fā)者平臺GitHub時意外泄露了這些數(shù)據。這其中包括微軟員工的個人電腦備份。備份包含敏感的個人數(shù)據,包括微軟服務的密碼、密鑰以及359名微軟員工的3萬多條微軟團隊內部信息。

違反合規(guī)性

未經合規(guī)性審查的影子人工智能工具可能會違反GDPR等法規(guī),從而導致法律后果和罰款。除此之外,企業(yè)需要關注的跨多個司法管轄區(qū)的法律越來越多。

即將通過的歐盟《人工智能法案》則讓情況更加復雜。不遵守規(guī)定可能會導致罰款,罰款金額從3500萬歐元或全球營業(yè)額的7%到750萬歐元或營業(yè)額的1.5%不等,具體取決于違法行為和企業(yè)規(guī)模。

1月29日,意大利數(shù)據保護局(DPA,即GaranteperlaProtezionedeiDatiPersonali)通知OpenAI違反了數(shù)據保護法。去年3月,Garante曾暫時禁止OpenAI處理數(shù)據。根據事實調查活動的結果,意大利DPA得出結論,現(xiàn)有證據表明OpenAI違反了歐盟GDPR的規(guī)定。

揭秘影子人工智能

組織需要一種保護隱私的AI解決方案,以彌合保護隱私和充分發(fā)揮LLM潛力之間的差距。

盡管人工智能技術取得了重大進展,但只有一些基于人工智能的應用被組織成功實施,以安全地處理機密和敏感數(shù)據。為了在整個生成式人工智能生命周期中保護隱私,必須實施嚴格的數(shù)據安全技術,以安全高效地執(zhí)行涉及模型的所有安全關鍵操作以及用于訓練和推理的所有機密數(shù)據。

數(shù)據清理和匿名化通常被提議作為增強數(shù)據隱私的方法。然而,這些方法可能沒有預期的那么有效。數(shù)據清理,即從數(shù)據集中刪除敏感信息的過程,可能會因GenAI的本質而受到破壞。

匿名化,即從數(shù)據集中剝離個人身份信息的過程,在GenAI的背景下也存在不足。先進的人工智能算法已經證明了在匿名數(shù)據集中重新識別個人的能力。例如,倫敦帝國理工學院的研究表明,機器學習模型可以以驚人的準確度在匿名數(shù)據集中重新識別個人。研究發(fā)現(xiàn),僅使用年齡、性別和婚姻狀況等15個特征,就可以在任何給定的匿名數(shù)據集中重新識別99.98%的美國人。

此外,《麻省理工技術評論》報道的一項研究強調,即使數(shù)據集不完整或被更改,也可以輕松地從匿名數(shù)據庫中重新識別個人。在此背景下使用機器學習模型表明,當前的匿名化實踐不足以應對現(xiàn)代人工智能技術的能力。

這些發(fā)現(xiàn)表明,政策制定者和技術專家需要開發(fā)更強大的隱私保護技術,以跟上人工智能的進步,因為數(shù)據清理和匿名化等傳統(tǒng)方法,已不足以確保GenAI時代的數(shù)據隱私。

GenAI中更好的數(shù)據隱私解決方案

隱私增強技術(PET)被認為是GenAI領域保護數(shù)據隱私的最佳解決方案。通過保護數(shù)據處理并維護系統(tǒng)功能,PET解決了數(shù)據共享、泄露和隱私監(jiān)管問題。

值得注意的PET包括:

同態(tài)加密:允許對加密數(shù)據進行計算,輸出結果就像對純文本進行處理一樣。限制包括速度較慢和查詢復雜度降低。數(shù)據完整性風險仍然存在。

安全多方計算(MPC):方便多方處理加密數(shù)據集,保護數(shù)據隱私。缺點包括性能下降,尤其是在LLM訓練和推理方面。

差分隱私:在數(shù)據中添加噪聲以防止用戶重新識別,平衡隱私和數(shù)據分析準確性。但是,它可能會影響分析準確性,并且在計算過程中不保護數(shù)據,因此需要與其他PET結合使用。

雖然上述每種技術都提供了保護敏感數(shù)據的方法,但沒有一種可以確保生成式AI模型所需的計算能力能夠充分發(fā)揮作用。然而,一種稱為機密計算的新方法使用基于硬件的可信執(zhí)行環(huán)境(TEE),可防止在使用過程中未經授權訪問或修改應用程序和數(shù)據。

這可以防止未經授權的實體(例如主機操作系統(tǒng)、虛擬機管理程序、系統(tǒng)管理員、服務提供商、基礎設施所有者或任何可以物理訪問硬件的人)查看或更改環(huán)境中的數(shù)據或代碼。這種基于硬件的技術提供了一個安全的環(huán)境,以確保敏感數(shù)據的安全。

機密計算作為隱私保護的AI解決方案

機密計算是技術行業(yè)的一個新興標準,重點是保護使用過程中的數(shù)據。這一概念將數(shù)據保護從靜態(tài)和傳輸中的數(shù)據擴展到使用中的數(shù)據,這在當今橫跨多個平臺(從本地到云和邊緣計算)的計算環(huán)境中尤為重要。

這項技術對于處理敏感數(shù)據(例如個人身份信息(PII)、財務數(shù)據或健康信息)的組織至關重要,因為針對系統(tǒng)內存中數(shù)據的機密性和完整性的威脅是一個重大問題。

由于機密計算的復雜性,這種跨行業(yè)努力至關重要,它涉及重大的硬件更改以及程序、操作系統(tǒng)和虛擬機的結構。CCC旗下的各種項目正在通過開發(fā)開源軟件和標準來推動該領域的發(fā)展,這對于致力于保護使用中數(shù)據的開發(fā)人員來說至關重要。

機密計算可以在不同的環(huán)境中實施,包括公共云、本地數(shù)據中心和分布式邊緣位置。這項技術對于數(shù)據隱私和安全、多方分析、法規(guī)遵從性、數(shù)據本地化、主權和駐留至關重要。它確保敏感數(shù)據即使在多租戶云環(huán)境中也能得到保護并符合當?shù)胤伞?/p>

最終目標:機密人工智能

機密AI解決方案是一種安全平臺,它使用基于硬件的可信執(zhí)行環(huán)境(TEE),來訓練和運行敏感數(shù)據的機器學習模型。TEE可以進行訓練、微調和推理,而不會將敏感數(shù)據或專有模型暴露給未經授權的各方。

數(shù)據所有者和用戶可以在其數(shù)據上使用本地學習模型(LLM),而不會向未經授權的各方泄露機密信息。同樣,模型所有者可以在保護其訓練數(shù)據和模型架構和參數(shù)的同時訓練他們的模型。如果發(fā)生數(shù)據泄露,黑客只能訪問加密數(shù)據,而不能訪問TEE內保護的敏感數(shù)據。

然而,僅靠機密計算無法防止模型意外泄露有關訓練數(shù)據的詳細信息。機密計算技術可以與差分隱私相結合,以降低這種風險。這種方法涉及在TEE內計算數(shù)據并在發(fā)布之前應用差分隱私更新,從而降低推理過程中泄露的風險。

此外,機密的AI平臺可幫助LLM和數(shù)據提供商遵守隱私法律法規(guī)。通過使用高級加密和安全的TEE技術保護機密和專有數(shù)據,模型構建者和提供商無需擔心他們可以收集的用戶數(shù)據的數(shù)量和類型。

可信執(zhí)行環(huán)境等機密計算技術,為保護AI系統(tǒng)中的隱私和知識產權奠定了基礎。機密AI解決方案與差異隱私和周到的數(shù)據治理政策等技術相結合,可讓更多組織從AI中受益,同時建立利益相關者的信任和透明度。

盡管仍有許多工作要做,但密碼學、安全硬件和隱私增強方法的進步表明,未來人工智能可以合乎道德地部署。不過,我們必須繼續(xù)倡導負責任的創(chuàng)新,并推動平臺賦予個人和組織控制其敏感數(shù)據使用方式的權力。

猜你喜歡