青青草原在线视频,亚洲视频无码专区,玖玖爱在线观看视频,国产A级理论片无码免费孕妇做为

當前位置:首頁 > 最新資訊 > 行業(yè)資訊

第一名失業(yè)的人工智能機器人

在數(shù)字化的巨浪中,一場看似微不足道的失誤揭示了一個深刻的問題:當企業(yè)將人工智能(AI)納入其運營時,它們應承擔何種責任?加拿大航空就因一次由客服聊天機器人引發(fā)的定價錯誤而不得不進行賠償,這一事件遠非簡單的插曲,而是關于企業(yè)如何精確監(jiān)管 AI 工具的重大議題的縮影。

優(yōu)惠引發(fā)的爭議

這一故事圍繞著加拿大 British Columbia 省的居民 Jake Moffatt 展開。2022 年 11 月的一個清晨,他在瀏覽加拿大航空的網(wǎng)站,試圖預訂一張飛往安大略省,參加祖母葬禮的機票。網(wǎng)站上的聊天機器人向他保證,只要在 90 天內(nèi)提交申請,他就有資格獲得部分退款。然而,現(xiàn)實卻與之相悖,因為加航的實際政策明確指出,預訂航班票后,乘客不能以家庭悲傷為由申請退款。

到了 2023 年 2 月,Moffatt 終于提交了他與聊天機器人對話的截圖給航空公司,以此證明自己的主張。文件揭露,加航“承認聊天機器人使用了‘誤導性詞匯’”,但仍然拒絕退款。

加航的辯解是,鑒于聊天機器人的回復中鏈接到了詳細的喪親旅行政策頁面,Moffatt 本應該知曉喪親優(yōu)惠不能追溯申請。加航未予退款,而是提出更新聊天機器人的計劃,并向 Moffatt 提供了一張價值 200 美元的優(yōu)惠券,供其日后使用。

對這一解決方案,Moffatt 表示不滿,拒絕了優(yōu)惠券,并向加拿大民事解決法庭提起了索賠。

案件的主審官 Christopher Rivers 對加航的立場提出了批評,他指出:“加航的論點是,它不能為其代理人、仆人或代表(包括聊天機器人)所提供的信息承擔責任。”他質(zhì)疑航空公司要求客戶根據(jù)網(wǎng)站其他部分的信息來驗證聊天機器人所提供信息的合理性,認為這一要求是不合理的。

最終,支持 Moffatt 的裁決讓他能夠從 1640.36 加元的原票價中獲得 650.88 加元的部分退款,以及額外的損失賠償,包括機票利息和法庭費用。

在與 AI 系統(tǒng)提供的不良投資建議、指導進行欺詐性交易等問題相比,650 加元或許只是象征性的金額,但它凸顯了一個更廣泛的問題:在 AI 日益滲透我們生活的今天,企業(yè)應如何負責地部署和監(jiān)管這些技術(shù),以確保既促進效率又保護消費者權(quán)益。

轟轟烈烈地上崗后悄無聲地下崗

在數(shù)字化創(chuàng)新的浪尖上,加拿大航空的一次大膽嘗試——引入聊天機器人,旨在通過人工智能(AI)技術(shù)探索新的客戶服務模式,卻在實踐中遭遇了波折。去年三月,加航首席信息官 Mel Crocker 曾對外宣布,部署聊天機器人是一場關于 AI 的“實驗”,初衷是緩解航班延誤或取消時呼叫中心的壓力。

Crocker 解釋道,在極端天氣條件下,乘客急需重新安排航班,而此時,AI的介入能簡化流程,提升效率:“如果你因為暴風雪而未能拿到新的登機牌,僅僅想要確認是否能在另一班飛機上獲得座位,這正是我們可以借助 AI 輕松解決的問題。”隨著時間推移,加航寄望于聊天機器人能解決更多復雜的客戶服務問題,實現(xiàn)服務流程的全面自動化,減少“人工接觸”的需求。

Crocker 的言論透露了加航對技術(shù)進步的積極態(tài)度:“如果我們能通過技術(shù)解決那些可以自動化的問題,我們就會毫不猶豫。”加航對于客戶服務中人工智能技術(shù)的初步投資,盡管成本高昂,遠超繼續(xù)支付人工處理簡單查詢的費用,但他們堅信,這樣的投資最終會通過提高服務質(zhì)量得到回報。

然而,這一切并非沒有代價。至少對于一位顧客而言,這項技術(shù)帶來的是更多的挫折而非便利。截至 2 月 18 日,這位不速之客——聊天機器人,在加航的網(wǎng)站上已經(jīng)不復存在。這不僅標志著一個高調(diào)啟動、卻默默退場的技術(shù)實驗的結(jié)束,也對企業(yè)如何在追求自動化和保證客戶滿意度之間尋找平衡提出了重要的思考。

有沒有規(guī)避措施?

在人工智能(AI)愈發(fā)成為企業(yè)運營不可或缺的一部分時,加航聊天機器人引發(fā)的爭議凸顯了一個重要的法律與道德議題:企業(yè)如何在利用 AI 提升效率與確保提供準確信息之間找到平衡點。法律專家的見解揭示了一個潛在的規(guī)避責任的策略:若加航的聊天機器人能在與顧客互動時明確指出其提供的信息可能存在不準確性,那么公司或許能夠規(guī)避類似莫法特案件中的責任。

遺憾的是,加航似乎未采取此類預警措施。Christopher Rivers 裁判官的判斷明確指出,“加航未采取合理謹慎的措施以確保其聊天機器人提供信息的準確性”,強調(diào)企業(yè)應對其網(wǎng)站上所有形式的信息負責,無論是來自靜態(tài)頁面還是動態(tài)的聊天機器人。

這一判決對于所有利用AI工具的企業(yè)來說,都是一個重要的警示,強調(diào)了監(jiān)控和確保 AI 產(chǎn)出準確性的重要性。Gartner 的 AI 分析師 Avivah Litan 強調(diào),企業(yè)必須投入資源進行嚴格的監(jiān)控,這不僅可以避免潛在的法律費用和罰款,更重要的是確保技術(shù)為企業(yè)帶來的是助力而非負擔。

此外,生成式 AI,特別是聊天機器人等工具的使用,引發(fā)了對準確性的廣

泛討論。Litan 指出,大約 30%的生成式 AI 回答存在誤差,企業(yè)需要通過建立防護機制來控制這些被稱為“幻覺”的輸出,確保不準確的信息不會誤導用戶。

IDC 的 Hayley Sutherland 和 Forrester 的 David Truog 分別強調(diào)了負責任地使用 AI 的重要性和目前聊天機器人技術(shù)的局限性。他們提醒企業(yè),盡管技術(shù)不斷進步,但在部署這些工具時應保持審慎,確保其既能處理簡單任務,也能在復雜性和專業(yè)性方面達到有效溝通的標準。

綜上所述,加航的經(jīng)驗教訓為所有企業(yè)提供了寶貴的洞察:在追求自動化和效率的同時,必須投入適當?shù)馁Y源和策略來確保 AI 工具的準確性和可靠性,從而避免潛在的法律風險和維護顧客信任。

企業(yè)擁抱AI的責任與挑戰(zhàn)

加拿大航空的經(jīng)歷超越了一個簡單的聊天機器人失誤,它觸及了企業(yè)在采納人工智能(AI)技術(shù)時所必須承擔的更深層責任。這起事件不僅僅是一個警鐘,也是對未來,特別是涉及 AI 系統(tǒng)——包括生成式 AI——的案件一個明確的指示:需要仔細考慮哪些參與者,無論是 AI 的行為者還是使用者,應對 AI 系統(tǒng)的輸出承擔責任。

這一事件強調(diào)了一個關鍵信息,即所有企業(yè)在追求由技術(shù)帶來的效率和便利性的同時,也必須相應地投入資源,以確保這些技術(shù)的使用是安全、可靠且負責任的。這不僅關乎法律責任的界定,更關乎于企業(yè)如何在技術(shù)創(chuàng)新與倫理責任之間找到平衡點,確保在利用 AI 推動業(yè)務發(fā)展的同時,也能保護消費者的權(quán)益并促進公平、透明的技術(shù)使用環(huán)境。

猜你喜歡