(1)AI已成為熱門話題,但企業尚未做好準備
MIT Technology Review Insights和澳洲電信公司Telstra對超過300位企業領袖進行了全球調查,發現僅9%會大量使用AI。
雖然大多數領導人對AI的潛能持樂觀態度,並預期會擴大使用,但目前AI的早期採用者只會部署在有限的業務領域。
澳洲National Artificial Intelligence Centre的首任主任Stela Solar在調查報告中說,「外界誤以為經營成熟、企業級、生成式的AI很容易。」但採用此科技需要公司「強化資料品質與能力、保密措施、AI技能,並落實安全與負責任的全組織AI治理。相關的要素比如應用程式設計、對資料和營運流程之連結、公司政策等。」
該報告稱:明年廣泛推出生成式AI方面會有一些阻力,特別是IT資源和能力。
不到30%的受訪者評估自身公司的IT屬性會有利於快速採用AI。56%的受訪者說,一般來說抑制他們推出生成式AI的因素,就是其IT投資預算。
有77%的受訪者說監管、遵循及資料保密,是快速部署生成式AI的關鍵阻礙—對生成式AI生態系統而言這是一個主要問題,因為在2022年底、Open AI發佈了熱門的ChatGPT後此科技廣受注目。
自此之後,此科技會引發大量與生成式AI資料相關的著作權訴訟。大公司在使用上會遭遇到敏感資訊外洩及安全問題。
2024年3月4日,AI Singapore的AI創新總監Laurence Liew在MIT這份報告的新加坡發佈會上重申:處理這些風險需要對AI模型設計完善的治理結構及安全協議。「公司必須問:我們有適當的治理嗎?我們的內部文件是否妥善分類與保存?」Liew指出,企業想要避免讓AI模型洩漏了私人資訊,比如員工薪資。
根據報告,處理這些風險的能力,有賴於公司落實健全的內部網路安全措施,而稍稍多數的受訪者說,他們的網路安全措施「最多能應付一下」生成式AI之推出。
調查受訪者說,採用生成式AI的其他阻礙還包括:缺乏相關技能。公司擔憂的事是:內部沒有適合的人才、而市場上也找不到。
雖然有六成的受訪者預期生成式AI在未來五年對其產業會有重大破壞,但78%視其為競爭機會。約8%視其為威脅。
根據McKinsey今年公佈的報告,生成式AI預期會對銷售、行銷、消費者運作、軟體發展與研發部門產生最大影響,估計每年會提高全球經濟4.4兆美元。
(2)訴訟趨勢:網路安全、資料保護及AI帶來的風險
這篇"Litigation Trends: Cybersecurity, data protection, AI drive risk"是由Will Troutman所寫,2024年4月4日刊載於Chain Store Age網站。以下分享一些內容。
根據Norton Rose Fulbright的20th Annual Litigation Trends Survey,在零售、消費者市場,還有食品飲料業,網路安全及資料保護被視為今年最大曝險、最受憂慮的領域。
AI、監理和ESG爭議被視為關鍵曝險領域。該報告蒐集了超過400位美國各產業的法務長、內部訴訟主管意見,有將近100位是位於零售、消費者市場及食品飲料業的。
40%的受訪者表示,2023年在此領域有經驗到某種形式的訴訟,數字比2022年的33%還高,而44%的受訪者指出,網路安全訴訟是他們在2024年最害怕的事項,領先於其他訴訟種類。
作者預期,在零售、消費者市場與食品飲料業的風險會持續增加。除了SEC的網路事故揭露要求以外,美國還有幾個州實施了網路及資料保密法、或更新了現行法律,以應對這些風險,包括有德州、田納西州、蒙大拿州、印第安納州及羅德島州。
而減少這些風險的最佳實務作法有:
*健全地使用工具,以管理、限制及監控資料存取;
*持續訓練所有人員,特別是網路釣魚與社交工程方面;
*前瞻掃描(Horizon scanning);
*持續改善流程,包括查核及控制測試;
*提高對外部承包商的警覺,包括審視、查核、認證,並在需要時確保安全升級。
除了網路安全以外,受訪者還擔心的是AI的普及。受訪者明示:對AI是既愛又恨。受訪者一方面說AI科技會提高網路和智慧財產權的風險。另一方面他們也希望外部顧問或其他供應商能使用生成式AI來提高效率、減少成本。
美國公司應注意, AI領域在2024年會有更強的監理動作,包括州層級介入資料隱私模式,比如,加州立法機關就在討論重大的AI科技限制。
對零售、消費者市場與食品飲料業公司而言最重要的是:對AI之使用要採行和維持符合自願性架構之內部政策和流程,並持續追蹤監理及訴訟發展,因為這可能會施加強制性、實際上的遵循要求。
受訪者持續重視監理調查,有41%的零售業受訪者、47%的消費者市場受訪者、35%的食品飲料受訪者預期:2023年曝險會較2022年高。
雖然對這些產業的公司而言,最重要的還是在消費者保護上有健全的政策與程序,但比過去更重要的是,這些政策要跨部門協調一致,並作全公司的整體審視。
對ESG、企業社會責任、永續及DEI之關注,其重要性也持續成長,有十分之一的受訪者在2023年有遭遇過ESG相關的訴訟,而2022年時僅為2%。
反ESG情緒也成為了普遍的風險要素,因為組織身陷其中。然而,會擔心反ESG監理壓力的受訪者數,僅29%。
除激烈政爭以外,漂綠風險持續引發內部法律顧問的擔憂,有54%的受訪者預期,2024年由漂綠、不實廣告主張而引發的環境面爭議將會增加。
有鑑於SEC最近通過的氣候揭露規定、加州的SB 253(氣候排放揭露)與SB 261(氣候相關風險揭露)及AB 1350(碳中和主張及碳抵換使用證據之揭露),此風險可能會更嚴重。作者也看到,對其產品與服務之綠色屬性廣告不實而引發的私人集體訴訟,有增加趨勢。
在美國最高法院平權行動判決出爐後,也開始在討論新的風險問題。在這項判決之後,各實體及機構會面臨DEI政策與程序的法律挑戰—包括在聘僱、招聘、招標或其他領域。
雖然這些挑戰會怎麼發展,還有待觀察,但有42%受訪者指出,預期DEI領域的爭議將會升高,緊跟在後的是社會考量—包括人權(41%)、勞動權(36%)。
資料來源:https://chainstoreage.com/litigation-trends-cybersecurity-data-protection-ai-drive-risk
(3)隨AI使用的成長:D&O的風險與潛在的解決方案
這一篇"The Growing Use of Artificial Intelligence: D&O Risks and Potential Coverage Solutions"是2024年四月在AON網站刊出的。可以看到AI之普及對董事、主管責任的影響。
AI相關的風險,已經顯現。在2024年2月21日,在股價下跌30%後,某家公司及其部分董事和主管(D&Os)在一場聯邦證券集體訴訟中被控告—原告主張,該公司關於其AI能力的不實及誤導性聲明,涉及證券詐欺。雖然本案還有待觀察,但合理預期:有做AI揭露的公司及其D&Os,有可能成為被告。
一如AI揭露可能是私人證券集體訴訟的對象,他們也可能被監理機關鎖定。在耶魯法學院最近的一場演講裡,美國證管會(SEC)的主席Gary Gensler警告:SEC會全力挑戰向公眾募資、卻「未如實揭露其AI使用及相關風險」的公司及其D&Os。Gensler稱未如實揭露是「AI漂洗」(AI washing),毫無疑問這就是參考了最近SEC鎖定的不實、誤導的「漂綠」主張。這件事是在Gensler提出警告不久之後:在3月18日SEC宣布了AI漂洗方面的處罰—有兩間投資顧問公司因被控在AI使用上有不實、誤導性聲明,而同意支付總計40萬美元的民事罰款。
除了證券的集體訴訟及監理措施以外,關於公司執行和使用AI之不法,D&Os還面對著股東代理訴訟的風險。
公司誤用AI有可能會導致:因雇用歧視而引發的各種不利結果與法律責任,還有與侵犯智慧財產權、隱私或類似侵權行為相關的法律責任。
當此風險出現時,就不難想像股東會控告公司董事會及高階管理層,因為他們負責監督公司事務。值得注意的是,德拉瓦法院的判例法最近首度判決了主管(不只是董事)可能面臨有無可推託責任—因未能履行其監督及忠實的受託義務,有鑑於此,從事日常營運的公司主管,可能面對到的法律責任將非常嚴峻。
(4)醫療照顧業AI長需注意的四個關鍵領域
"Four Key Areas For Chief AI Officers In Healthcare To Focus On"這篇是由Jacob Kupietzky所寫的2024年4月2日在Forbes網站載出。雖然是針對醫療照顧業(healthcare),但我們整理其中針對AI長的部分,希望也能讓其他領域從業者有些參考。
在健康照顧業裡,AI的重要性很明顯:從簡化資料處理、強化病患經驗,到協助醫療評估及診斷,AI的使用都還在測試及擴大中。而在醫療照顧業的AI革命第一線,現在有一個新的長字輩主管:AI長。這個職位逐漸成型,在醫療照顧業的領導人應密切注意:AI如何負責任地提高病患滿意度及企業目標。
以下是AI長在其職權範圍內應該關注的四個目標。
1.確保科技之實行
對AI長而言,所謂的理解不只是科技可以做什麼,還有科技如何運作、正確履行其受指派任務的能力,這些都很重要。AI長需要具備醫療及科技兩方的知識,以便能提出正確的問題,並評估科技是否安全、有適當測試,並在資料分析中沒有偏見。
2.強化資料安全
資料安全能促進病患的信任及可靠性。它也是醫療照顧系統所仰賴的道德與遵循支柱。
對AI模型之威脅,不只是傳統想竊取資料的駭客網路攻擊。利用機器學習機制的弱點產出不正確資訊、資料外洩和不正確的分類,都是AI科技的現實危害。AI長需要瞭解其科技的弱點,並有確認及平衡的措施,以便認識和減少潛在威脅。
3.診斷醫療照顧業的未來
在有這些資料及AI模型後,醫療照顧業的經理人就可預估其營運的長遠性並做出決定,還有主動、全面地處理醫療照顧系統。
4.簡化後勤的任務
AI長應該引導科技能簡化和自動化日常任務。透過採用健全的流程自動化(robotic process automation,RPA),組織可看到顯著的節省成本、提高措施落實率,並減少流程時間等。
沒有留言:
張貼留言