搜尋此網誌

Translate

2024年8月25日 星期日

[增援]【認識AI治理】(1)AI治理需要動態治理以掌握機會與管理風險;(2)AI治理的重要性為何?(3)負責任AI的四個原則及最佳實務-2024/08/25

(1)AI治理需要動態治理以掌握機會與管理風險

這篇是由John M. Bremen與Kyle Heurich合寫的"AI requires dynamic governance to seize opportunities and manage risks",2024年6月20日在刊出。以下分享一些內容。 

AI需要新的治理模型,而且與其監督的發展技術一樣創新。這些新的風險管理策略,要能快速地適應及回應,以確保能適當減緩風險和實現價值。

本文的要點是:

*AI需要有隨其步伐轉變的治理,確保管理風險並掌握機會。

*靜態治理,在AI快速變化的世界裡會讓公司變得落後;動態模型才能提供敏捷性和永續性。

*策略方法對動態治理、符合AI目標以及讓利害關係人參與而言很重要。

*轉型到動態治理會面對到抗拒;平衡集中化與自主性是關鍵。

為管理AI風險,許多組織仍使用傳統的治理架構,以及包含資料保護、道德與消費者保護的現行政策與規定。因為這些方法無法處理AI的特殊挑戰與機會,故無法跟上AI科技快速進展的步調,導致無效率和錯失機會。

AI需要動態的治理模型,以便在持續變動的局勢下調整和演變。動態模型提供了一個更敏捷、永續的方法,讓領導人能辨識內外部的訊息、據此採取行動,快速回應變動的監理和風險局勢。藉由縮短傳統治理的落差,動態模型讓組織可預估風險與機會,以獲得競爭優勢。

與集中化的權力及傳統治理決定不同的是,動態策略讓組織可針對AI目標,特製他們的治理實務。動態治理模型讓組織可監督及評估其AI系統之績效和成果,並據此調整和改善其治理實務。藉由採用動態治理模型,組織可從AI技術上獲益,同時把風險降至最低、讓信任與責任升至最大。

動態治理的特徵有:

*彈性:調整治理架構以回應變動的環境

*回應力:快速處理新問題並利用新機會

*持續改善:確保治理方法仍有效與相關

*回饋循環:讓組織蒐集利害關係人的意見,據此調整其治理結構

*定期更新:反應最新的AI技術發展和最佳實務

落實動態治理模型,需要策略的方法,將組織整體AI策略和目標結合起來。關鍵步驟有:

*評估準備度,以評估組織當前的治理實務,並辨識需改善的領域

*定義動態治理模型的目標,包括其範圍、目標與關鍵績效指標

*與利害關係人議合,包括高階經理人、AI從事者與外部專家,獲得回饋並確保接納

*落實定期更新、回饋循環與持續改善的機制,比如定期審視及查核

*監控和評估動態治理模型,並在需要時進行調整,確保其維持其相關性和效能

有一個重大阻礙是:組織落實動態治理模型所需的組織變革。員工或許會抗拒採行新流程,不接受不熟悉的職位或額外的責任。此抗拒源自於擔心未知、對模糊或改變缺乏容忍、認為對工作穩定有明顯威脅,或就是想要維持現狀而已。克服此阻礙,需要小心地改變管理策略,包含明確的領導人和員工溝通、訓練及支持,以及度過轉型期。

資料來源:https://www.wtwco.com/en-au/insights/2024/06/ai-requires-dynamic-governance-to-seize-opportunities-and-manage-risks 


(2)AI治理的重要性為何?

本篇"What is the Importance of Governance in AI?"是由Nikhil Sonawane所寫、2023年7月3日刊載於Enterprise Talk網站。以下分享一些有趣之處。

儘管AI可以帶來很多好處、提昇效率,但本身還是有一些風險。產業專家也對AI的使用提出了一些憂慮。他們對使用AI的主要疑問是:

*如何信任這個架構及模型所產出的結果?

*如何確保這些模型能在符合道德、正確目的下的使用?

生成式AI模型可產生值得信任、結構良好的產出。但若對相關主題缺乏正確知識下,要辨識不正確的產出,是相當有挑戰性的。

全球監理機關都在制定AI指導方針及AI治理架構。儘管會有法律,但企業本身也應該要有內部的AI治理政策。對於監督如何發展及部署AI而言,這些防護機制是很重要的。

強化負責任地使用AI,需要嚴謹的治理政策。企業應對整個AI流程定義及訂定責任歸屬。這才是確保生成式AI模型符合規範的有效方法。

企業應以以下原則來發展AI:

*公平

*可說明

*健全

*透明

*保密

全面性的AI政策應該要能夠完整地讓人、流程與技術三者保持一致。

重要的是,制訂整個組織的AI流程。這些流程可協助定義何時、何處,以及如何將AI整合進企業。組織應基於企業價值、道德原則、規範以及遵循法律,來建立AI與公司治理。

企業可籌設一個AI道德的委員會,來治理、審視及做最後決定。

AI治理是:對AI模型的道德與法律指引。這些AI治理政策,對於確保AI模型能道德及負責任地設計與發展,是很重要的。

以下,是決策者在考慮發展AI治理架構時的幾個關鍵焦點:

*評估AI的安全性

*瞭解適合AI自動化的部門

*對AI使用,實施法律與體制性的結構

*制定法規,定義誰可控制及取得個人資料

*考慮所有因AI而起的道德問題

AI的治理要與AI的法規、實務與流程一起設計。它定義了如何引導與控制AI的方法。

受到高度管制的產業,像金融業,必須落實健全的AI治理架構,以有效監督AI策略。這些AI治理政策,應該要定義使用AI的透明策略。它也應該要有防衛機制,以定義他們如何蒐集和管理AI模型所產生的資料。

此外,同時偵測與減少風險也是很重要。企業必須維持嚴格的資料安全,在法律要求遵循上可不能有什麼妥協。以下是落實AI治理架構可帶來的一些效益:

*使決策更佳

*促進效能並將成本降到最低:落實AI治理架構,可確保AI工具正確運作。

*強化客戶服務及議合:制定AI治理將確保AI工具可帶來無偏見的產出。

資料來源:https://enterprisetalk.com/featured/what-is-the-importance-of-governance-in-ai/ 


(3)負責任AI的四個原則及最佳實務

這篇在2023年10月5日在Eeterprise Talk刊出的"Four Principles and Best Practices of Responsible AI"。提供了四個原則與建議作法。以下分享一些要點。

在人工智慧(AI)治理、政策及實務上重視負責任AI原則的公司,可有效理解並處理相關風險。則,負責任AI的四個原則是什麼?

1.公平

在資料中存在的運算與社會偏見,會造成決策上的歧視。因為錯誤的假設,當運算法系統性地產出偏見時,就會發生這類問題。

但最大的挑戰是:確保沒預料到的偏見可透過相關的介入、實務及負責任AI原則而減少。

2.隱私

AI系統必須按隱私相關法規處理個人資訊。公司必須落實資料治理實務,並在資料蒐集時尋求知情的同意。

3.安全

重要的是預防AI系統不會因攻擊者而改變預期的行為。同樣的,在特殊領域使用AI,會帶來足以影響公眾安全的漏洞。

比如,對手攻擊會讓資料與模型中毒。當駭客用虛假資料注入訓練資料內時,就會發生資料中毒,後者會因為模型被操弄而發生。

4.透明

公司必須致力於讓AI運算、模型及決策過程,對使用者、利害關係人是可解釋的。這會協助建立信任,並瞭解AI系統如何推動決策。

AI系統是以機器學習(ML)進行訓練的,但ML是不能區分資料品質的好壞。因此,訓練ML模型以監督輸入的資料,是很重要的。

達成以上原則的最佳實務是什麼?

1.如何達成公平性

第一步就是分析AI學習的資料。若資料有偏見,那模型裡就會有。公司必須發展相關流程來判斷AI訓練資料內是否有偏見存在。這對於評估模型及運作流程而言,是很重要的。

公司必須記錄並解決偏見,而非將這些偏見直接納入演算法內。記錄的資料內本來就會有偏見,而建立推論結果的方法,有助於建立將潛在風險降到最低的流程。

另外一個實務作法就是:分析資料的次群體,以判斷該模型是否與其他不同群體的表現一致。最後,在部署其後監控模型也很重要,因為這會隨時間而轉變。

2.如何達成隱私與安全

公司必須依資料的敏感性,對其進行評估、分類與監控。他們必須發展資料取得與使用政策,並落實最小權限原則(principle of least privilege)。然而,要檢查是否會有鼓勵對手攻擊、或潛在的影響。

設立一個團隊來測試系統,以辨認並減少漏洞。更重要的是,留意AI攻擊及其安全上的新發展。

3.如何達成透明

用少量的輸入來瞭解模型是否達成所欲的表現。這會協助正確地找出變數之間的相關性或因果關係。

最後,公司必須測試AI的方案,以確保結果是真實、符合負責任AI的原則。

資料來源:https://enterprisetalk.com/featured/four-principles-and-best-practices-of-responsible-ai/ 


沒有留言:

張貼留言

前100份CSRD報告得到的見解-2025/06/19

這篇是PwC在2025年3月28日刊出的"Insights from the first 100 CSRD reports"。以下分享他們的觀察結果。 期待已久的公司報導正要到來。今年已經有超過250家公司公佈了他們按CSRD編製的永續報告。 作者審視了前10...

網誌存檔