(1)AI治理需要動態治理以掌握機會與管理風險
這篇是由John M. Bremen與Kyle Heurich合寫的"AI requires dynamic governance to seize opportunities and manage risks",2024年6月20日在刊出。以下分享一些內容。
AI需要新的治理模型,而且與其監督的發展技術一樣創新。這些新的風險管理策略,要能快速地適應及回應,以確保能適當減緩風險和實現價值。
本文的要點是:
*AI需要有隨其步伐轉變的治理,確保管理風險並掌握機會。
*靜態治理,在AI快速變化的世界裡會讓公司變得落後;動態模型才能提供敏捷性和永續性。
*策略方法對動態治理、符合AI目標以及讓利害關係人參與而言很重要。
*轉型到動態治理會面對到抗拒;平衡集中化與自主性是關鍵。
為管理AI風險,許多組織仍使用傳統的治理架構,以及包含資料保護、道德與消費者保護的現行政策與規定。因為這些方法無法處理AI的特殊挑戰與機會,故無法跟上AI科技快速進展的步調,導致無效率和錯失機會。
AI需要動態的治理模型,以便在持續變動的局勢下調整和演變。動態模型提供了一個更敏捷、永續的方法,讓領導人能辨識內外部的訊息、據此採取行動,快速回應變動的監理和風險局勢。藉由縮短傳統治理的落差,動態模型讓組織可預估風險與機會,以獲得競爭優勢。
與集中化的權力及傳統治理決定不同的是,動態策略讓組織可針對AI目標,特製他們的治理實務。動態治理模型讓組織可監督及評估其AI系統之績效和成果,並據此調整和改善其治理實務。藉由採用動態治理模型,組織可從AI技術上獲益,同時把風險降至最低、讓信任與責任升至最大。
動態治理的特徵有:
*彈性:調整治理架構以回應變動的環境
*回應力:快速處理新問題並利用新機會
*持續改善:確保治理方法仍有效與相關
*回饋循環:讓組織蒐集利害關係人的意見,據此調整其治理結構
*定期更新:反應最新的AI技術發展和最佳實務
落實動態治理模型,需要策略的方法,將組織整體AI策略和目標結合起來。關鍵步驟有:
*評估準備度,以評估組織當前的治理實務,並辨識需改善的領域
*定義動態治理模型的目標,包括其範圍、目標與關鍵績效指標
*與利害關係人議合,包括高階經理人、AI從事者與外部專家,獲得回饋並確保接納
*落實定期更新、回饋循環與持續改善的機制,比如定期審視及查核
*監控和評估動態治理模型,並在需要時進行調整,確保其維持其相關性和效能
有一個重大阻礙是:組織落實動態治理模型所需的組織變革。員工或許會抗拒採行新流程,不接受不熟悉的職位或額外的責任。此抗拒源自於擔心未知、對模糊或改變缺乏容忍、認為對工作穩定有明顯威脅,或就是想要維持現狀而已。克服此阻礙,需要小心地改變管理策略,包含明確的領導人和員工溝通、訓練及支持,以及度過轉型期。
(2)AI治理的重要性為何?
本篇"What is the Importance of Governance in AI?"是由Nikhil Sonawane所寫、2023年7月3日刊載於Enterprise Talk網站。以下分享一些有趣之處。
儘管AI可以帶來很多好處、提昇效率,但本身還是有一些風險。產業專家也對AI的使用提出了一些憂慮。他們對使用AI的主要疑問是:
*如何信任這個架構及模型所產出的結果?
*如何確保這些模型能在符合道德、正確目的下的使用?
生成式AI模型可產生值得信任、結構良好的產出。但若對相關主題缺乏正確知識下,要辨識不正確的產出,是相當有挑戰性的。
全球監理機關都在制定AI指導方針及AI治理架構。儘管會有法律,但企業本身也應該要有內部的AI治理政策。對於監督如何發展及部署AI而言,這些防護機制是很重要的。
強化負責任地使用AI,需要嚴謹的治理政策。企業應對整個AI流程定義及訂定責任歸屬。這才是確保生成式AI模型符合規範的有效方法。
企業應以以下原則來發展AI:
*公平
*可說明
*健全
*透明
*保密
全面性的AI政策應該要能夠完整地讓人、流程與技術三者保持一致。
重要的是,制訂整個組織的AI流程。這些流程可協助定義何時、何處,以及如何將AI整合進企業。組織應基於企業價值、道德原則、規範以及遵循法律,來建立AI與公司治理。
企業可籌設一個AI道德的委員會,來治理、審視及做最後決定。
AI治理是:對AI模型的道德與法律指引。這些AI治理政策,對於確保AI模型能道德及負責任地設計與發展,是很重要的。
以下,是決策者在考慮發展AI治理架構時的幾個關鍵焦點:
*評估AI的安全性
*瞭解適合AI自動化的部門
*對AI使用,實施法律與體制性的結構
*制定法規,定義誰可控制及取得個人資料
*考慮所有因AI而起的道德問題
AI的治理要與AI的法規、實務與流程一起設計。它定義了如何引導與控制AI的方法。
受到高度管制的產業,像金融業,必須落實健全的AI治理架構,以有效監督AI策略。這些AI治理政策,應該要定義使用AI的透明策略。它也應該要有防衛機制,以定義他們如何蒐集和管理AI模型所產生的資料。
此外,同時偵測與減少風險也是很重要。企業必須維持嚴格的資料安全,在法律要求遵循上可不能有什麼妥協。以下是落實AI治理架構可帶來的一些效益:
*使決策更佳
*促進效能並將成本降到最低:落實AI治理架構,可確保AI工具正確運作。
*強化客戶服務及議合:制定AI治理將確保AI工具可帶來無偏見的產出。
資料來源:https://enterprisetalk.com/featured/what-is-the-importance-of-governance-in-ai/
(3)負責任AI的四個原則及最佳實務
這篇在2023年10月5日在Eeterprise Talk刊出的"Four Principles and Best Practices of Responsible AI"。提供了四個原則與建議作法。以下分享一些要點。
在人工智慧(AI)治理、政策及實務上重視負責任AI原則的公司,可有效理解並處理相關風險。則,負責任AI的四個原則是什麼?
1.公平
在資料中存在的運算與社會偏見,會造成決策上的歧視。因為錯誤的假設,當運算法系統性地產出偏見時,就會發生這類問題。
但最大的挑戰是:確保沒預料到的偏見可透過相關的介入、實務及負責任AI原則而減少。
2.隱私
AI系統必須按隱私相關法規處理個人資訊。公司必須落實資料治理實務,並在資料蒐集時尋求知情的同意。
3.安全
重要的是預防AI系統不會因攻擊者而改變預期的行為。同樣的,在特殊領域使用AI,會帶來足以影響公眾安全的漏洞。
比如,對手攻擊會讓資料與模型中毒。當駭客用虛假資料注入訓練資料內時,就會發生資料中毒,後者會因為模型被操弄而發生。
4.透明
公司必須致力於讓AI運算、模型及決策過程,對使用者、利害關係人是可解釋的。這會協助建立信任,並瞭解AI系統如何推動決策。
AI系統是以機器學習(ML)進行訓練的,但ML是不能區分資料品質的好壞。因此,訓練ML模型以監督輸入的資料,是很重要的。
達成以上原則的最佳實務是什麼?
1.如何達成公平性
第一步就是分析AI學習的資料。若資料有偏見,那模型裡就會有。公司必須發展相關流程來判斷AI訓練資料內是否有偏見存在。這對於評估模型及運作流程而言,是很重要的。
公司必須記錄並解決偏見,而非將這些偏見直接納入演算法內。記錄的資料內本來就會有偏見,而建立推論結果的方法,有助於建立將潛在風險降到最低的流程。
另外一個實務作法就是:分析資料的次群體,以判斷該模型是否與其他不同群體的表現一致。最後,在部署其後監控模型也很重要,因為這會隨時間而轉變。
2.如何達成隱私與安全
公司必須依資料的敏感性,對其進行評估、分類與監控。他們必須發展資料取得與使用政策,並落實最小權限原則(principle of least privilege)。然而,要檢查是否會有鼓勵對手攻擊、或潛在的影響。
設立一個團隊來測試系統,以辨認並減少漏洞。更重要的是,留意AI攻擊及其安全上的新發展。
3.如何達成透明
用少量的輸入來瞭解模型是否達成所欲的表現。這會協助正確地找出變數之間的相關性或因果關係。
最後,公司必須測試AI的方案,以確保結果是真實、符合負責任AI的原則。
資料來源:https://enterprisetalk.com/featured/four-principles-and-best-practices-of-responsible-ai/
沒有留言:
張貼留言