這篇是由Michelle Thomson所寫、2025年6月25日在Directors and Boards網站刊出的"Decision-Making in the Age of AI"。以下分享一些內容。
演算法的盲點:機器做不到的事
董事必須敏銳意識到AI本身的限制:
演算上的偏見。AI系統是從人給的資料學習的。若資料本身就有偏見,AI不只會延續、還會加重。
董事的問題:誰管理訓練資料,以及可能包含哪些隱而未顯的偏見?
黑箱問題。很多先進AI模型是「黑箱作業」,其決定背後的理由模糊不明,難以瞭解為何會產出這個結果。缺乏可說明性,對問責性、可查核性帶來巨大挑戰,特別是在受監管產業、以及有高度社會影響的決定。
過度依賴與技能喪失。過度依賴自動化會導致人為技能和批判性思考喪失。若決策者越來越依賴AI見解,就會有風險失去細膩的判斷,無法面對前所未見的環境或道德兩難。
脈絡盲點。最精密的模型都有可能無法掌握現實世界運作、人類情感和前所未見的地緣政治變動這些動態複雜性。AI缺乏意圖、同理心和能夠「讀空氣」的能力,這些對策略領導通常是非常重要的條件。
關鍵的董事問題:我們如何落實嚴格的治理機制,以辨識、減緩和持續關注這些運算法限制,確保AI會增強而非替代人為判斷,以及我們如何建立對抗這些盲點的韌性?
不可或缺的融合:AI的分析加人類的智慧
AI擅長於:
*處理龐大的資料庫。
*辨識隱藏的相關性。發覺人類看不到的模式。
*快速認識到模式。以人無法做到的速度呈現趨勢。
不過,人為判斷在這些關鍵領域還是無可匹敵:
*創造性地解決問題。真正的創新通常來自於橫向思維、意圖和能夠連結不同的想法—這目前超出了AI的能力範圍。
*道德判別。演算法不包含道德。道德兩難、利害關係人衡量和需要深刻的社會理解之決定,都要人的良知與觀念。
*策略上的細微差別。董事必須考慮文化特殊性、難以言喻的政治動態、品牌聲譽以及微妙的協商藝術—這些都是演算法無法量化的因素。
關鍵的董事問題:我們有培育這樣一個文化嗎:AI被視為是有力的副駕駛,能增強我們的能力,而非減損根本的人類領導或策略敏銳?
董事會的AI:這是最重要的策略,不指只是工具
對董事會而言,整合AI不只是採用一個新工具,更是接納治理上微妙和策略的轉變。AI提供的強大能力有:
*強化風險評估。跳出落後指標而積極辨明新風險,從網路安全漏洞到供應鏈顛覆。
*進行複雜的預測。發展一個正確的市場隅側、需求預報與場景分析,在動盪的市場裡實現更大的敏銳性。
*讓資源配置最優化。基於資料而來的見解,確定配置資本與人才上無效之處和機會。
*策略的盡職調查。利用AI快速分析併購標的、市場局勢以及競爭情報。
關鍵的董事問題:我們如何確保AI策略納入整體公司治理架構、讓技術和目的及價值連結起來,並強化我們的長期競爭優勢?
AI治理的實務策略:董事會的劇本
為有效利用AI,同時確保組織安全,董事應考慮下述可行、治理為主的焦點。
建立健全的AI治理架構
*行動。設立一個專屬的董事會或委員會層級AI監督部門。
*見解。此組織應該要整合內部專家(比如資訊長或資料科學主管)與對AI道德、風險和策略的外部獨立意見。其職責是:持續評估及指引AI措施,確保符合公司價值與監理局勢。
要求關鍵決定要有可解釋的AI(XAI)
*行動。當AI會影響高風險決定時,要堅持採用XAI。
*見解。針對為何AI模型會做出此具體預測,XAI會提供理由,超越出黑箱作業。這對於當責、遵循以及建立信任十分重要。
實行最嚴格的資料治理和道德政策
*行動。發展與落實健全的政策,以處理AI生命週期裡每階段的資料品質、保密、 安全和減少偏見。
*見解。AI的好壞取決於資料。整合全面性的AI道德指導方針、確保其不只是理論聲明,還是發展與部署上可行的架構。
投資董事會的AI素養
*行動。培育持續的教育計畫、專家簡報與同儕學習,以提升董事會的集體AI素養。
*見解。董事不需要成為資料專家,但必須充分掌握AI能力、限制以及道德考量。此積極的投資,類似於財務素養訓練,對有效監督是不可或缺的。
利用即時、AI而來的資料視覺化
*行動。部署動態的儀表板,針對營運績效、新風險與策略KPIs提供持續、AI的更新。
*見解。這些視覺工具可藉由將複雜資料轉化成可行見,解促進明智的決定,不使董事負擔過重。
董事會的行動計畫:探索AI的前沿
董事在AI時代的領導能力,將決定組織的未來。因此在下次董事會,要考慮以下幾個措施。
發起董事會的AI查核。不知道的事宜無法治理。從評估組織當前AI的足跡開始—哪裡已經部署AI了、使用了什麼資料、已經確定什麼風險了?查核會提供明智治理的基礎,突顯領先和可能弱點的領域。
倡議整個董事會的AI素養。集體性的瞭解會促進有效監督。除高階經理人簡報外,還要嘗試結構化的訓練會議及同儕學習小組。考慮邀請外部AI道德專家、策略師進行深入討論。AI和其影響的共同語言對於健全的討論及決策十分重要。
要求明確的AI治理架構。AI風險是系統性的、跨部門的。與管理階層合作建立一個正式架構,陳述明確的責任、定義組織對AI的風險胃納、制定道德指導方針,以及為所有AI措施建立健全的監督機制。這會讓AI監督化被動為主動、讓其納入公司治理的核心。
優先重視重要應用的XAI。透明會建立信任並實現當責性,特別是在高風險的狀況。針對任何會對客戶、員工和財務模型產生重大決策影響的AI系統,都要堅持瞭解—AI做出此結論的理由以及方法。這才可以進行人為介入、改正和監理遵循。
將資料道德納入核心原則。偏見與有問題的資料,會造成缺陷並可能傷害AI產出。確保有健全的資料治理政策,並聚焦於不只是安全與隱私,還有從一開始就辨識及減少訓練資料上的偏見。在資料相關規定不斷變化下,組織的聲譽與遵循都要靠這件事。
培育一個人與AI合作的文化。最有力的AI部署,是結合演算法長處及人的獨創性和批判性思考。鼓勵整個組織都有如此的思維—將AI視為強化人類能力的助手,而非取代人類批判性思考、創造力和道德判斷。這會確保領導之中人的因素仍是核心。
資料來源:https://www.directorsandboards.com/board-issues/ai/decision-making-in-the-age-of-ai/
沒有留言:
張貼留言