搜尋此網誌

Translate

2026年4月1日 星期三

AI是設計的,不是預設的:董事會必須知道的事-2026/04/01

這篇"AI by Design, Not by Default: What Boards Must Know"是Directors and Boards在2026年2月25日刊出,Larry Weber所寫的文章。對於AI,樂觀期待的看多了,而指出其中問題、人們心態調整的反而更該注意。以下分享一些要點。

濫用與不佳治理的風險

採用AI會帶來相當的風險,需要積極監督。這包括的營運問題有:AI輸出不正確、偏見或理解不足、關於資料保密的法律和監理暴險、智慧財產權與演變中的AI立法、還有因AI破壞利害關係人信任而產生的聲譽受損。當AI影響到重大決定,但沒有足夠的透明度、問責性與人為判斷時,還會引發額外的風險。

AI部署未確認或治理不佳,會加劇錯誤、使責任模糊不清,並讓公司暴露於監理機關、投資人與公眾的審查。因此,董事會必須確保AI風險管理有整合進企業風險架構,並具備明確的問責性和向上報告途徑。

防衛機制與有效的董事會監督

為引導負責任、價值創造的AI採用,董事會必須確保有明確的防衛機制,以打造AI在整個公司的設計、部署及治理。這些防衛機制不應該僅抑制風險,還要積極落實與策略、價值觀和長期韌性一致的有紀律創新。

有效的治理方法,會納入以下三個指導原則,並將之轉化為具體監督期待:

*道德上的防衛機制:建立AI使用的北極星,確保與公司價值觀、社會期待及長期價值創造保持一致。董事會應確認—AI應用是有受到明確道德標準引導,並藉由強健的資料治理、隱私保護、智慧財產保護及網路安全控制之支持。

*投入上的防衛機制:確保瞭解AI相關曝險,並透過適當合作與透明度處理。這包括將AI整合進既有的企業風險、遵循與聲譽架構,適時接觸相關利害關係人,還有確保管理階層準備好面對演變中的監理及公眾期待。

*演變上的防衛機制:承認AI系統、風險與監管不斷在變。董事會應該對AI產出結果要求明確的責任、定義在重大決定上人為判斷和向上報告仍十分重要,並確保隨時間推移會持續監控、學習與調適。

最常被忽略的風險

雖然在沒有正確防衛機制下實行AI很危險,但同樣很危險的是:不採取行動。監督包括不只確保管理階層深思熟慮,還有讓公司能掌握長期優勢。

未能接觸AI的公司,可能會居於劣勢、決策緩慢、成本結構升高,而且吸引與留住人才的能力變弱。從治理角度看,不夠注意、沒有詢問會引發董事會準備度的問題。

制定正確方向

董事會在AI上的角色不是管理技術,而是制定明確且平衡的策略方向。藉由鼓勵有紀律的採行(根基於經營目標、強健治理和有人負責),董事會就能確保AI成為永續價值的來源,而非未管理的風險。

當董事會採取正確思維並提供聰明的策略指引,AI就能明確地強化競爭優勢、改善決策並讓組織邁向長期成功及韌性。若沒有深思熟慮的監督,AI就會將公司暴露於監理審查、聲譽傷害以及昂貴的錯誤。此差別不在於工具本身,而是方向清晰度、治理品質。

對今日的董事會而言,挑戰是有意識地領導:支持創新同時堅持透明、防衛機制以及符合企業策略。做得好,AI就不只是技術,而是董事會實現策略的資產,推動更大的價值又減少風險。

資料來源:https://www.directorsandboards.com/board-issues/ai/ai-by-design-not-by-default-what-boards-must-know/


沒有留言:

張貼留言

如何縮短執行長與董事會關係落差-2026/04/02

這篇是由Mark Athitakis所寫、2025年4月18日在Associations Now網站刊出的文章"How to Close the CEO-Board Trust Gap"。 本週初,路透社報導說Spencer Stuart 發現僅22%的公司高...