搜尋此網誌

Translate

2025年7月27日 星期日

精通AI的董事-2025/07/27

這篇"The AI-Savvy Director"是Cassandra Kelly所寫、2025年6月17日在Directors and Boards網站刊出的文章。讓我們看看要懂AI的董事需具備的條件。

生成式AI會有真正的影響與風險,因為其會推動、加速及遮掩決定。董事若只看眼前的事務,就會有錯過表面以下更深層的策略、道德營運影響。

因此董事需要鼓勵提問:

*現在用的這些工具對資料會產生什麼影響?

*可以查核嗎?

*可能會帶來什麼偏見?

*誰會對結果負責?

最大的風險不是AI會超越我們,而是我們無法治理。

董事會必須面對的8個挑戰

1.資料保密與安全。儘管使用AI很吸引人,但不能把所有資料送進去,或要予以保護。重要的是,董事要瞭解開放的大語言模型平台對董事會使用而言,並沒有保密。因此在企業級系統之維持上,要以嚴格的資料治理和保密措施。

2.AI的素養與訓練。AI素養不應該只是少數人的責任。基本的AI素養對所有董事有意義地投入、達成其職責很重要。董事不需要撰寫守則,但需要瞭解AI在哪方面表現良好、哪有缺失,以及偏見、模式隨時間飄移或幻覺很容易悄悄進入。

3.過度依賴或喪失人為判斷。董事角色是要對見解予以探究、詮釋及壓力測試。AI或許會加快決定速度,但在缺少人為監督下,董事會有放棄最重要責任(思考)的風險。

4.偏見、正確性與可解釋。AI系統會反應其訓練資料,通常,資料是有缺陷的。黑箱系統可能會產出完美的結果,若董事無法解釋決策是怎麼做出來,那就不應該支持。

5.道德使用和治理。AI會使偏見加重、自動化不道德的結果並破壞信任,而且通常是看不見且大規模的。董事會必須制定明確的責任使用;不只定義AI可以做什麼、不應該做什麼。這包含偏見查核、透明資料政策,以及定期針對會影響利害關係人之結果進行評估。

6.監理與法律遵循。AI監環境或許會快速變化,但仍落後於創新的腳步。從歐盟AI法到新的美國州法,大多數規定都還是被動性,而非主動的。董事不能只靠遵循作為防衛機制。他們必須持續掌握、預測法律風險,並且瞭解運算法傷害,縱使合法,對公司及其董事會都可能造成聲譽損失或法律責任。

7.整合與營運阻礙。現行的體系、拒絕改變以及與工作流程斷裂,都會阻礙實行。董事會必須把採用AI視為結構轉型,並以明確目標及實際的時間表將之整合進更廣的數位策略。

8.資訊超載與AI麻痺。AI會帶來超過董事會能合理吸收的資訊量,造成壓倒而非釐清,反而徒增風險。董事必須要能區分噪音與真正重要的訊息,並優先重視可促進決定之見解,並過濾掉會分散注意力的部分。

以下是董事領導AI治理方面的五個實務步驟

1.建立整個董事會的AI素養

*要求董事持續進修

*在顧問角色或董事會更新流程內納入AI專長

*培育好奇心與持續學習的文化

2.將AI整合進策略規劃

*讓AI與企業目標一致—不只是實驗,而是績效或創新的推手

*要求與可衡量結果連結的明確KPIs,比如節省成本、效率以及利害關係人價值

3.將治理納入工作流程

*發展董事會層級的AI政策(或者將之納入風險/審計委員會章程)

*對高風險的決定堅持人機互動協議

*安排定期的道德查核與偏見評估

4.管理聲譽和風險

*視AI失利為聲譽風險。準備危機溝通和因應計畫

*追蹤演變中的規定並積極更新遵循架構

5.由案例領導

*使用AI來研究、情境模式化或策略分析,但僅限於安全且經核准的環境

*避免傳輸機密資料給開放的大語言模型平台

*為你期望的整個組織判斷建立模型

不是AI威脅董事會績效,而是不佳的治理使然。董事會面對此時刻若具備明確性、勇氣和注意,才能引領潮流。

資料來源:https://www.directorsandboards.com/board-issues/ai/the-ai-savvy-director/


沒有留言:

張貼留言

永續報導歸給財務長負責:他們需要了解以下信息-2025/09/19

The Australian 在2025年 8月 12日刊載這一篇由Andrea Culligan與Sarah Kinsela合寫的“ CFOs own sustainability reporting: here’s what they need to know“。 永續性已經...

網誌存檔