這篇"Building The Corporate Constitution For AI: The GC’s Expanding Domain"是由Jennifer C. Wolfe所寫,Forbes在2025年12月26日刊出的文章。以下分享一些內容。
大多數組織並未全面性觀點看待員工在工作流程中使用AI到哪、如何使用,或者如何管理隨之而來的法律或道德影響。而這是法務長、法律總顧問(general counsel,GC)可以做的。
GC站在一個特殊位置,可建立內部制衡制度,以確保AI會道德、合法與策略地部署。
AI不只是另一個要監管的技術而已。它是跨各經營部門的治理挑戰。因為AI涉及資料、隱私、智財、研發、人資以及人為決定,因此風險不只是存在於IT或遵循而已。
GC已經在管理跨部門風險。他們會將技術複雜性轉化為董事、高階經理人瞭解的詞彙。藉由領導AI監督結構之設計,GC可從法律顧問進化為治理建築師,確保AI的採用是合乎法律、道德及長期策略的。
在制定政策之前,GC必須先觀察制度。流程制定作業、根據Six Sigma與Lean方法,可協助看到AI當前如何進入工作流程、使用什麼資料,以及其產出會影響什麼決定。作者已使用行之有年的方法多年,協助法務長改善其團隊的生產力。此工作可協助GC建立變化中AI政策的計畫。
制定工作涉及以下三個關鍵洞見:
*當前狀態:AI刻意或無意地用到哪。
*未來狀態,在適當的遵循下,AI在何處會創造最大價值。
*落差:在確保未來安全下,需要建立起什麼樣的政策、訓練及風險管理橋樑。
此路徑圖會將關於「AI道德」的憂慮轉化為具體的營運計畫。一旦制定了,監督就會成為可衡量的、成為任何監理架構的基本部分,讓GC可進一步向組織展現價值,而非成本。
每個組織都應該建立一個AI治理團隊,並由GC領導或共同主持。目標不是要拖慢創新,而是創造安全促進創新的結構。在一個機器可以創造、決定和甚至協商的世界,GC是人為判斷的守護者,確保取得情報不會犧牲問責性。
當公司從實驗AI進入掌握能促進其決定的情報時,法務部門將會成為可衡量價值的引擎。由內而外建立這些制度GC,不是只有緩解風險而已;他們會打造如何讓資料成為受保護的資產、自動化流程如何維持可查核性,以及組織如何向監理機關、董事會和客戶證明有負責任的使用。藉由監督營運、追蹤模型資料來源、量化所減少的法律暴險、增進決定所用的時間以及定義明確的問責關係,GC可展現:一如財務指標般的治理回報。
沒有留言:
張貼留言