搜尋此網誌

Translate

2026年1月23日 星期五

打造AI委員會成功的三個訣竅-2026/01/23

這篇是由Matan Getz所寫、2024年5月15日在Dark Deading刊出的"3 Tips for Becoming the Champion of Your Organization's AI Committee"。未來應該會有越來越多公司在內部管理層級設AI相關的組織,可能經理階層多些,也不排除在董事會下。這篇文章就是作者的一些心得看法。

當組織要處理AI帶來的效益時,也要搞清楚採用AI本身的風險,許多前瞻的公司已定義了組織內專屬的AI利害關係人,以確定他們對這場變革做好準備。資安長就是這個委員會的核心,對落實這些建議負有最終責任。因此,瞭解其優先性、任務及潛在挑戰,對想要成為業務推手而非阻礙者的資安長而言,十分重要。

AI委員會、有時會稱為AI治理委員會,是一個企業內的組織,負責監督組織在AI使用上對安全及法律重要的問題。其主要目的是,確保AI技術之發展、部署和使用,會促進營運效益,像提高生產力,同時確保組織考量使用本身的風險,並採取積極的措施來確保公司資產、客戶、品牌及名譽的安全。

AI委員會理想上代表組織內外多群的利害關係人,包括有:

*高階管理層的代表,比如執行長、資訊長或技術長,他們會提供策略方向及支持AI的措施。

*法律顧問或遵循長,他們會對AI技術相關的遵循要求、法律風險、契約義務,提出建議。

*安全方面的領導人:資料保密、網路安全及資訊安全方面的專家,他們會確保AI系統遵守保密規定及安全的最佳實務。

*資料科學和AI工程師:在資料科學、機器學習及AI技術上的專家,他們負責發展和落實AI系統。

*外部顧問、學者或產業專家,他們會就AI治理最佳實務提供獨立的觀點與專業知識。其他的外部人還包括利害關係人代表,比如客戶、合夥人、倡議團體,以提供「外部」觀點。

資安長可如何讓AI委員會成功?

1.從全面性評估開始

在開始建立策略以確保整個組織的AI使用前,首先要搞清楚:對AI由誰採用、怎麼採用,以及採用什麼。AI落差分析會讓你首先辨識出組織裡所有影子AI應用程式及模式(先前未知情或未核准的)。此清單會讓你深入瞭解使用模式,以瞭解員工常用哪類AI,藉此可聚焦於未來最需要的安全措施上。這類的見解對企業利害關係人也是無價的,因此要明智地運用。作為資安長,記住你掌握著委員會最寶貴的資訊—組織上下對生成式AI的使用資料,就像投資報酬率一樣。在資料協助下,領頭制定整個組織聰明、安全、現實的生成式AI吧。

2.階段性的採用方法

資安長總難以平衡生產力與安全。因此,資安長如何同時採油門與煞車,以帶來正面的營運效益呢?對安全落實階段性採用方法,以確保採用時無虞,並即時評估採用的安全。在逐步採用下,資安長可同時安全控制並衡量其成功。

3.當防護欄

防護欄是常見的安全措施,同時不會減慢發展速度。資安長如何調整原則到生成式AI的第一線呢?今日最常見的使用就是透過脈絡和提示防護欄。自然語言模型可能會生成有害或非法的文本,或者違反公司內部政策。為防禦這類有害的威脅,資安長應制定內容基礎的防護欄,以定義及警示有風險和惡意的狀況,或者可能違反遵循標準的狀況。尖端、AI為主的安全解決方案,也會讓客戶制定並定義其自有的特殊安全提示參數,並警示和預防在防護欄以外的提示。

記住,雖然法務部門通常是負責制定組織的安全政策,但最終,實行的責任還是落在資安長肩上。確保法務部門制定的政策實際上受到監控,不然就會失敗。原則之施行是全面性的—別核准那些實際上無法落實和衡量的政策。

資料來源:https://www.darkreading.com/cybersecurity-operations/3-tips-for-becoming-champion-of-your-organization-ai-committee


沒有留言:

張貼留言

董事會對人工智慧應該問什麼問題-2026/03/25

這篇由Mark Nasila所寫、2024年2月27日於Engineering News刊載的"Artificial Intelligence in the Boardroom: What Questions Should Boards Be Asking About ...

網誌存檔