"Boardroom Guide To Govern AI And Secure Its Adoption"這篇是由Steve Durbin所寫、2024年1月12日刊載於Forbes的文章。以下分享一些有趣之處。
在成熟的組織,董事會成員與關鍵經理人的責任就是制定政策方針及流程,以利科技(比如人工智慧(AI))之安全採行和長期成功。但非科技出身的董事會成員,如何為此快速變化的科技打造安全的基礎?以下是作者提出的五個實務考量,可供協助:
1.從公司策略與風險看待AI
董事會成員或許難以瞭解科技,但他們一定瞭解策略與風險。在你制定AI策略之前,要先徹底瞭解其潛能、整個組織當前的使用狀況,以及未來在安全上的挑戰和威脅。
比如,要是資料或演算法變得有毒、或成為駭客的武器怎麼辦?當前的網路安全防禦措施恰當嗎?若AI模型依照誤算或誤導的資料該怎麼辦?企業有充足的監督制衡以確保資料和AI模型是機密、完整及可用?這些都是董事會要問的重要問題。
2.評估AI活動的影響
在使用或發展所有AI產品或服務時,董事會成員有考慮其策略意義,這是很重要的。在使用AI時的真正意圖或最終目標為何?它會如何影響現行的流程?它會帶來什麼樣的經營效益?AI會如何影響員工、顧客及利害關係人?
董事會必須瞭解網路安全的重要性。員工是否以減少AI風險的方式加以訓練?員工有感覺到被授權及能夠掌控嗎?董事會對於AI如何與顧客互動、以及AI能蒐集資訊到什麼程度,或許知識有限;但重要的是他們瞭解到,這項科技會對安全及隱私有負面的影響。
3.考慮AI相關的遵循與控制
AI有很多的機會;然而,人們不能低估在法律、監理、隱私及道德上變化中的趨勢。
發展AI為基礎科技的組織,會受到監理機關及立法者更高的審查。繼而會帶動董事會更大的監督需求。董事會也可能要尋求外部專家方面更多的協助,幫忙解決關於法規和遵循相關的問題。
4.制定治理架構
和安全主管合作,董事會必須制定符合公司策略的治理架構,並處理已知的風險與遵循要求。
作者建議,董事會可任命一個AI委員會,邀請跨部門主管參加—比如執行長、法務主管、人資長、IT與安全團隊主管。該委員會可監督AI相關政策與程序之發展(最佳實務、對生成式AI使用的指引等),以及由合適的團隊與個人組成的責任結構—此可協助維持AI模型內的準確性及公平性,並管理、衡量和報導AI風險。
5.整合道德考量
公平、透明、當責、保密及安全,是今日最迫切的AI道德問題。為評估這些道德原則會在AI發展生命週期中考量,重要的是:董事會有採行相關實務作法—比如任命一個具多元和包容的道德團隊、進行定期的道德風險評估、偵測偏見,以及進行相關流程確保AI系統沒有歧視。
沒有留言:
張貼留言