這篇是由Kenneth White及Nivedita Sen合寫、2024年1月15日於World Economic Forum刊出的"Generative AI risks: How can chief legal officers tackle them?"。以下分享一些要點。
公司都在回應快速演變科技下的複雜監理網路。除了政府發展AI法規以外,業界為保障國民與社會安全而訂定自律規範的重要性,也日益受到重視,這是在股東受託義務以外的。雖然政府法規及私部門自律規範的平衡,各國都不太一樣,不過監理機關方面有越來越大的動力,要與業界合作發展生成式AI的治理標準。
作者在World Economic Forum上的法務長(CLO)社群中做了調查,針對領導性企業如何面對生成式AI的風險與機會,取得了一些見解。作為組織內負責法律策略及公司治理的最高主管,法務長位居於獨特的位置,可透過風險評估架構向董事會就AI相關風險提出建議,並發展全企業的減緩策略、同時又達成營運優先事項。
智慧財產權
使用未經授權的資料來訓練AI模型,在發展生成式AI產品上會是新的智慧財產權風險。同樣的,授權多個AI模型,使用AI生成結果來訓練及微調另一個AI模型,是有限制的。有趣的是,此趨勢在開放或封閉的模型提供者方面都可看到。使用AI的組織應注意由AI所引發的新風險。
另外一個關於AI生成內容智慧財產權的關鍵問題,就是各國之間需要法律上的確定性。缺了這一點,將會對不同產業產生不同程度的商業後果。法律需要透過所有相關利益團體,取得跨國的協調一致。
缺乏一致的法規
現行規範的適用狀況不夠明確及其落差,還有新AI法規的分歧,對全球企業而言是另一個風險。一系列新法規即將發佈,包括歐盟的AI法及美國關於AI安全的行政命令。此分歧不僅是在國家層級,還有地方、產業層級。光在美國,就有超過25個州在2023年有自己的AI立法。雜亂又分歧的AI監理局勢,對於要跨產業、跨地區營運的公司而言,實在是一個重大的風險。
遵循是催化劑
雖然當前全世界在AI方面的監理局勢仍然分歧,但也提供了組織一些機會來積極打造最佳實務。盡早採納負責任AI遵循計畫的公司,將能確保他們以誠信領導。盡職調查、遵循計畫及文件,還有測試和學習,都是AI路上不必要的項目。他們應被視為擴大與成長的催化劑,而且是確保解決方案之信任、品質與安全不可或缺的一環。
建立信任
在自身的企業與產業裡,私部門可建立以信任為本的方法,將AI效益拓展到最大。這就是「兼顧」(both-and)的方法,重視內外部顧客及利害關係人的永續成功:在預測與管理風險上,我們所持的角度是,讓AI成為聰明成長、提高生產力與明智的決定,以及接受提升技能、再教育以及人才擴張潛力這些事宜的推動力。
以受信任的方式運用AI力量,需要監理機關、企業與社會攜手合作,並遵守指導方針與防護機制:
*優先重視透明:當與AI系統互動時,人們應該要能知情,並對於如何做出AI產生的決定取得相關資訊。
*保護隱私:因為AI是根據資料而產出,因此這些資料之促進及保護品質、完整性及適當的蒐集和使用,對於建立信任而言很重要。產業標準、一致的規範以及共識立法,都應該要支持隱私和顧客對自己資料之控制。
*發展風險為基礎的架構,以處理整個價值鏈:AI不是一體適用,有效的架構應該在鼓勵包容創新時,也保護國民。
資料來源:https://www.weforum.org/agenda/2024/01/generative-ai-risks-chief-legal-officers/
沒有留言:
張貼留言