本篇是World Economic Forum在2024年 10月 14日刊出,由Inderpreet Sawhney、Delia Ferreira Rubio、Houssam Al Wazzan合寫的:”Why corporate integrity is key to shaping the use of AI”。重點有:
*因治理難以跟上快速變化的科技腳步,故AI監理環境是複雜且不一致的。
*企業在應用強大的道德守則以確保必要的責任與當責性水準上,有關鍵的作用。
*道德的AI對於創造一個科技服務人類的未來而言十分關鍵,而公司誠信可透過制定高標準來引領這個道路。
人工智慧(AI)監理局勢是複雜且不一致的,處理的方法從自願性的產業行為守則,到國家或跨國家級的強制性風險基礎規定都有。
儘管全球致力於對AI治理達成協調一致,比如像聯合國、經濟合作發展組織(Organisation for Economic Co-operation and Development,OECD)、G20、G7這些組織,以及世界經濟論壇(World Economic Forum)的AI治理聯盟之類的平台都提出相關措施,但在快速變化的科技中向前邁進,又要努力保持治理,是一大挑戰。
這代表企業有關鍵的角色要扮演—應用強大的道德守則確保必要水準的責任與當責性。
公司可協助支持這些措施,作法是擴大企業責任、從公眾福祉角度來整合AI道德,以及對誠信的生態體系、公司董事會與機構投資人做必要調整。
強化AI誠信生態體系
因為監理與責任風險及產業領導人之間的社會責任感是跨產業的問題,故要確保負責任的AI使用。
的確,公司誠信現在會跨出法遵領域,包含了AI系統的道德部署,有很多公司強化了盡職調查,藉由採用道德規定、指引原則以及內部指導方針,來管理AI風險。
同時,AI治理標準(像ISO 42001)會協助公司提升盡職調查流程以及像OECD的AI事故監控(AI Incident Monitor)之類的措施,自2024年一月已來已報告了超過600起事故,藉由為AI系統的風險與傷害提供寶貴的見解,協助處理問題並強化道德的AI部署。
但根據針對500位企業領袖的調查,光在美國,雖然有73%的長字輩主管相信道德AI指導方針是重要的,但僅6%有發展它們。
對那些想要行動的人,像G7廣島高峰會主張所推動的非強制性公司行為守則,可協助引導AI部署的全球經營方法。比如,聯合利華(Unilever)實施了人工智慧確信流程,檢查每項新的AI應用之有效性和道德。
在全球公司裡的AI誠信生態系統治理仍在演變,幾個關鍵的職位—法務長、技術長,還有誠信、道德、遵循與資料長,都越來越重要。
此不斷變化的結構對於管理複雜的AI相關風險十分重要。整合性的方法有助於預防盲點,並確保AI發展實務是全面且安全的。
比如,Infosys已實施了一個負責任的AI生態系統,這是由AI治理委員會(AI Governance Council)與負責任AI辦公室(Responsible AI Office)所監督。此中央結構會確保各部門有協調一致的AI控制,包括網路防禦、保密、合法及品質。
為有效減緩風險,重要的是此治理架構有持續的員工意識計畫及健全的AI管理系統支持,而且對每個AI應用有全面性的契約安排。
同時,諾華(Novartis)發展了一個AI風險與遵循管理(AI Risk and Compliance Management)架構,符合像歐盟AI法之類的新規定。此方法會確保公司對AI系統做風險影響評估,並保障病患資訊以及遵守報告義務。
治理委員會亦可透過擴張其處理公司誠信和責任的方法,協助實現負責任的AI發展與部署。
但是為了有效做到這些任務,需要熟悉AI能力與風險,並確保AI道德對其策略討論、監督風險和風險評估而言,是不可或缺的一部份。
在諾華,由執行長主持的環境、社會與治理(ESG)委員會核准了AI架構,確保AI道德是其最高層策略決定的一部份。最高層的這個整合確保了AI系統有前後一貫的當責性。
此措施會重要的原因是,最近的訴訟突顯了公司誤用人工智慧方面的法律責任,比如加拿大航空(Air Canada)聊天機器人一案,該公司因為其聊天機器人給乘客不佳的建議而需負擔法律責任。
機構投資人—包括大型科技或非科技公司的股東—在引導朝向負責任AI的路上,亦可扮演重要角色。
的確,負責任AI的股東行動主義正在興起。比如,微軟(Microsoft)有五分之一的投資人施壓公司,要求管理因AI產生的假訊息而造成的財務與聲譽風險。
有幾個退休基金支持此提案,包括挪威財富基金。這個有1.4兆美元資產的財富基金,明確呼籲要有更明智的AI規定,並在公司投資其對負責任且道德AI使用的期待時,要發展自己的標準。
除此之外,美國證券交易委員會(Securities and Exchange Commission,SEC)已促使像蘋果與迪士尼公司就其AI使用請股東投票,突顯了道德審查的升高。
投資人日益升高的壓力突顯了道德AI的重要性不僅是社會責任,也是明智、長期的投資策略。負責任的AI在時間變化下會帶動商業成功及更大的市佔率。
為支持此觀點,最近有一份根據與創投投資人訪談所做的文章顯示:對AI道德之關注,可能成為競爭優勢。雖然對AI治理的全球爭論通常聚焦在減少風險,但負責任的AI應該被視為策略資產。
政府亦可在簽訂AI解決方案時透過納入道德標準來影響市場趨勢。此方法符合美國聯邦政府府所提、針對人工智慧的2023年行政命令(Executive Order)所宣稱的目標,其強調道德AI在公部門招標及相關事宜方面的重要性。
投資人、公司及政府的這些共同措施可協助創造讓AI之發展與部署有利於每個人這樣的未來,並確保道德考量是科技進步的第一線。
朝向道德AI前進
朝向道德AI前進的動力,不僅是一個趨勢—而是形塑有利於每個人、以人為中心的數位未來的關鍵動能。道德AI不只是遵循規範而已;它是要確保技術服務於公眾福祉,並符合我們所共享的價值。藉由接納道德AI,在創造更平等、負責任的數位環境上公司可扮演關鍵角色。
公司誠信是此措施的關鍵。當公司致力於道德AI實務,就會有助於建立信任、保護個人權利,並確保人工智慧系統之設計與使用,會強化人類的福祉。這不僅是避免受傷害,也是為所有人積極貢獻更佳的未來。
為了達到這一點,公司需要強化其AI誠信生態體系,確保監督與治理委員會在引導道德AI發展上扮演積極角色。這包括的不僅是達到法律要求,還有優先重視AI部署上每個面向的透明、公平及當責性。
此外,負責任的人工智慧投資很重要。藉由支持重視道德AI的公司,投資人可協助讓那些能促進公眾福祉之實務有更廣泛的採行。這些措施的影響會遠超出個別公司—可培育一個全球環境,其中AI會以符合人類價值與社會需求的方式發展和使用。
總而言之,道德的AI使用對於創造一個科技服務人類的未來十分重要,而公司誠信可藉由制定高標準、鼓勵全面的負責任實務而引領此潮流。這不僅是公司責任,也是形塑一個為所有人服務之數位世界的集體機會。
資料來源:https://www.weforum.org/agenda/2024/10/corporate-integrity-future-ai-regulation/
沒有留言:
張貼留言