(1)美國企業領導人對於處理AI的影響及規定之看法
馬里蘭大學Robert H. Smith商學院的教授Kislaya Prasad針對885位美國企業高階及中階經理人,做了一份研究,名為AI Use and Regulation: A Survey of U.S. Business Executives”。研究發現蒐集了經理人的看法,顯示出對AI採行及治理之憂慮及支持。
該報告有五個關鍵要點:
*相當擔心現有的工作被取代,最常見的產業有金融服務、保險及電信。
*高度支持AI監管,包括要管理AI使用之透明度、說明自動化系統,以及對演算法之偏差進行第三方查核。
*高度支持限制關鍵AI技術之輸出。
*「推動聊天機器人」及「編碼」被視為最重要的AI使用,2023年十一月以前,各產業已廣泛使用生成式AI了。
*雖然「改善客戶體驗」及「改善營運」是採用AI的關鍵原因,但未採用的主要原因有「缺乏明確的使用案例或需求」以及「在資源的技術專長上受限」。
以下是其他的關鍵要點:
*經理人很在意取代工作的問題
關於AI在未來五年間對工作前景之潛在不利影響,約有20%受訪者表示,他們非常、或極度擔心。部分產業更是嚴重:47%的金融服務與保險業者、32%的電信業者如此表示。此外,工作經驗未達15年者、有27.5%受訪者如此表示,另外稱自己為AI決定者的受訪者方面,有26%也表達了此憂慮。
*高度支持對AI之監管
拜登政府在2023年對AI的行政命令,旨在為AI之安全建立新標準、創造保密安全機制,以及推動企業創新與競爭力。在過去五年間,美國有17個州通過了29項AI監管法案,都在推動類似的原則。關於經理人之對AI系統監管的支持程度,受訪者可分為三種監管類型—對AI使用與資料蒐集透明、說明AI演算法之自動化決定,以及對AI運算法之偏誤作第三方查核。約75%的受訪者說:強烈或有些支持監管透明度,而對運算法偏誤之監管也是。約72%的受訪者強烈或有些說明方面的監管。
*強烈支持限制關鍵AI技術之輸出
*企業內部早就採用生成式AI了
當問及AI技術在公司內之實行,有39%說是使用生成式AI、其次30%說是電腦的前景、27%說是機器學習。全球公司是將AI用作生成式任務的密集使用者。在這些公司裡,有33%說會使用生成式AI作為聊天機器人、32%會用作行銷目的,30%會用來生成文字。關於現在使用自動系統的決策型任務,受訪者常說的有庫存款裡、物流、個人化與招聘。
*客戶體驗與營運效能改善,是採用AI之核心
整體來看,各產業都會看到有推力與阻力。然而,在有使用AI的公司,有66%視其為推力、72%視其為阻力。已採用AI技術的公司裡,有超過35%認為阻礙是:初期成本過高、難以招聘有技能的專家,以及將AI與現有IT基礎設施整合困難。對於未採用AI技術的公司,最常見的兩個原因是:缺乏明確的使用案例或需求,以及在落實與管理技術上技術專長或資源受限。
Prasad說,「各產業在使用AI上有類似的模式,雖然彼此使用的程度落差頗大。資訊科技、電信、金融服務與保險以及製造業,對AI使用的程度遠高於零售與電子商務。」然而,對AI及其監管的看法,各產業是差不多的。
(2)新加坡要強化AI治理以打造更支持企業的生態系統
Business Times 在2024年 7月 15日在報導,新加坡數位發展與資訊部(Ministry of Digital Development and Information,MDDI)正引入新加坡強化人工智慧(AI)治理的指導方針,讓AI生態系統更能支持企業。
數位發展與資訊部長楊莉明(Josephine Teo)在7月15日個資保護週(Personal Data Protection Week on Monday)開幕演講上強調,減少對企業及消費者的資料風險以取得AI生成產品與服務信任之重要性。
她說,「在AI時代,資料及信任的需求受到更嚴格的關注。今日的生成式AI產品與服務,比如聊天機器人應用程式,都是建立在越來越強大的大語言模型(LLMs)基礎上。」
她指出,企業將持續需要資料,同時按現有的LLMs資料部署應用程式,而且「可能還要這樣好幾年」。
然而她強調,用來發展AI資料庫所涉及的風險,比如因建立此資料庫模型而產生的結果偏誤。
由於資料庫可能包含可識別的個資,故依此建立的生成式AI模型也可能在生成時反過來影響資訊。
楊說,「若這些風險沒有得到減緩,則企業與消費者都可能難以相信AI生成的產品與服務。在缺乏信任基礎下,對AI創新的支持就會隨時間而萎縮。」
有鑒於此,MDDI計畫要引入一組安全指導方針—將會作為試測性架構及軟體工具AI Verify的一部分—供AI模型開發商與應用程式部署者使用。
此指導方式要建立一個基礎、共通的標準給生成式AI發展,其焦點是透明與測試。
楊說,資訊通信媒體發展局(Infocomm Media Development Authority,IMDA)將向產業界諮詢這些指導方針,以確保它們是「相關且健全的」。
MDDI也打算支持提高AI隱私強化技術(privacy-enhancing technologies,PETs)之使用,因為PETs可協助企業在不傷害個資下強化資料使用。
透過IMDA的PETs沙盒,個資保護委員會(Personal Data Protection Commission)會公佈一份關於綜合資料生成方面所提議的指引。此指引將藉由解釋其定義、可如何使用,以及創造上的最佳實務,協助企業瞭解綜合性資料。
楊進一步宣布,在明年初,還會公佈一份關於資料匿名化的東協指引。
她說,「我希望這會成為一個對東協企業重要且務實的資源,其目的是能讓資料匿名化,以便在整個區域裡能更廣、更負責地使用資料。」
(3)AI監理局勢及董事會治理之需求
這一篇由Chris Smith所寫、2023年12月7日刊載於Grant Thornton的"AI regulatory landscape and the need for board governance",是分享Miriam Vogel的看法。Vogel是National AI Advisory Committee (NAIAC)的主席、並對美國總統和白宮提出AI政策之建議;最近她強調人工智慧(AI)之採行將會以極快速度「指數型成長」。董事會成員在快速變化的監理局勢裡,在管理AI相關風險將面對到巨大挑戰。以下分享她的一些看法。
在2023 National Association of Corporate Directors (NACD) 高峰會上,Vogel強調董事需要熟練地駕馭此變革性的科技。組織必須負責任地發揮AI潛力並善加利用,同時確保他們不會對利害關係人產生不利影響。
儘管美國國會現在還沒有AI相關法規,但Vogel說,這不代表不需要監督。有四個聯邦機關最近致力於要確保新AI系統的公平性。在最近的聲明裡,這些機關的領導人承諾,要是AI有長期性的非法偏見或歧視,就會動用執法權。
現在有超過30個州已在研擬AI監理法案,國際社會也正在加大力度。Vogel說,歐盟的AI法相當於AI版的GDPR法案,建立了嚴格的資料保密規範,會影響到全世界的公司。
在此環境下,Vogel說,經理人與董事需要注意AI適當治理及發展,有四個理由:
*員工滿意度:許多公司現在都難以找到高深技能者,Vogel說,員工不想要為在使用AI時會造成傷害、長久偏見與歧視(就根本無效)的組織工作。另一方面,員工會想要服務的公司,是以道德、有效的方式使用AI的。
*品牌誠信:一個善用AI而不會引起傷害的組織,會透過此科技對其顧客、社區建立信任。
*增加顧客:以正確方式使用AI的公司,可擴大其顧客基礎,並加深與現有顧客之間的關係,而不會傷害到他們的品牌。
*法律責任與訴訟:法官與陪審團在未來幾年,對於用此科技侵犯著作權及歧視受保護群體,將會做出判決並產生第一起判例。這就是高階經理人在董事會監督下需注意及謹慎制定組織政策的原因。
她還鼓勵董事會成員要:在組織內部、以及對顧客建立信任。Vogel分享良好AI衛生有五個最佳實務作法:
*鼓勵AI使用反映公司價值:Vogel建議公司使用一個架構,讓其AI使用與其價值一致。現在有幾個架構可用,而她建議National Institute of Standards and Technology (NIST)的風險管理架構,使一個不錯的工具。
*建立長字輩主管的當責性:AI當責性不能推給IT部門。Vogel 說,「這是最高階層應該管的事務。這會有支出、會有法律責任、會快速變化。因此長字輩主管中需要有人在決定的最後一站把關。」
*溝通你的AI架構與流程:第一線員工與監督者,需要瞭解用來作AI治理的架構,以及需要用來將AI使用符合此架構之流程。
*紀錄流程及其如何遵循:流程需要被記錄,以便需遵循者易於回顧。整個組織裡的AI使用者,應該被要求記錄如何遵循這些流程。
*持續查核:Vogel說,AI將持續更替並創出新的模式,也會有新的問題與建議。確保你會如常地持續監控,藉此持續瞭解AI是否提供符合你所欲的結果。
在Vogel該場對談中主持會議的Grant Thornton策略長Chris Smith指出,公開發行公司與私有公司中具備此專長的人不多,因此他看到學術界要縮短此專業上的落差,並推動創新的治理方案。
絕大多數監督AI的董事會成員,都不是電腦科學家,但這不成問題。Smith說,在過去10年的科技突破,已帶動董事會成員注意其所身負的角色與責任,以及他們運用健全治理原則來掌握機會和面對風險之能力。
資料來源:https://www.grantthornton.com/insights/articles/audit/2023/governance-opportunities-risks-regulation
沒有留言:
張貼留言