搜尋此網誌

Translate

2024年6月30日 星期日

朝AI治理挺進:(1)飽受注目的AI揭露與治理—2024年委託投票季;(2)IoD警告,要改革人工智慧之採用,否則會擴大「公司的不平等」-2024/06/30

(1)飽受注目的AI揭露與治理—2024年委託投票季

這篇是由David A. Katz與Laura A. McIntosh合寫的"AI Disclosure and Governance in the Spotlight",2024年5月22日在刊出。裡面剖析了最近股東會提案裡AI的狀態,看來還要再觀察一陣子。

2024年委託投票季顯示了,人工智慧(AI)相關揭露與治理結構,現在是股東很有興趣的主題。許多產業的公司都收到了股東的提案,某些甚至有高度支持,而監理機關正在注意。最近美國SEC官員的聲明指出:監理機關會仔細監控AI相關公司揭露之擴大,確保發行公司的公開聲明有符合相關法規,而不會誤導投資人。

投資人關於AI揭露和治理導向的提案,在未來的投票季可能會獲得動力。儘管現在美國公司使用AI狀況有驚人速度的激增,但現實是:對此「新」主題仍採用「老」標準與實務作法,來治理其揭露與治理。

有些AI相關的股東提案在最近的委託投票季上,鎖定了公司的揭露,想要公司對AI之部署和風險管理提供更多資訊。American Federation of Labor and Congress of Industrial Organizations (AFL-CIO)提案要求多家公司(包括蘋果)有更多的「透明報告」。AFL-CIO的提案要求蘋果要公開報告「公司在企業營運中怎麼使用AI的,並揭露公司在使用AI科技上所採行的全部道德綱領。」

蘋果反對此案的理由是:已經對AI之監督提供了透明度,且提案要求揭露之範圍太廣,可能會傷害蘋果的競爭定位,而提出單獨的AI報告,在仍變動中的監理環境下為時尚早。

AFL-CIO的提案以5:3的票數遭否決。

投資公司Arjuna Capital也向幾家公司提案。比如向微軟提出股東議案,要求年報要「評估公司營運與財務之風險,還有公司在透過AI改進虛假或錯誤訊息散播及產生之角色上,為公眾利益所帶來之風險,另外,若真有這些風險,公司會計畫要採取什麼措施補救這些傷害,以及這些措施之有效性。」

與蘋果一樣,微軟表示公司有持續進行風險管理與報告,故建議對該提案投反對票,並說其提議的報告是不需要的。

在一些案例上,AI相關的揭露提案獲得20%至30%之間的支持率。在少數案例裡,當公司同意提供更多資訊後,就會撤案。

Glass Lewis與Institutional Shareholder Services (ISS)典型上會建議投票支持強化揭露的案例,不管是否涉及AI,在本季普遍如此。然而,Glass Lewis與ISS建議投票反對Arjuna Capital對微軟的提案,原因是微軟的AI揭露和風險管理已經足夠。

當AI是新且快速發展的領域,不具相關專業的投資人,會高度仰賴委託投票顧問機構的建議。許多大型機構投資人會依循這些機構對AI相關提案之建議,但不是完全如此。

其他本季的AI相關的股東提案,還有處理公司治理的。AFL-CIO對亞馬遜公司的提案,呼籲要對AI設一個由獨立董事組成的新委員會,「以處理與發展、部署AI系統相關的人權風險。」

亞馬遜反對此提案,並表示在很多狀況下AI相關風險已由負責風險的功能性委員會進行監督,他們還指出,「同業也沒有設立專屬的委員會,來處理AI引發的風險。」

股票基金Trillium與其他投資人一起對Alphabet提了一個案子,主張公司沒有「成功落實其在2018年所提出的AI原則」,並依此要求董事會修訂審計與遵循委員會之章程,以更清楚說明委員會在監督Alphabet人工智慧方活動的責任,還有完全落實其AI原則。」

Alphabet對此回應是,他們在落實其AI原則上夠透明,並會在委員會及董事會層級將AI監督整合到企業風險管理。Alphabet沒有特別表示是否「成功落實AI原則」;但確實認為,「沒有必要在審計委員會章程內特別提AI,因為在其章程內本就規定著更廣泛的風險評估領域。」

這些治理提案呈現的一個共同的主題:若真執行了,會對某些董事產生效應,比如新AI委員會之成員、審計委員會之成員,或這些委員會之主席—整體或個別地為AI監督失利負責。這會讓股東在行動主義倡議時、或可能在訴訟時鎖定這些董事。

擔心這個情況的董事會或許希望考慮此因素,以判斷是否要對AI監督進行特別授權、還是廣泛地將分配。然而,這有很多因素要考量,對董事會而言最有效的治理結構,或許需要創設一個AI或科技委員會、或讓現有委員會特別負責AI監督責任。每個董事會都必須決定:AI問題最佳的監督結構為何,以及重要的是,確保能達成其監督責任,並認識到當前的環境是密集審查和快速變化的。

有報告指出,有40%的S&P公司會在最新的年報中提AI,而SEC的主席Gary Gensler最近強調,AI相關揭露不會適用不同的揭露或法律責任標準:「就算SEC所監管公司的增加AI揭露,法律基礎還是一樣。」換言之「關於展望之主張應該要有合理基礎,...當揭露AI的重大風險時,投資人會因公司的具體揭露而獲益,而非樣版式的語言。」

生成式AI在最近幾年爆炸性成長,也開啟了公司揭露的新領域。業務營運、風險要素、人權問題、策略規劃、內部政策、公司治理、財務預測資訊—全部都會受到AI發展影響。然而,公司可以有信心的是:揭露和治理的基礎仍然一樣。

AI揭露與AI相關治理之最佳實務,在現在、在可見的未來,與非AI相關的揭露與治理並無二異。同樣的,董事會對AI風險之監督義務,也與其他所有重大風險之監督義務無異,必須從每個公司的狀況著手。在對AI揭露與治理做決定時記住這個基本面,會讓公司與董事會清楚看到根本問題,而不會被五花八門的事情牽走。

資料來源:https://www.law.com/newyorklawjournal/2024/05/22/ai-disclosure-and-governance-in-the-spotlight/?utm_source=dlvr.it&utm_medium=twitter


(2)IoD警告,要改革人工智慧之採用,否則會擴大「公司的不平等」

City A.M.在2024年 5月 24日報導,英國董事協會(Institute of Directors,IoD)在5月24日表示,下一屆政府需要引入一系列的改革,以協助確保成功採用人工智慧(AI)。

在一份與倫敦商學院(London Business School)一起發表的新報告裡,IoD警告,採用生成式AI可能會「擴大公司不平等,而傾向於市場整合的產業會看到最大的轉變。」

報告說,「雖然某些公司預期會從這些科技獲得顯著效益,但對市場結構和競爭動態的整體衝擊,預計會是不均等的。」

因此IoD呼籲監理機關與政策制定者要發展一個架構,以確保AI效益有被廣泛地分配。

IoD主張,政府應該「強化智慧財產權和資料保密的法律架構」,同時針對在採用上面對阻礙之產業提供支持。

IoD也呼籲政府,要對後生成式AI世界「重新設計」教育系統,以協助勞工新需求之準備。這代表要審視職業和專業訓練、以及持續教育的優先事項。

IoD也建議監理機關,需要考慮推動資料分享的政策,特別是會引發廣泛社會效益的部分。

IoD的科學、創新與科技專家諮詢小組(Science, Innovation and Technology Expert Advisory Group)主席Faisal Khan說:「這將會確保企業界完全實現此轉型科技的潛能及效益,並促進成長。」

今年初,英國政府公佈了AI監管的策略,承諾要投入超過1億英鎊建立研究中心和強化監理機關,以面對此新科技。

政府正試圖對AI監管採取「敏捷」的方法,並在保護隱私和促進創新之間取得良好平衡。

工黨尚未公佈其自身的AI策略,但是影子科學與科技大臣Peter Kyle最近說,會在未來幾週公佈。

Kyle已表示,工黨政府會要求AI公司分享其科技測試的結果,並取代在AI安全高峰會(AI Safety Summit)上所簽署的現行自願性協議。

資料來源:https://www.cityam.com/reform-ai-adoption-or-it-could-widen-corporate-inequalities-iod-warns/


沒有留言:

張貼留言

前100份CSRD報告得到的見解-2025/06/19

這篇是PwC在2025年3月28日刊出的"Insights from the first 100 CSRD reports"。以下分享他們的觀察結果。 期待已久的公司報導正要到來。今年已經有超過250家公司公佈了他們按CSRD編製的永續報告。 作者審視了前10...

網誌存檔