(1)行動主義者正施壓大型科技公司,要對AI透明
2024年8月16日有這一則在Raconteur網站上報導"How activist investors are pressing big tech for transparency on AI"。可以看出最近的一些股東趨勢。
去年有將近20個股東會議案,主要是針對公司AI使用而來,包括Alphabet (Google)、Amazon、Apple、Microsoft與Meta。簽署者都想要提高關於科技如何運用的透明度,以及揭露治理其使用的道德指導方針。
根據財務與治理專家,雖然這些議案偏向於投資界裡較有社會意識的成員,但是關於AI使用之影響,反映了更廣泛的股東情緒。
Glass Lewis的ESG研究資深總監Courteney Keatinge總結這個狀況是:「只是投資人想更瞭解—公司如何使用AI,以及公司如何更佳地溝通他們的使用。」
這件事說的比做的容易。公司似乎沒有熱忱達成投資人的要求—自願擴大已經揭露的事項。但是,有鑑於要求大科技公司在這方面更開放的社會壓力升高,故有可能要正式報導AI方面的活動。
不過,對某些人而言這恐怕還不夠,比如美國工會聯盟AFL-CIO。AFL-CIO採用股東行動主義的方法確認AI之擴張。他們提出了超過六個關於揭露與道德指導方針提案,針對像Netflix、Walt Disney與Warner Bros Discovery。
在對Arjuna Capital提案的正式回應裡,Microsoft表示他們已有適當政策與實務作法,來管理此類風險。在其他的揭露方面,他們指出預計會在第三季末提出一份關於AI治理的新年度報告,其根據的是2023年七月在白宮主要開發商會議上所做出的承諾。
其回應廣泛反映了,其他公司也有收到AI相關提案。一般的回應是,已經有適當的保護機制確保AI安全,並遵守這方面最近的政府措施。
迄今已有兩個AI提案交付股東會投票表決。AFL-CIO呼籲Apple要道德揭露一案,獲37.5%的投資人支持。微軟則有21.2%股東支持Arjuna Capital的AI假訊息提案。
僅管這兩案最後未獲得多數股東同意,但追蹤ESG議案的非營利組織Sustainable Investments Institute的執行總監Heidi Welsh說,她受到此結果之鼓舞(特別是Apple的投票),因為這是一個很新的議題。
大型、傳統的資產管理公司也在注意此議題。EY在二月發佈的、一份對機構投資人治理專家所做的調查顯示:今年已看到負責任AI在「議合」方面之優先性,有19%受訪者如此表示。
去年ISS-Corporate所公布的研究顯示,到2023年九月時,S&P 500僅15%會在委託投票說明書中提供關於董事會如何監督AI的資訊。
今年有兩個針對Alphabet與Amazon的股東提案,旨在提高此一比率。一個是社會責任投資人Trillium Management呼籲Alphabet要正式授權其審計與遵循委員會,以監督公司的AI活動、達成其AI原則。另外一個是AFL-CIO呼籲Amazon董事會要設立新的委員會,來處理AI系統對人權所造成的已知風險。
非營利組織International Corporate Governance Network的全球政策總監Séverine Neervoort說,雖然對於公司財務報導裡的AI部分,還沒有明確的指導方針或揭露要求,但是當科技對公司越來越重要時,狀況就會改變。
她預測,「我們會看到監理審查、揭露標準與要求很可能會隨時間而升高。」
Keatinge說,最近關於美國SEC所提出的網路風險之揭露規定,顯示了不久的將來會要求AI報導。他預期未來監理機關的方法會「自然延伸」到網路安全問題上。
然而,她認為,SEC對AI相關揭露的新規定,可能還要一段時間,因為監理流程本身可不容易做。
資料來源:https://www.raconteur.net/technology/activist-investors-transparency-ai
(2)挪威財富基金說,公司的董事會需要更多AI能力
這是2024年8月16日在Reuters上報導的新聞。
世界上最大投資人之一、掌管1.7兆美元的挪威主權基金,其最高主管向Reuters說:公司董事會層級在掌握AI上需要做得更多,以治理AI之使用、把風險降到最低。
Norges Bank Investment Fund在全球持有近9000家公司的股票、相當於所有上市公司股票的1.5%。
在去年八月,他們向投資的公司提出指引,呼籲要投入AI作為產生獲利的方式,但是也要負責。
該基金的治理與遵循長Carine Smith Ihenacho說,在一年後,一般來說公司是有做得更多。她在本週的訪談中說:「整體來看,在董事會方面的能力建立,還需要多做一些。」
「這不是說我們需要AI專家...需要的是整個董事會都懂:AI是如何使用的...在董事會要有政策,以及AI有被負責任地使用。」
她還說,「他們應該要知道『我們對AI的政策為何』?我們屬於高風險還是低風險?AI在哪裡會接觸到客戶?我們對此透明嗎?這些都是應該要能回答的大問題。」
她沒有特別指那個公司,但是該基金在2023年的責任投資報告裡說,有向60家其投資組合裡最大公司的董事會,分享AI他們的看法。
這些對話裡,Smith Ihenacho 說基金有施壓科技公司需具備適當的制度,瞭解AI產品帶來的風險。
她說,「我們花更多時間在治理結構。董事會有參與嗎?你有適當的AI政策嗎?」
Smith Ihenacho說,雖然基金不是要鼓勵不使用AI,但是公司必須發展負責任的技術。
(3)治理落差挑戰著AI整合與永續需求
這篇是2024年8月21日在The Pinnacle Gazette刊載的"Governance Gaps Challenge AI Integration And Cybersecurity Demand"。
有1.7兆美元資產的挪威主權基金強調,公司今日站在巨大的壓力和謹慎交叉點,特別是在人工智慧(AI)及網路安全方面。董事會層級有技能治理之需求,比過去更大。
該基金的治理和遵循長Carine Smith Ihenacho強調:董事會需要瞭解AI的應用與風險。她說,這不僅是聘一個AI專家而已,還有讓整個董事會成員都瞭解AI如何影響其組織。
該聲明反映了企業瞭解AI是越來越迫切了,特別是當科技快速轉變與發展。這件事是關於發展健全的策略以負責地管理AI風險,不只確保公司的效益、還有消費者的。
同時,Ihenacho表示越來越擔心—AI如何使用,特別是需要大科技公司發展其AI基礎產品的透明度。而挪威主權基金正與主要受投資公司議合,瞭解他們關於AI的治理結構,以確保準備好處理潛在風險。
專家同意,AI的快速演變需要對其能力進行持續、積極的管理。Ihenacho打趣說,「我們的AI政策是什麼?我們是高風險還是低風險?AI在哪會遇到AI?這些問題都代表著,在面對AI帶來的道德和營運挑戰時,所需要處理的公司治理關鍵面向。」
藉此,企業可學習將AI與網路安全納入其策略架構。包括評估如何有效利用這些科技來競爭、創新及保護數位資產。
監理方面的注意,也在加強企業對AI之使用,隨標準改變,治理結構可能會調整。骨牌效應突顯了,公司不只需要強化其董事會在遵循上的能力,還有維持競爭力。
隨著持續進步及複雜性的升高,毫無疑問地公司必須優先重視學習和適應。對於在戰略上能掌控這一個領域的人而言,未來充滿希望,因為他們重新定義了安全和創新。
對企業而言,明智投資營運及治理,才是釋放潛能的關鍵。這些技術之演進會伴隨著要明智管理其敘事為主影響之責任。
從挪威到矽谷關於AI與網路安全之對話持續發展,目的地是永續發展和道德進步。
資料來源:https://evrimagaci.org/tpg/governance-gaps-challenge-ai-integration-and-cybersecurity-demand-34473
沒有留言:
張貼留言