這篇由Mark Nasila所寫、2024年2月27日於Engineering News刊載的"Artificial Intelligence in the Boardroom: What Questions Should Boards Be Asking About AI?"。列了14個董事為可詢問的問題。現在多數董事可能對科技、AI都不熟悉,對於如何管理、監控好這個議題,作者提出的問題都值得參考。
一份對IoD成員在2022年做的調查發現:大多數董事(近80%)缺乏結構性的流程來評估其AI之使用。該調查突顯了,董事會不確定如何對實行AI提出適當的問題。董事會在AI計畫一開始設計之監督,對於未來避免可能的道德問題很重要,因為這個問題會造成商譽及財務損失。
最近研究顯示,董事會治理實務和企業內實行AI之間存在不一致現象。令人訝異的是,超過86%的公司已部署某種形式的AI,但其董事會並不具備相關知識。
值得注意的是,AI可能會擴大人為決策方面的既有落差,突顯了需要預防組織或文化內偏見延續的防衛機制。有效的AI治理架構,應作為企業基本道德價值的基礎,而董事會需要全面性的模型,引導他們在這方面的決定。
此外,對董事會重要的是:清楚瞭解組織關於AI道德使用的立場。AI必須加以審慎考量,並包含在董事會在ESG原則及CSR要求方面的議程之內,因為他們具有社會的影響力。
以下是可供思考的清單—提出一些關鍵問題,讓董事會瞭解公司在AI道德部署方面的立場。
1.在發展一個企業主導的AI策略方面,有什麼計畫?
此評估應該決定:是否需要召開以AI為主的額外策略計畫會議,以及透過策略治理下,在整合AI、董事會測試上是否需要納入新流程或人員。管理階層也應評估各種AI情境對組織、競爭者與產業之影響,同時確保董事會能瞭解、形塑及挑戰管理階層對AI的看法。
2.有什麼機會、以及如何將之轉化為財務機會?
3.AI在哪方面能創造最多、最永續的價值?
董事會需要瞭解,管理階層認為有最大潛力、相關風險之處。這個任務涉及發展一個觀點—考慮到不同的時間軸、考慮到當前的AI科技狀態及預期的進展,以及辨識出當AI持續發展時可能帶來的潛在優勢。
4.AI如何達成關鍵客戶的需求?
公司與AI相關的風險是,認為它只是一個強化生產力的工具,而不認為是能更符合客戶需求、使業務典範轉移的機會。瞭解AI可如何強化客戶經驗、客戶在AI方面的特殊需求,以及他們對於公司使用AI的期待,都很重要。
5.我們有訓練對的人嗎?
訓練措施常會走錯方向,逼著IT人員去做業務,但IT人員對業務領域所知有限,因為他們主要的專業在軟體方面。為確保能成功實行AI,更有效的方法是:優先重視訓練企業領導人及領域專家瞭解IT技能和知識,讓他們能瞭解AI科技對其各自領域的潛能。
6.你怎麼確定團隊跟上AI/ML的發展?
機器與AI科技影響其工作的人,會需要針對未來的工作機會進行訓練,但政府的計畫通常在管道、有效性上都頗有限。結果就是,必須要讓人員熟悉最新科技技能的公司,負責訓練受影響的人員。公司必須考慮對其人員的長期影響,並預測在未來所需的技能。在公司對員工進行社會協議時納入這些因素,變得很重要。
7.我們可如何重新部署新科技、並重新訓練人才?
引入新科技並不必然導致失業,而是採兩代訓練方法。藉由將重複性工作自動化,可強化生產力,並創造重新訓練員工的機會,以便投入更知識性的工作。這個組織的轉變會刺激公司創造性地思考策略資本化,並辨識出重新訓練人才可帶來競爭優勢的領域。
另外一個關鍵問題就是:組織可如何使用AI管理工作場所、創造工作機會,而非取代員工。
交出重複性任務、引入需人為判斷與經驗的新工作,AI可強化效率及決定,比如舞弊偵察。僅視AI為節省成本的公司,會有這樣的風險—把機器學習部署到錯誤的領域,使成果大打折扣,反而減少工作機會、而非使工作升級。董事會應嘗試全面瞭解管理階層對下述事項的看法:工作場所變革、強化競爭力的訓練策略,以及支持受到影響人員的社會措施。
積極討論工作的未來,包括入門工作的資格、兼職就業模式、接觸自雇者和專家,以及現有員工參與AI系統訓練,都是必要的。優先重視良好聘僱實務,並確保當前和未來員工有美好的未來,對於企業永續而言很重要,董事會可不能忽視這件事。
8.資料蒐集時可能會有什麼偏見?
在建立訓練電腦系統所參照的資料庫時,可能會有隱而未顯的偏見。這個偏見會導致有問題的結果,比如機器只選男性候選人、或把某些專業或行為連結到特定性別或種族。
在訓練AI模型及建立資料庫時若團隊多元性不足,可能會引發偏見。為減少偏見,應該讓多元化的團隊參與AI開發,確保包含各種人員及觀點。董事會應優先詢問輸入團隊的多元性,以解決這些問題。
9.我們可如何確保資料透明度並避免黑箱?
使用「深度學習」模型,會引發產品可靠性、權利、自由與治理的問題。
前瞻性的董事會,要詢問產品設計時對深度學習的應用、引介外包商,以及瞭解這些模型如何取得結論的措施。
10.公司內部可能會引發什麼樣的威脅?
11.變動中的標準將如何影響到組織在不同市場的機會?
12.組織有多脆弱,應該怎麼做?
13.組織有遵守發展中的AI規定嗎?
當我們瞭解深度學習模型如何做決定時,道德上的兩難是無法完全解決的。然而,若設計AI模型而不考慮道德和治理,會引發嚴重的商譽風險。
14.有什麼重要的全球研究是公司可以去瞭解的?
董事會準備好有效的環境審視流程,跟上最新的AI進展嗎?董事會及管理階層如何跟上AI發展,特別是國際上正在發生的?可能的方法包括了請AI專家來董事會分享、拜訪領導性科技公司,或者委託或取得最新的研究報告。
沒有留言:
張貼留言