這一篇"Every C-Suite Member Is Now a Chief AI Officer",是由Paul O’Rourke, Brett Thorson, Colin Troha與Chris White合寫、2024年1月10日刊載於BCG網站的文章。可讓我們瞭解現在長字輩主管怎麼應對AI,以下分享一些重點。
高階經理人對生成式人工智慧(AI)的潛能看法仍然分歧。BCG(Boston Consulting Group)的2023 Digital Acceleration Index (DAI)對2000名全球經理人的調查發現:超過一半不鼓勵採用生成式AI。但同時也還在討論生成式AI的潛力與危險。大多數公司都需要對生成式AI擬訂計畫,因為它對日常營運更為普遍、影響力更大。這代表了,所有長字輩主管都需要攀上生成式AI的學習曲線。
除了跟上進度以外,負責任的長字輩主管應該要做什麼呢?當提及AI風險,執行長、營運長或資訊長等的責任究竟是什麼?
AI(尤其是生成式AI)會擴大公司對科技風險之暴露,並擴大數位系統以外可能被攻擊的介面。生成式AI強大的力量,源自於任何人都可以使用的容易性,它可快速組織起沒有結構的資料,並產生一些見解。
生成式AI存在、或凸顯了以下五類的重大營運風險:
*安全:有偏見或不正確的AI決定
*資料流失:私人或機密資訊的盜取、洩漏或誤導
*營運失靈:不正確的方案或沒有韌性的系統
*名譽損害:營運失靈、安全問題、資料流失及破壞顧客信任
*監理:違反隱私或未守法
此外,生成式AI會強化罪犯的能力及生產力,就像生成式AI對公司的一樣。詐欺、勒索、社交工程攻擊(比如網路釣魚)都是很常見的威脅。現在它們變成自動化的,以公司用來改善流程同樣的運算法來強化這些犯罪行為的品質與精準度。公司資料、機密、完整與隱私都是被鎖定的標靶。
公司也需要確保生成式AI模型之建立、購買及落實受到適當的防衛,以確保資料保護、保密及負責任的使用。它們必須符合三個原則:
1)針對重大使用案例,有量身訂做整個企業的安全與隱私能力
2)模型安全及確保應用程式的設計。開發中的模型需要保障AI在特定漏洞上的安全,比如在運算法供應鏈及訓練資料的完整。同時,所有生成式AI的應用程式開發團隊,都應該遵守標準化的DevSecOps流程,並將AI安全措施整合到整個應用程式開發流程裡
3)確保公司瞭解其供應商和伙伴的生成式AI安全實務,要求他們有充足的健全度
這些優先原則適用於各組織。要達到這些原則,就需要清楚的責任,並從長字輩主管開始。
執行長
執行長需要對生成式AI有基本的瞭解,特別是關於安全與隱私風險,因為他們要讓所有長字輩主管以整體組織可衡量的有效性,為落實安全與隱私流程負起責任。他們必須有信心:所有決定都能在風險與經營效益之間達成正確的平衡。一個關鍵要求就是:為安全及隱私建立正式的生成式AI營運模式,包括第三方供應商與平台供應者。
執行長的工作就是確保:公司能讓生成式AI方案發揮完全的企業價值,同時又維持顧客信任及高標準的負責任使用。
執行長要確保產品、法律、安全團隊在生成式AI部署的所有階段都攜手合作,包括獲取、建立及落實生成式AI模型。若在目標或激勵上有不一致或衝突,則執行長就要讓各部門與營業單位協調一致。多個重要的利害關係人都會注意這件事,包括董事會、股東、競爭者、監理機關與顧客。
營運長
營運長的主要責任就是確保生成式AI使用案例符合企業目標、以充滿韌性的方式落實。營運長會為企業營運建立生成式AI目標,確保有可衡量的安全與隱私流程。他們會監督所期待的營運結構與能力之發展,以支持生成式AI所支持的營運。
營運長高度仰賴企業的安全能力,以預防惡意舉動、避免營運中斷。因為生成式AI越來越會納入公司營運之內,故營運長必須確保組織能夠排除故障,並解決生成式AI流程中的中斷問題。
風險長與資安長
這兩個經理人是直接負責生成式AI對組織的風險控制。在彼此聯手下,他們會辨明威脅並實施適當的控制以減少危害,同時又促進創新。此外,風險長及資安長會管理組織的風險胃納,並建議其他長字輩主管在生成式AI價值及其衍生風險之間,取得平衡。
風險長與資安長的重大安全與隱私優先事項清單很長,包括:
*以明確的風險容忍程度,建立安全策略
*(與營運長一起)建立可衡量的標準,根據潛在價值及風險來評估生成式AI的使用案例
*確保他們具備適當的技能足以辨識、管理、裡與報導生成式AI的風險和控制
*確保當前的資料治理和來源指導方針是健全的,並納入當前的生成式AI開發流程
*確保設計安全標準有更新,並適用到用來建立自訂生成式AI應用程式的機器學習運作流程
*確保遵守資料治理及來源指導方針,還有法律及監理要求
*投入資源及資金來發展生成式AI安全的能力
*評估納入網路安全方案的生成式AI,如何可協助組織偵測攻擊、保護資料及留住企業價值
*貫徹強大的供應商管理程序,包括審視新的生成式AI供應商
*當生成式AI有安全或監理違規問題時,確保有明確、適當的事故因應機制
*更新學習與發展計畫以及組織內的人才,以考慮管理生成式AI網路安全及隱私風險所需的技能組合。
資訊、科技與資料長
負責任的經理人必須以合理的成本價值比率,確保生產、科技及網路安全團隊都有所需的科技基礎設施、系統、應用程式與資料。這是一個微妙的平衡:落實不當的話,可能會阻礙創新並讓組織有停滯的風險。
資訊長、科技長、資料長也都積極參與制定發展和實驗的環境,並為新的生成式AI產品或服務如何使用,建立指導方針。他們會製作生成式AI技術的清單,並向員工溝通此新科技之使用(對企業使用者與開發人員)。他們必須與風險、法務、資訊安全部門緊密合作。
法務長與隱私長
法務與隱私主管要確保生成式AI之使用符合公司標準與隱私方面的規定,且安全實務達到法律和監理要求。他們負責資料的來源、取得與治理,還有生成式AI流程之治理,以確保在不阻礙探索下遵守相關規定。對於生成式AI產品與系統使用上的新法規,他們需要保持瞭解,並將之轉化為實務標準與程序。落實、持續監控以及報導機制,都是確保有遵守相關標準及程序的優先事項。
產品長
創新必須符合其目的。產品長就是確保生成式AI之使用能為產品、服務或流程帶來價值(比如對提出新的顧客主張、或降低成本)。產品長要確保:每個生產團隊裡都有落實負責任的AI及設計安全實務,並提供相關資源。建立指標與關鍵績效指標來衡量生成式AI產品之價值、影響、安全及負責任地部署,這是很重要的。
行銷長
行銷長要確保:用生成式AI做的行銷材料(不管是內部或外部機構、或委託者的),都是「乾淨的」,在圖像、影像或其他材料上沒有著作權爭議。誤用、或未經授權的使用風險非常大,因為每個人都可以使用生成式AI來產出行銷或溝通內容,但未必會確認資料來源或所有權人。
財務長
由於生成式AI系統需要大量的運算及資料來源,因此使用它的團隊需要瞭解成本以及如何配置。在生成式AI開發或取得的過程中,預算很快就會成為關鍵的部分。財務長要請資安長就因應新生成式AI局勢而需增強的能力,提供投資業務案例。一旦實現了生成式AI價值(不管透過減少成本或增加新的營收來源),財務長都必須準備詢問,資金應該投向哪處?
人資長
治理AI使用的訓練與人事政策,對所有要採用生成式AI的組織而言,都很重要。這要由人資與開發者、資訊科技以及安全部門一起落實這些政策,並對生成式AI方案使用的提供適當訓練。
資料來源:https://www.bcg.com/publications/2024/every-c-suite-member-now-chief-ai-officer
沒有留言:
張貼留言