這篇是由Asa Whillock所寫、2024年3月4日刊載於tdwi的"Generative AI Enthusiasm Versus Expertise: A Boardroom Disconnect"。觀察到董事會在AI認知方面的落差現象。以下分享一些要點。
生成式AI被視為是未來三年前五大最有影響力的事務之一。最近作者所服務的公司Alteryx做了一份針對300位董事的研究顯示:46%認為生成式AI現在對其董事會是「最最優先的事項」。
對生成式AI的興趣與策略重要性之升高,雖令人樂見,但組織應深入探討這項科技、評估潛在風險,並尋找產業指引,以便負責任地採用這個技術。不過,調查裡還有一個令人驚訝的發現,就是以上這些事恐怕不會成真。
許多受訪的董事會成員,看來極高估他們對生成式AI的瞭解,特別是美國、零售業的董事。
*28%說他們的董事會具備專家程度的知識,包括全面瞭解生成式AI的基本技術。
*39%說他們有高深的知識、廣博地瞭解生成式AI及先進的生成模型。
*20%說他們的董事會對生成式AI有中級知識。
*其餘13%說,他們的董事會目前還是新手、或完全不瞭解生成式AI。
難以置信的是,有67%受訪者相信,他們的董事會在生成式AI方面有「高深知識」或「專家」,這就是與現實之間的落差。科技專家意味的是:需要研究複雜系統達十年以上、並有多個學位或證書。如果自稱為專家,那代表這些董事是sophomores(聰明的笨蛋),即某人花很多時間到一個問題,覺得自己知道得比一般人多,但實際上距離專家還很遠。
這件事為何很重要?是因為每間受訪公司很快就要做出生成式AI方面的關鍵決定。而及早把這件事做對,未來會有指數性倍增的效應,當然,做了錯也是。
董事會不太可能在沒有諮詢內外部專家下,就做出重大決定。在仔細審視正使用AI的受訪公司,令人跌破眼鏡的有70%董事相信,董事會具備知識,可在無外部協助下就做出明智的策略決定。但觀察尚未使用AI的公司,數字就急遽改變:這些董事會成員裡有83%說,他們的知識還不足以獨立做出策略決定。
組織如何可有信心地採行生成式AI呢?以下有六個原則與問題,是可以加以考量的:
1.你與你的客戶瞭解使用AI產生的結果嗎?透明與可解釋性是評估AI成果之完整性、正確性的關鍵。
2.你有健全的機制進行人為監督嗎?平衡AI的能力與人為判斷,還是很重要。
3.你有採取積極的措施以優先重視保密與安全嗎?安全、保密及信任,是彼此交織的,而且是維持AI方案及成果完整的必要條件。
4.你如何確保AI協助使用者達成完全、準確及預期的成果?可靠性與安全對創造負責任的成果重要。
5.你如何辨識、處理及減少AI偏見?你需要持續尋求改善辨識與處理模型內偏見的能力,並在整個開發週期內訓練資料。
6.針對特定目的而使用AI,你有考慮過潛在的社會影響嗎?AI應該要能讓推進、賦能社會責任轉變。
隨公司員工大舉支持這些原則,組織就能有效地讓生成式AI民主化。當認識到廣泛存在的生成式AI知識落差,公司就能讓自己走在成功的路上。
沒有留言:
張貼留言