這篇是由Jerald S. Howe, Jr所寫、2024年5月22日在Thomson Reuters網站刊載的文章"10 things a GC thinks about AI and the law"。以下分享他所整理的這10件事。
今日,翻開法律出版品,很難不看到人工智慧(AI)相關的文章,因此作者以Fortune 500科技公司退休法務長的身份,來探討這個主題。以下是10個關於AI與法律的要點:
1.探索AI如何影響法律、以及反過來的影響,這比如何在法律的日常實務中使用AI,更為有趣。
2.AI不一定是對錯二分,有時候是灰色地帶。你必須選擇正確的AI引擎,正確地訓練,以獲得好的結果。AI要能與法律和諧並行,這是首先要做到的事。
3.為發揮效用,AI取決於幾個要素之結合,特別是以下幾點:i)龐大且相當乾淨的資料組;ii)先進運算;iii)進行運算的能源;iv)有意義的任務或使用案例;v)應用於這些任務或使用案例的運算,訓練並啟用AI。AI歷史上曾在這五個領域出現過瓶頸,可以預期還會有其他阻礙存在。
4.AI的快速進展,與減緩氣候變遷相矛盾。進行大AI應用程式所需的計算量,令人十分吃驚。估計ChatGPT每天所排放的溫室氣體量,相當於一個小城市這麼多。這就是全球暖化。此權衡必須在環境法規的脈絡下予以管理。
5.Oliver Wendell Holmes有一句話常被引述:「法律的生命不是邏輯,而是經驗」。英美法的傳統是以普通法(common law)為主。當政治人物呼籲進入AI搏擊場時,冷靜的人或許會建議用普通法的方式看一段時間—至少在相關案例上還沒有明確、一致的法律或監理解決方案時。
6.在普通法的傳統裡,現有的專業與產業標準通常會是法律責任的界線。若在法律或規範明顯不足時,我們應該注意道德標準,因為這是AI使用的防護欄。此標準透過先例與立法之結合,應該會隨時間演進成為更像法律的規範。
7.引發對AI的許多恐懼是不可否認的事實:AI幾乎是由大型科技公司所掌控,故涉及許多反壟斷問題。這些法律上的反壟斷問題,不應該與AI自身的法律問題混為一談或混淆。當然,兩類問題是有交錯之處,但基本上不一樣。
8.對AI偏見之合理擔憂,會令人擔心非法歧視。AI偏見可來自於一般人的偏見,有時候會無意間拿來訓練AI運算。這兩個都是有待解決的重要問題。作者認為在以下的情況裡,應該延後部署AI、或至少要非常仔細地監督(如果可能的話):i)預期會有令人不快的歧視,比如種族、性別或宗教方面的歧視;ii)基本權利蒙受威脅,比如涉及刑事審判。因此,在這些特殊案例中要安全地採取行動,就是要結合人與AI的注意。
9.AI法律中立的概念是很有用的。
10.我們常傾向認為,AI可以與人明確二分。但實際上,人與AI結合會減輕只靠某一邊的風險。法律需要對界線日益模糊做好準備。因為在可見未來,人與AI合組的團隊在廣泛的任務上,會比只有人、或只有AI的表現更好,預設這兩者是可以分離的法律制度,注定會失敗。
資料來源:https://www.thomsonreuters.com/en-us/posts/legal/gc-ai-law/
沒有留言:
張貼留言