監管AI,歐盟出手,美國掉隊?
上個世紀,科幻小說家艾薩克?阿西莫夫提出了“機器人三定律”,帶來了對“機器人”與“規則”的美好幻想。
如今,伴隨著ChatGPT、Sora的爆火,人工智能(AI)領域的激烈競爭,對該領域的監管也被正式提上日程。
當地時間3月13日,歐洲議會正式投票通過并批準歐盟《人工智能法案》,嚴格禁止“對人類安全造成不可接受風險的AI系統”。這標志著歐盟掃清了立法監管AI的最后障礙。
另據美國有線電視新聞網(CNN)3月12日報道,美國國務院委托第三方機構進行的一份新調查報告稱,快速發展的AI或對人類構成“毀滅級”風險。該報告還警告說,美國政府避免災難的時間已經不多了,必須進行干預。
監管前沿
事實上,歐盟一直走在技術監管的最前沿。
早在2019年4月,歐盟委員會就發布了一份AI道德準則,提出了“值得信賴”的AI應當滿足的7個條件。
2020年12月15日,歐盟委員會向歐洲議會和歐盟理事會提交了《數字市場法案》,2024年3月8日,這一法案正式落地生效。而與該法案一起提交的,作為“塑造歐洲數字未來”一部分的《數字服務法案》也已于2月17日正式在全部網絡平臺生效。
據悉,《數字市場法案》更注重于結束科技巨頭壟斷行為,《數字服務法案》更聚焦用戶的隱私等基本權利,希望敦促企業有節制、有方法地投放廣告等內容。
而本次通過的《人工智能法案》旨在全面規范AI,確保AI的使用不會侵犯人的基本權利,防止AI濫用和風險。該法案于2021年4月由歐盟委員會提出,預計將在今年5月生效。
該法案的核心特征是對AI應用進行風險級別的分類,分為“不可接受”風險、高風險、中風險和低風險,被認為存在“不可接受”風險的技術會被完全禁止,法規會根據不同風險等級的AI應用制定針對性標準。
爭議頗多
和歐盟其他許多法規一樣,在獲得高票通過的同時,《人工智能法案》也引發了頗多擔憂。
一方面,有些公司擔心這項法案可能過于嚴格,限制了技術創新和商業發展;另一方面,一些立法者認為該法案還不足以全面應對人工智能帶來的挑戰和風險。
在去年談判進入最后階段時,法國和德國政府就認為AI監管規則過嚴,會傷害歐洲的初創企業。而德國和法國正是歐洲一些最有前途的人工智能初創公司所在地,包括Aleph Alpha、DeepL和Mistral AI。
與微軟進行合作的法國企業Mistral AI認為,“相較于在較少限制性監管框架下運作的美國大型科技公司,該法案過于嚴格的規定可能限制歐盟AI領域的競爭能力。”
Meta公司也警告不要采取任何可能扼殺創新的措施。Meta歐盟事務主管Marco Pancini表示,“最重要的是,我們不要忽視人工智能在促進歐洲創新和促進競爭方面的巨大潛力,而開放是關鍵。”
有分析指出,如果歐盟的規定過于嚴格,可能會促使歐盟內部的AI企業尋求與歐盟監管體系之外的公司合作,以規避這些限制,這可能削弱歐盟立法的初衷和目標。
歐洲科技行業組織Digital Europe總干事塞西莉亞?博內菲爾德-達爾(Cecilia Bonefeld-Dahl)此前表示,“我們將為該法案付出代價,這意味著我們需要投入更多來研究對抗人工智能使用風險的方法。新的監管規則將要求公司投入大量資源來遵守,把資源花在律師身上,而不是雇傭人工智能工程師?!?span style="display:none">DBE流量資訊——探索最新科技、每天知道多一點LLSUM.COM
這或許不是危言聳聽。
德國政府前顧問、波士頓咨詢公司合伙人魯爾夫(Kirsten Rulf)表示,已有超過300家企業向她的公司咨詢了該法案的相關情況?!捌髽I需要并希望獲得法律上的確定性”。
在本月歐盟《數字市場法案》正式落地生效前夕,歐盟以蘋果公司濫用市場主導地位為由,對其處以18億歐元的巨額罰款。蘋果公司隨后表示,將對歐盟的這一決定提起上訴,這將引發一場可能持續數年的法律斗爭。而這一情況或將在未來成為常態。
在人工智能的世界里,一眨眼就是瞬息萬變。在歐洲議會議員圖多拉切看來,該法案立法后如何實施將成為最大的障礙。
Harbottle&Lewis律師事務所合伙人艾瑪?懷特(Emma Wright)指出,“考慮到技術變革的步伐,未來可能會出現的復雜情況是,《人工智能法案》很快就會過時,特別是考慮到部分條款將分階段實施的情況?!?span style="display:none">DBE流量資訊——探索最新科技、每天知道多一點LLSUM.COM
此外,關于禁止面部識別技術的可能性,以及配套的人工智能辦公室亦是爭論的焦點。
據了解,新成立的人工智能辦公室的員工總數將達到98人,啟動預算將為4650萬歐元。但關于人員聘用、預算分配仍未有切實計劃出臺。
美國掉隊?
在擁有多家強大人工智能公司的美國,情況更為復雜。
2022年年底,微軟支持的OpenAI推出ChatGPT,這一人工智能應用能在幾秒內撰寫論文、進行翻譯等,展示出了AI科技的巨大潛力,隨即引發了一場世界范圍內的AI“軍備競賽”。年初推出的Sora更是讓許多科技大佬感慨“差距明顯”。
但在AI產業繁榮的背后,美國對該產業的監管卻顯得有些力不從心。
美國有線電視新聞網(CNN)3月12日報道,美國國務院委托第三方機構進行的一份新調查報告稱,快速發展的AI或對人類構成“毀滅級”風險。
報告將AI發展給全球安全帶來的風險與核武器相比,稱未來AI發展存在“軍備競賽”、沖突和“大規模殺傷性武器致命事故”的風險。報告呼吁成立一個新的AI機構,實施緊急監管,并限制用于訓練AI模型的計算機能力等。
美國其實早已意識到了這一點。盡管美國總統拜登已于去年10月發布行政命令,要求聯邦機構起草AI技術使用標準,以監控人工智能風險、保護工人,促進半導體領域的競爭,但美國政府,尤其是美國國會至今未能就有約束力的AI監管達成一致,反而在半導體領域頻頻找茬。
去年9月,美國國會舉行了至少三場與AI立法有關的討論,出席討論的科技界大佬包括谷歌、微軟、Meta、OpenAI等AI技術公司的CEO。國會參議院多數黨領袖查克?舒默在會后對記者說,他在會上提出“政府是否應該在監管人工智能中發揮作用”的問題,“所有人都舉手(表示同意),雖然他們的觀點不盡相同”。
從某種程度上來說,這些科技企業可能更希望將“標準”掌握在自己手中。
以谷歌為例,該公司公開反對建立專門監管AI的政府機構。據CNBC報道,谷歌公司去年6月在一封回復給美國國家標準技術研究所(NIST)的信函中說,谷歌支持分散式的監管方式,以“多層次、多利益相關者的方法”治理人工智能。
更多的監管則依賴于科技公司的“自覺”。今年年初,谷歌公司DeepMind機器人團隊公布了三項新進展,其中一項就是收集訓練數據的“機器人憲法”系統――AutoRT。該系統可一次性安全指揮20個機器人,谷歌為其設置了安全護欄,指示大語言模型避免選擇涉及人類、動物、尖銳物體甚至電器的任務。
社會層面來看,紐約大學媒體技術教授紐曼提倡對AI監管采取一種“下游模式”。他認為,“如果技術被用于非法目的,已經有了成文的法律懲罰肇事者和犯罪者。沒有理由因為使用了不同的工具犯罪就去再寫一部法律?!鳖愃频南敕ㄔ诿绹辉谏贁?。
作者:王哲希
本文鏈接:監管AI,歐盟出手,美國掉隊?http://m.lensthegame.com/show-2-3985-0.html
聲明:本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 凌晨重磅!英偉達官宣最強AI芯片