無條件加速還是“超級對齊” 狂奔中的大模型遇治理難題
2023年年末,OpenAI內部的人事風波一度引發全球關注,背后映射出的,是商業化激進發展與安全保守之間的潛在矛盾。
復旦大學計算機科學技術學院教授張謐表示,現在對于以大模型為代表的通用人工智能,所持的觀點大致分為兩個陣營:一是有效加速主義,提倡無條件加速技術創新,快速推出使用,從而顛覆社會結構。這一派的代表就是OpenAI CEO,Sam Altman。
另外一派則是超級對齊派,他們要求AI能夠在各種環境下自發推導出符合人類價值觀的行動方針。這一派的代表被認為是OpenAI的首席科學家Ilya Sutskever。
在大模型飛速進步的當下,大模型帶來的內容安全、虛假信息、不當使用和模型失控等問題也擺在了人們面前,發展和治理之間步調的逐漸失調,AI的風險管理、全生命周期的治理成為全球的重要議題。
“科技行業應該負責任地發展AI,兼顧AI發展和風險管控。現在全球范圍內有AI競賽的氛圍,注重安全反而可能造成技術落后,為了占領先機便不得不擱置安全。”日前,在“AI發展與治理創新研討會”上,復旦大學計算機科學技術學院教授張謐表示,“各方應該立足長遠,攜手營造有序競爭,把風險控制在防護能力的上界之內,保障AI發展處于安全區域?!?span style="display:none">btO流量資訊——探索最新科技、每天知道多一點LLSUM.COM
未知隱憂
ChatGPT的火爆,讓越來越多人意識到人工智能已經迎來了全新的里程碑,并且有望作為一個至關重要的基座系統,以前所未有的速度滲透進各行各業,持續引爆未來世界的數字經濟體系。
其革命性指的就是大模型的“涌現能力”,即在大模型訓練過程中,出現了一些意外的、超乎預期的能力表現。在計算量大概在10的22次方之后,模型能力會完成從量變到質變的飛躍,呈現出驚人的爆發式增長。但大模型具體是怎樣在突破某個值后突然變得智能,對于人類來說仍然是個未解之謎。
這就使得大模型的運用充滿了多重不確定性?!澳P偷奶攸c就是它的未知遠大于它的已知?!卑⒗锇桶图瘓F研究院執行副院長袁媛表示,大模型快速發展帶來的沖擊其實不能夠全部用“風險”去概括,“風險”的前提是它可以被識別,可以被管理。
在業內專家看來,AIGC帶來的風險主要包括以下幾類。一是內容安全。相較于靠人工手動方式的傳統內容生產,AIGC可以通過交互式的方式快速生產并實現規?;?,生產成本顯著降低,一些色情、低俗、血腥恐怖、不良導向的內容也會借此大量涌出,對內容安全的防控帶來新的挑戰。
“AIGC的風險復雜度更高。因為它有更高的自由度,更加復雜和隱晦,同時它的時效性更高。”阿里巴巴人工智能治理和可持續發展研究中心首席科學家何源表示。
二是模型安全。大模型從某種意義上來說還是深度學習模型的延展,因此深度學習的模型在理論上具有的安全局限性在大模型上依然會存在。
何源表示,對抗魯棒就是其中一個例子,“可以通過算法的方式在樣本中進行肉眼不可察覺的變化,不影響人的識別,但是會讓機器識別出錯?!?span style="display:none">btO流量資訊——探索最新科技、每天知道多一點LLSUM.COM
深度網絡的優異性能和其在對抗攻擊下的脆弱似乎是同一枚硬幣的兩面,不管是ChatGPT,還是多模態大模型,他們在面對有意識的攻擊的情況下仍然會被輕易攻破。
另一個例子源于大模型對數據的依賴。
大模型的訓練離不開數據。但數據的使用存在被毒化、侵權等風險。如果在網絡上爬取到的樣本數據,已經被植入毒化樣本,就會造成大模型產生錯誤。這種情況下,用戶通過預定義的觸發詞,就會通過模型輸出特定結果。而且,一般情況下很難察覺到模型已被“毒化”。
另一方面,面對海量數據,很難確保對每一個訓練數據都有使用權限,數據的隱私問題也是一個潛在風險。“在一些垂直領域,個人數據很重要。比如在醫療數據的訓練中,不可避免地會涉及到病人的數據?!敝袊鐣茖W院大學互聯網法治研究中心執行主任劉曉春表示,如何真正做到匿名化,做到什么標準才算是匿名化等問題都還需要討論。
風險何解?
中國人工智能產業聯盟安全治理委員會專委會副主委、浙江大學教授潘恩榮認為,生成式人工智能對人類經濟社會發展觀念帶來巨大沖擊,“宜疏不宜堵”。一方面,必須克服各種恐懼和臆想,克制“堵”的沖動;另一方面,要在實踐中小步快跑地迭代出各種“疏”的方式。
畢竟從落地的角度來看,風險問題沒得到解決,大模型的應用終究無法走向更深層。
“上一波的人工智能產業化發展浪潮,典型的應用是人臉識別,但是人臉識別即使發展到今天,大家對于它的準確率、安全性還是存在很多擔心,沒有辦法進入到嚴肅場景應用?!比鹑R科技CEO田天表示。
他認為,這還未到達倫理、價值層面,就模型自身安全性而言,還有很大提升空間。眼下,從業者們更希望從安全的角度提升大模型以及各類AI系統的性能,能夠讓大模型在更多領域實現落地,發揮更大的價值和作用。
在安全治理中,大模型的安全評測是必不可少的,而且是很關鍵的一環。張謐認為,無論在整個訓練過程還是部署的前后都要持續監測,并且評測每個環節,還要實時向監管機構、社會、公眾發布。
“大模型的風險用小模型去識別和處理是不夠的,我們需要用大模型來評測大模型,我們通過大模型生成內容安全風險的指令,看看目標模型的產出,構造一個閉環?!焙卧幢硎?。
除了評測之外,安全對齊也是安全治理的一個重要的方法。
張謐表示,在訓練最初始的階段是人類完全監督,人工給出每個問題的回答,這樣的泛化性比較差。此后,OpenAI引出了大型語言模型生成領域的新訓練范式RLHF(基于人類反饋的強化學習方式),明顯提高了泛化性。
從大模型的道德和價值觀養成角度,商湯智能產業研究院創始院長田豐表示,要通過訓練把具有負面價值觀的數據標識出來;其次,在模型運行的過程中,快速對它做一些正向價值觀的調優;再次,當用戶使用時,能夠去識別惡意的問題和答案,屏蔽那些可能有違價值觀的信息。
整體來看,張謐對AI大模型未來的安全前景持樂觀態度,她援引前沿觀點指出,隨著評測、治理技術的成熟以及治理體系的完善,人類提供一整套安全規則,AI就能根據規則實現“用模型監督模型”;更長遠看,AI大模型有可能自主對齊人類價值觀、主動向善發展。
多方共治
“在風險識別和風險防控和風險管理之間,我們一直覺得有一個緩沖區,在這個緩沖區當中我們面對的是一個共同的未知,我們要承認沒有一個先知可以把將來的變化和挑戰全部總結出來。”袁媛表示,她認為在這個問題上應是多方的合作共治。
2023年11月,首屆全球人工智能安全峰會在英國舉行,包括中國在內超過25個國家的政府代表和科技界人士參加,并簽署了《布萊切利宣言》,同意通過國際合作,建立人工智能監管方法。
該宣言表示,人工智能帶來巨大機遇,但同時也帶來重大潛在風險。對于前沿人工智能技術有意識濫用或者無意識控制方面的問題,可能會引發巨大風險,尤其是在網絡安全、生物技術和加劇傳播虛假信息等方面。與會國家和地區同意協力打造一個“具有國際包容性”的前沿人工智能安全科學研究網絡,以對尚未完全了解的人工智能風險和能力加深理解。
在政策方面,我國于2023年6月發布的《2023年度立法工作計劃》已將人工智能法草案納入其中;7月,我國公布了《生成式人工智能服務管理暫行辦法》,這是我國首份針對生成式人工智能的規范性監管文件,旨在促進生成式人工智能健康發展和規范應用。
2023年12月,歐洲議會、歐盟委員會和27個成員國的談判代表就歐盟《人工智能法案》達成協議。該法案規定了對人工智能領域的全面監管,最早將于2024年初生效并于2026年實施。
中國科學院信息工程研究所技術副總師韓冀中認為,這其中一些關鍵的思想值得關注,一是風險分類,二是價值鏈責任。
歐盟的《人工智能法案》確立了“基于風險”的人工智能治理框架,將人工智能系統評估后劃分為最小風險、有限風險、高風險和不可接受風險四個等級,并對各個等級采取差異化的監管方式,如針對高風險人工智能系統采取嚴格的風險管控措施;針對有限風險人工智能系統僅規定透明度要求。
在人工智能價值鏈責任分配上,法案中提到,任何分發者、進口者、部署者或其他第三方應被視為高風險人工智能系統的提供者,需要履行相應的義務?!帮L險要在每一個階段進行控制,從模型的生產、運行、服務,到最后的傳播,每一個鏈上都有它的價值,都有它的風險?!表n冀中表示。
值得注意的是,無論是風險治理的措施,還是相關法律法規的建設,都需要與大模型的發展之間形成平衡。
“在模型飛速發展的時候,我們不能去預設,先把這輛車捆住,但我們也必須認識到它急促發展的可能性,要考慮的不僅是司機、乘客,還有道路上的行人?!痹卤扔鞯溃拔覀儽举|上要做這樣一件事:保證大模型保持它應有的發展速度,同時通過多方努力,把下面這條治理的紅線抬上去。”
(作者:董靜怡,實習生閆碩)
本文鏈接:無條件加速還是“超級對齊” 狂奔中的大模型遇治理難題http://m.lensthegame.com/show-2-2268-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。