人工智能初創企業OpenAI的董事會將有權否決公司CEO推出新版本模型的決定。
當地時間12月18日,OpenAI在官方網站發布了一份名為“準備框架(Preparedness Framework)”的安全指南,規定了“跟蹤、評估、預測和防范日益強大的模型帶來的災難性風險的流程”。
OpenAI解釋說,對前沿人工智能風險的研究,遠遠沒有達到需求。為了解決這一差距并使安全思維系統化,OpenAI正在采用“準備框架”的測試版本。
OpenAI“準備框架”測試版本文件截圖,來自官網
OpenAI在新聞稿中宣布,“準備(Preparedness)團隊”將致力于確保前沿人工智能模型的安全。“準備團隊”將持續評估人工智能系統,以了解其在四個不同風險類別中的表現,包括潛在的網絡安全問題、化學威脅、核威脅和生物威脅,并努力減少該技術可能造成的任何危害。
具體來看,OpenAI正在監控所謂的“災難性”風險,它在這份指南中被定義為“可能導致數千億美元經濟損失或導致許多人嚴重受傷甚至死亡的任何風險”。
據悉,OpenAI在10月份宣布成立“準備團隊”,是這家初創公司負責監督人工智能安全的三個獨立小組之一。此外還有“安全系統(safety systems)”,著眼于當前的產品,例如GPT-4;以及“超級對齊(superalignment)”,重點關注未來可能誕生的、可能極其強大的人工智能系統。
Aleksander Madry負責領導準備團隊。在接受彭博社采訪時,Madry表示,他的團隊將向新的內部安全咨詢小組發送月度報告,該小組將分析Madry團隊的工作,并向CEO山姆·奧特曼以及公司董事會提出建議。
Madry 表示,他的團隊將反復評估OpenAI最先進的、尚未發布的人工智能模型,針對不同類型的感知風險,將其評級為“低”“中”“高”或“嚴重”。該團隊還將做出改變,以減少他們在人工智能中發現的潛在危險,并衡量其有效性。根據新的安全指南,OpenAI未來僅會推出評級為“中”或“低”的人工智能模型。
值得注意的是,根據安全指南,奧特曼和他的領導團隊可以根據這些報告決定是否發布新的人工智能模型,但董事會有權推翻其決定。
近日,奧特曼和董事會之間的宮斗大戰吸引了全世界的關注,在這場內斗落幕之后,董事會已經發生了巨大的變化,同時也引發了外界對于人工智能安全的又一次思考。
今年4月,一群人工智能行業領袖和專家簽署了一封公開信,呼吁在未來六個月內暫停開發比GPT-4更強大的系統,理由是人工智能對社會有著潛在風險。咨詢公司益普索(Ipsos)在今年5月份推出的一項民意調查發現,超過三分之二的美國人擔心人工智能可能帶來的負面影響,有61%的人認為它可能威脅人類文明。
本文鏈接:OpenAI發布安全指南:董事會有權阻止CEO發布新模型http://m.lensthegame.com/show-11-1754-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任,僅提供存儲服務。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 機器學習也許能“算命”
下一篇: 創紀錄!2023年1萬多篇論文被撤回