世界衛生組織(WHO)警告稱,引入基于人工智能(AI)的醫療保健技術可能對低收入國家人群是“危險的”。
據《自然》報道,WHO于1月18日發布了一份大型多模態模型(LMMs)新指南,指出技術的使用和開發不能只由科技公司和富裕國家決定,這一點至關重要。該機構表示,如果沒有根據資源不足地區人們的數據對模型進行訓練,那么這些算法很可能無法為人們提供良好的服務。
“作為技術飛躍的一部分,我們最不希望看到的是世界各國社會結構中的不平等和偏見被傳播或放大。”WHO數字健康與創新總監Alain Labrique表示。
事實上,WHO首份關于AI醫療保健的指南發布于2021年。但在生成式人工智能浪潮的推動下,LMMs的威力和可用性迅速提高,這促使WHO在首份指南發布不到3年后就進行了更新。
WHO表示,LMMs是歷史上被采用速度最快的消費應用程序,其中醫療保健是一個很受歡迎的目標。AI模型可以生成臨床筆記、填寫表格并幫助醫生診斷和治療患者,因此一些公司和醫療保健供應商正在開發特定的AI工具。
但LMMs在為人們帶來便利的同時,又存在不少隱患,WHO更新指南的目的就是確保LMMs的爆發式增長能夠促進和保護公眾健康,而非破壞公眾健康。
WHO警告在最壞的情況下,全球可能出現“惡性競爭”,即公司為了搶先發布,而忽視應用程序的無效性和不安全性。這甚至增加了模式坍塌的可能性,從而進入一個虛假信息循環,基于不準確或虛假信息訓練出來的LMMs會污染互聯網等公共信息來源。
“生成式AI有潛力改善醫療保健,但前提是開發、監管和使用這些技術的人能夠識別并充分考慮相關風險。”WHO首席科學家Jeremy Farrar表示。
在Labrique看來,這些強大工具的操作決不能只靠科技公司完成,各國政府必須合作,以有效監管AI技術的開發和使用。民間社會團體和接受醫療保健的人必須為LMMs開發和部署的各個階段作出貢獻,這包括監督和監管。
WHO強調,鑒于這些模型的訓練、部署和維護成本高昂,LMMs開發有可能被行業主導,目前已經有令人信服的證據表明,在AI研究方面,大型公司正在排擠高校和政府,而博士生和教職員工以前所未有的規模離開學術界投身其中。
指南建議,從事醫療保健或科學研究的LMMs開發人員應接受與醫生相同水平的道德培訓。此外,各國政府可以要求開發者注冊早期算法,以鼓勵公布負面結果,防止出現偏見和炒作。
本文鏈接:世衛警告醫療AI對貧窮國家構成危險http://m.lensthegame.com/show-11-2337-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 全球變暖導致北極河流“生銹”?
下一篇: 拖網捕撈是全球碳排放主要來源