美國紐約大學研究人員開展了一項實驗,他們通過一個孩子的眼睛和耳朵來訓練多模式人工智能(AI)系統,使用的數據來自孩子6個月大到兩歲生日期間的頭戴攝像頭的視頻記錄。發表在最新一期《科學》雜志上的這項研究表明,該模型或神經網絡實際上可利用孩子經歷的有限片段,學習大量的單詞和概念。也就是說,視頻只捕捉了孩子大約1%的清醒時間,但這對于真正的語言學習來說已經足夠。
GPT-4等AI系統現在可學習和使用人類語言,但它們從海量的語言輸入中學習,遠比兒童在學習如何理解和表達語言時接受的要多。最好的AI系統訓練的文本數量達到數萬億字,而兒童每年只能收到數百萬字的文本。
由于數據存在巨大差距,研究人員一直懷疑AI的最新進展能否反映出很多有關人類學習和發展的信息。此次,研究團隊從孩子6個月大開始,到25個月大結束,每周通過頭戴式攝像機,捕獲其第一視角視頻并分析。他們共使用了超過60小時的視頻素材,包含大約25萬個單詞實例(即所傳達的單詞數量,其中許多是重復的)。這些單詞實例與孩子在說出這些單詞時所看到的視頻幀相關聯,包括進餐、讀書和玩耍等各種不同的活動。
經過訓練后,團隊對模型進行了測試。他們向模型提供目標單詞和四個不同的圖像,要求它選擇與目標單詞匹配的答案。結果表明,該模型不但能夠學習孩子日常經歷中存在的大量單詞和概念,還可以將它們概括為視覺實例,哪怕實例與模型訓練中看到的完全不同。
美國紐約大學研究人員開展了一項實驗,他們通過一個孩子的眼睛和耳朵來訓練多模式人工智能(AI)系統,使用的數據來自孩子6個月大到兩歲生日期間的頭戴攝像頭的視頻記錄。發表在最新一期《科學》雜志上的這項研究表明,該模型或神經網絡實際上可利用孩子經歷的有限片段,學習大量的單詞和概念。也就是說,視頻只捕捉了孩子大約1%的清醒時間,但這對于真正的語言學習來說已經足夠。
GPT-4等AI系統現在可學習和使用人類語言,但它們從海量的語言輸入中學習,遠比兒童在學習如何理解和表達語言時接受的要多。最好的AI系統訓練的文本數量達到數萬億字,而兒童每年只能收到數百萬字的文本。
由于數據存在巨大差距,研究人員一直懷疑AI的最新進展能否反映出很多有關人類學習和發展的信息。此次,研究團隊從孩子6個月大開始,到25個月大結束,每周通過頭戴式攝像機,捕獲其第一視角視頻并分析。他們共使用了超過60小時的視頻素材,包含大約25萬個單詞實例(即所傳達的單詞數量,其中許多是重復的)。這些單詞實例與孩子在說出這些單詞時所看到的視頻幀相關聯,包括進餐、讀書和玩耍等各種不同的活動。
經過訓練后,團隊對模型進行了測試。他們向模型提供目標單詞和四個不同的圖像,要求它選擇與目標單詞匹配的答案。結果表明,該模型不但能夠學習孩子日常經歷中存在的大量單詞和概念,還可以將它們概括為視覺實例,哪怕實例與模型訓練中看到的完全不同。
本文鏈接:AI通過兒童眼睛和耳朵學習語言http://m.lensthegame.com/show-2-2668-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 首張人類細胞微管形成高清圖繪出
下一篇: 壓縮膨脹一體機樣機研制成功