21世紀經濟報道 記者鐘雨欣 實習生周穎
隨著生成式人工智能技術高速發展,AI也闖入了人類社會的社交場景中。去年12月以來,一位“捧哏高手”頻繁出沒于網友們的評論區——有時,ta會給你一個暖心的回復;而有時,ta的言辭卻讓你哭笑不得,甚至有些“毒舌”。
這位活躍的“用戶”并非真人,而是微博的虛擬社交機器人“評論羅伯特”。而另一邊,百度推出的問答機器人“貼吧包打聽”也以“答題永不停”引發了網友的注意。
相關研究指出,社交媒體的生態正從完全由“人”主導變為“人+社交機器人”的共生狀態。當AI機器人試圖成為你的“賽博好友”,你會歡迎還是觀望?邁入“人機共生”時代,又有哪些新挑戰和新風險值得關注?
AI出沒評論區:時而暖心,時而胡說八道
據了解,“評論羅伯特”的前身是“評論哇噻機器人”,于去年12月升級迭代,網友發布原創微博或@評論羅伯特即有可能獲得機器人回復。截至發稿,該賬號已收獲42.7萬粉絲。
在官方解釋中,它的定位是“天生的捧哏,有趣的靈魂,不知疲倦的顯眼包”。而平臺上線它的初衷是“優化普通用戶的發博體驗,提升普通用戶在平臺內容生產中的活躍度”。
盡管“羅伯特”不辭辛苦地到網友的評論區“打卡上班”,網友對其態度卻是褒貶不一。有些網友喜歡它的捧場,有些網友會主動與它互動,將其作為一種排解寂寞的方式:“謝謝你,每次都只有你聽我說廢話” ;而有些網友則稱這是“一種毫無情感、敷衍的機器評論”。
21記者搜索發現,目前這位“羅伯特”的捧哏功力發揮得不太穩定,有時會給出正能量的暖心評論,有時則會“一本正經地胡說八道”。
為了吐槽“羅伯特”的“翻車”言論,還有網友專門建立了“羅伯特受害者聯盟”賬號,收集羅伯特“冒犯人類的證據”。目前,該賬號已經發布了2800多條內容,有13.2萬粉絲。還有人建立了不少“高仿號”,模仿“羅伯特”的評論風格。
實際上,“羅伯特”并不是中文互聯網上第一個引發關注的社交機器人。此前,微軟“小冰”、百度“貼吧包打聽”也能實現類似的互動功能。例如,網友在任意貼吧中發布求助帖或@貼吧包打聽,機器人就會進行回帖。但也有用戶反饋稱,問答機器人在回復的時效性、針對性和準確性方面仍存在不足。
“社交機器人本質上是一種對話式人工智能,是通過自然語言的輸入訓練得來的人工智能應用。例如‘評論羅伯特’就是基于微博的數據訓練而成。”對外經濟貿易大學數字經濟與法律創新研究中心執行主任張欣在接受21記者采訪時指出,AI評論機器人本身作為技術理想狀態下應該是中立性的,但會受到訓練數據和設計者對其定位的影響,例如將其定位為“有趣的靈魂”,會使得其生成的評論內容體現出一定的特點和偏好。
談到AI價值取向的問題,北京航空航天大學法學院副教授、北京科技創新中心研究基地副主任趙精武表示,“工具善惡論”的爭論一直存在,社交機器人僅僅是代碼的集合體而已,社交機器人進入社交媒體后,對網絡信息內容生態體系的影響完全取決于如何使用。
“例如,正面的影響是能夠提升社交媒體的活躍度,同時,能夠傳播正向價值的社交機器人還能在一定程度上消弭‘網絡戾氣’,對網絡暴力治理也有一定的幫助。負面的影響是一旦被濫用,則有可能成為操作網絡輿論的社會風險,甚至直接威脅國家安全。”趙精武說。
張欣也提示道,社交機器人在增添信息生態活躍度、提供個性化信息服務等方面能帶來正面影響,但其負面影響是更值得關注的。“一方面,社交機器人的評論完全自主生成,其生成的內容可能具有誤導性、虛假性特征,同時可能引發輿論爭端,從而衍生一系列法律和倫理風險。另一方面,社交機器人還能被用于操縱輿論,對高質量的公共溝通帶來實質性破壞。”
社交機器人操縱輿論的風險也引發了海外學者的關注。例如,倫敦大學此前的一項研究通過一組預設標簽獲得了英國脫歐公投前后兩周內全部推文及其來源賬號,并基于網絡特征識別機器人賬號,發現有將近34%的賬號為機器人賬號。
引導AI向善:個人隱私、知產問題值得關注
還有網友表示,社交機器人高頻與用戶互動,并以此抓取收集、分析數據,可能會帶來個人信息、知識產權方面的侵權隱憂。對此,開發者應注意哪些合規要點,以規避侵權風險?
張欣告訴21記者,社交機器人在訓練過程中使用自然語言處理技術,使得機器能夠理解、處理和生成人類日常語言。通過自然語言處理技術,機器人可以解析、分析和理解用戶的輸入,并生成相應的響應,從而模擬人類的對話行為,實現語義上的交流。因此,其在訓練、部署和應用的過程中涉及數據、算法、模型、應用等多個組件和環節,開發者和部署者應遵循《個人信息保護法》、《生成式人工智能服務管理暫行辦法》以及《互聯網新聞信息服務新技術新應用安全評估實施規范》以及《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》等相關規定。
趙精武也指出,如果涉及抓取用戶個人信息,開發者需要遵守《個人信息保護法》規定的強制性義務,包括但不限于“事前告知以用戶個人信息收集的目的、范圍和方式”“只有獲得用戶明確同意后才能收集用戶個人信息”“個人信息的處理行為應當符合最小必要原則”等。如果涉及知識產權保護問題,開發者需要確保社交機器人的生成內容不會與受到著作權保護的作品“雷同”。
目前,社交機器人還在“成長”階段,開發者可以通過哪些手段,使其表現更符合社會的倫理道德規范?
“在人工智能研發實踐中,開發者可以依據不同的技術路線和應用場景使用人工智能對齊方法,促使社交機器人的表現更符合道德性和可控性,從而與人類的倫理道德規范對齊。”張欣補充道,可以通過外部反饋對人工智能進行對齊訓練,也可以通過分布偏移下學習的方法實現內對齊。與此同時,還可以在部署環節通過行為評估、可解釋性技術、紅隊測試、形式化驗證等方法實現全周期視角的對齊保證。
“最后,人工智能治理生態也是不可或缺的部分。僅靠對齊技術難以充分確保人工智能在復雜世界部署的過程中的表現,還需要適當配合內容過濾等平臺治理手段和用戶社群反饋、參與式治理等方式協同進行。”張欣強調。
趙精武認為,具體可以采取三種手段:其一,科技倫理審查機制。開發者在開發和設計社交機器人時應當對該類技術的安全風險、科技倫理風險進行審查。其二,優化訓練數據的選取。開發者可以對算法模型優化所采用的訓練數據進行調整,優化社交機器人的輸出內容。其三,敏感詞識別機制。在社交機器人生成網絡信息之前,對生成內容進行敏感詞識別,篩除和調整可能存在違背倫理道德的信息內容。
平臺方面也在做出調整,向用戶公開社交機器人的相關運行機制。例如,微博近期回應稱,“評論羅伯特”學習所用的語料均為平臺上的公開內容,不包含“注冊信息”“私信”等任何用戶非公開信息,同時會對數據做匿名化等脫敏處理。此外,會對“評論羅伯特”生成的內容進行安全層面的機器檢測,確保其發言符合法律法規及社區公約。
本文鏈接:AI闖入社交圈:如何化解賽博好友“成長的煩惱”?http://m.lensthegame.com/show-4-2555-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 澳洲會計師公會:結構性減稅可以從加大科研稅收優惠力度等三方面著力
下一篇: 中國同23國全面互免簽證!