AI智能體,或將成為2025年的關鍵詞之一,國內外廠商激戰正酣,探索其能為千行百業帶來的變化。但對數據安全的憂慮也浮出水面。有多少交互的工作內容會上傳?用戶數據會不會云上“裸奔”?
記者發現,目前用戶在個人數據隱私方面的授權甚為被動,多名業內安全專家呼吁,期盼大模型出臺強制性合規標準,落實隱私安全要求。
AI智能體今年或將規模化就業
“我相信2025年人們將會看到第一批AI智能體加入勞動力大軍,從根本上改變各公司產出的東西。”日前,Open AI CEO山姆·奧爾特曼發布的一篇博客,引發業界對AI智能體的再度關注。英偉達CEO黃仁勛近日也表示,“AI智能體可能是下一個機器人產業,蘊藏著價值數萬億美元的機會”。
什么是AI智能體?它和去年如日中天的大模型又有何區別?業內專家表示,大模型雖然能理解、能問答、能生成,但是“不能直接干活”。只有加上知識獲取、感知、推理、工具使用以及系統架構的能力,變成智能體后才能高效執行具體任務。
記者注意到,近段時間,國內外多個廠商在這個賽道中紛紛布局,展開激烈角逐。微軟一口氣發布了10個商業智能體,稱一個智能體提升的生產力相當于增加187名全職員工;Open AI將要發布新的AI智能體工具,代表人類執行預訂旅行、編碼等任務。
國內企業也不甘落后。聚焦PPT制作、文書寫作等,科大訊飛一口氣升級了8款辦公智能體;智譜清言最新AI智能體可以實現自動點咖啡、發紅包;騰訊也透露,微信、QQ、輸入法、瀏覽器等產品都將推出AI智能體。
用戶個人數據或用于“煉”AI
上傳附件,點擊幾個按鍵,不到2分鐘,一份制作精美的PPT就通過某AI智能體自動生成。“這可比過去一頁頁排版輕松多了!”白領小孫感到欣慰的同時,一股擔憂也在心底浮現:“PPT里的敏感財務數據會不會也上云了?”
小孫的擔憂不是個例。記者隨機采訪了10名用戶,有9名用戶在使用AI智能體時,有過對數據隱私安全的疑慮:“我的個人敏感數據,會不會被直接采集,用來訓練AI?”
AI智能體的驅動平臺是大模型。記者查閱了Kimi、豆包、智譜清言、混元、訊飛星火等多個大模型的隱私條款,發現多個平臺在這些隱私條款中聲明,會在經過安全加密、嚴格去標識化且無法重新識別特定個人的前提下,將用戶向AI輸入的數據、發出的指令以及AI相應生成的回復、用戶對產品的訪問和使用情況進行分析并用于模型訓練。有平臺還稱“處理后此類數據將不屬于個人信息范疇,其使用無需另行征得用戶同意。”
用戶是否能明確拒絕大模型平臺使用其個人對話進行模型訓練?記者發現,相比Open AI、谷歌Gemini等國外大模型,目前國內多個大模型并沒有“一鍵關閉”功能進行拒絕授權的操作。
業內盼望出臺強制性合規標準
中國信通院泰爾實驗室信息安全部副主任傅山認為,對用戶而言,一條指令,往往會涉及多個App智能體產品,過度的數據收集會帶來數據濫用、算法偏見、透明度不足等問題。
“對于用戶來說,大模型的隱私安全問題涉及三個點,是否接觸、是否計算和是否輸出。”奇安信行業安全研究中心主任裴智勇表示,其中對外輸出是核心點,一旦平臺向不合法的用戶輸出敏感個人信息,不但可能損害用戶隱私,甚至可能危害國家安全。
“這一問題的解題思路,還是在于對大模型和AI智能體的行業監管。”裴智勇說,可以通過對大模型抓取數據和輸出數據的流量監測,知曉大模型是否讀取了敏感個人信息,是否輸出了敏感個人信息,從源頭和終端兩個層面把控個人信息的使用,從而及時發現問題,化解或減少大模型對于個人隱私帶來的侵害。
多名業內專家也呼吁,期盼盡快完善大模型強制性合規標準,確保大模型及AI智能體研發、訓練、部署過程的隱私安全要求得到遵守。
AI智能體,或將成為2025年的關鍵詞之一,國內外廠商激戰正酣,探索其能為千行百業帶來的變化。但對數據安全的憂慮也浮出水面。有多少交互的工作內容會上傳?用戶數據會不會云上“裸奔”?
記者發現,目前用戶在個人數據隱私方面的授權甚為被動,多名業內安全專家呼吁,期盼大模型出臺強制性合規標準,落實隱私安全要求。
AI智能體今年或將規模化就業
“我相信2025年人們將會看到第一批AI智能體加入勞動力大軍,從根本上改變各公司產出的東西。”日前,Open AI CEO山姆·奧爾特曼發布的一篇博客,引發業界對AI智能體的再度關注。英偉達CEO黃仁勛近日也表示,“AI智能體可能是下一個機器人產業,蘊藏著價值數萬億美元的機會”。
什么是AI智能體?它和去年如日中天的大模型又有何區別?業內專家表示,大模型雖然能理解、能問答、能生成,但是“不能直接干活”。只有加上知識獲取、感知、推理、工具使用以及系統架構的能力,變成智能體后才能高效執行具體任務。
記者注意到,近段時間,國內外多個廠商在這個賽道中紛紛布局,展開激烈角逐。微軟一口氣發布了10個商業智能體,稱一個智能體提升的生產力相當于增加187名全職員工;Open AI將要發布新的AI智能體工具,代表人類執行預訂旅行、編碼等任務。
國內企業也不甘落后。聚焦PPT制作、文書寫作等,科大訊飛一口氣升級了8款辦公智能體;智譜清言最新AI智能體可以實現自動點咖啡、發紅包;騰訊也透露,微信、QQ、輸入法、瀏覽器等產品都將推出AI智能體。
用戶個人數據或用于“煉”AI
上傳附件,點擊幾個按鍵,不到2分鐘,一份制作精美的PPT就通過某AI智能體自動生成。“這可比過去一頁頁排版輕松多了!”白領小孫感到欣慰的同時,一股擔憂也在心底浮現:“PPT里的敏感財務數據會不會也上云了?”
小孫的擔憂不是個例。記者隨機采訪了10名用戶,有9名用戶在使用AI智能體時,有過對數據隱私安全的疑慮:“我的個人敏感數據,會不會被直接采集,用來訓練AI?”
AI智能體的驅動平臺是大模型。記者查閱了Kimi、豆包、智譜清言、混元、訊飛星火等多個大模型的隱私條款,發現多個平臺在這些隱私條款中聲明,會在經過安全加密、嚴格去標識化且無法重新識別特定個人的前提下,將用戶向AI輸入的數據、發出的指令以及AI相應生成的回復、用戶對產品的訪問和使用情況進行分析并用于模型訓練。有平臺還稱“處理后此類數據將不屬于個人信息范疇,其使用無需另行征得用戶同意。”
用戶是否能明確拒絕大模型平臺使用其個人對話進行模型訓練?記者發現,相比Open AI、谷歌Gemini等國外大模型,目前國內多個大模型并沒有“一鍵關閉”功能進行拒絕授權的操作。
業內盼望出臺強制性合規標準
中國信通院泰爾實驗室信息安全部副主任傅山認為,對用戶而言,一條指令,往往會涉及多個App智能體產品,過度的數據收集會帶來數據濫用、算法偏見、透明度不足等問題。
“對于用戶來說,大模型的隱私安全問題涉及三個點,是否接觸、是否計算和是否輸出。”奇安信行業安全研究中心主任裴智勇表示,其中對外輸出是核心點,一旦平臺向不合法的用戶輸出敏感個人信息,不但可能損害用戶隱私,甚至可能危害國家安全。
“這一問題的解題思路,還是在于對大模型和AI智能體的行業監管。”裴智勇說,可以通過對大模型抓取數據和輸出數據的流量監測,知曉大模型是否讀取了敏感個人信息,是否輸出了敏感個人信息,從源頭和終端兩個層面把控個人信息的使用,從而及時發現問題,化解或減少大模型對于個人隱私帶來的侵害。
多名業內專家也呼吁,期盼盡快完善大模型強制性合規標準,確保大模型及AI智能體研發、訓練、部署過程的隱私安全要求得到遵守。
本文鏈接:AI智能體火爆 用戶擔心個人數據被用于模型訓練 大模型隱私安全亟待行業監管http://m.lensthegame.com/show-2-10194-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任,僅提供存儲服務。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 尺素金聲丨從三個維度讀懂2024中國經濟
下一篇: 一批互聯網3.0“黑科技”在京亮相