AI智能體,体火或將成為2025年的爆用關鍵詞之一,國內外廠商激戰正酣,户担探索其能為千行百業帶來的心个训练型隐變化。但對數據安全的人数憂慮也浮出水麵。有多少交互的据被工作內容會上傳?用戶數據會不會雲上“裸奔”?
記者發現,目前用戶在個人數據隱私方麵的用于业监授權甚為被動,多名業內安全專家呼籲,模型期盼大模型出台強製性合規標準,大模待行落實隱私安全要求。私安
AI智能體今年或將規模化就業
“我相信2025年人們將會看到第一批AI智能體加入勞動力大軍,全亟從根本上改變各公司產出的体火東西。”日前,爆用Open AI CEO山姆·奧爾特曼發布的户担一篇博客,引發業界對AI智能體的心个训练型隐再度關注。英偉達CEO黃仁勳近日也表示,“AI智能體可能是下一個機器人產業,蘊藏著價值數萬億美元的機會”。
什麽是AI智能體?它和去年如日中天的大模型又有何區別?業內專家表示,大模型雖然能理解、能問答、能生成,但是“不能直接幹活”。隻有加上知識獲取、感知、推理、工具使用以及係統架構的能力,變成智能體後才能高效執行具體任務。
記者注意到,近段時間,國內外多個廠商在這個賽道中紛紛布局,展開激烈角逐。微軟一口氣發布了10個商業智能體,稱一個智能體提升的生產力相當於增加187名全職員工;Open AI將要發布新的AI智能體工具,代表人類執行預訂旅行、編碼等任務。
國內企業也不甘落後。聚焦PPT製作、文書寫作等,科大訊飛一口氣升級了8款辦公智能體;智譜清言最新AI智能體可以實現自動點咖啡、發紅包;騰訊也透露,微信、QQ、輸入法、瀏覽器等產品都將推出AI智能體。
用戶個人數據或用於“煉”AI
上傳附件,點擊幾個按鍵,不到2分鍾,一份製作精美的PPT就通過某AI智能體自動生成。“這可比過去一頁頁排版輕鬆多了!”白領小孫感到欣慰的同時,一股擔憂也在心底浮現:“PPT裏的敏感財務數據會不會也上雲了?”
小孫的擔憂不是個例。記者隨機采訪了10名用戶,有9名用戶在使用AI智能體時,有過對數據隱私安全的疑慮:“我的個人敏感數據,會不會被直接采集,用來訓練AI?”
AI智能體的驅動平台是大模型。記者查閱了Kimi、豆包、智譜清言、混元、訊飛星火等多個大模型的隱私條款,發現多個平台在這些隱私條款中聲明,會在經過安全加密、嚴格去標識化且無法重新識別特定個人的前提下,將用戶向AI輸入的數據、發出的指令以及AI相應生成的回複、用戶對產品的訪問和使用情況進行分析並用於模型訓練。有平台還稱“處理後此類數據將不屬於個人信息範疇,其使用無需另行征得用戶同意。”
用戶是否能明確拒絕大模型平台使用其個人對話進行模型訓練?記者發現,相比Open AI、穀歌Gemini等國外大模型,目前國內多個大模型並沒有“一鍵關閉”功能進行拒絕授權的操作。
業內盼望出台強製性合規標準
中國信通院泰爾實驗室信息安全部副主任傅山認為,對用戶而言,一條指令,往往會涉及多個App智能體產品,過度的數據收集會帶來數據濫用、算法偏見、透明度不足等問題。
“對於用戶來說,大模型的隱私安全問題涉及三個點,是否接觸、是否計算和是否輸出。”奇安信行業安全研究中心主任裴智勇表示,其中對外輸出是核心點,一旦平台向不合法的用戶輸出敏感個人信息,不但可能損害用戶隱私,甚至可能危害國家安全。
“這一問題的解題思路,還是在於對大模型和AI智能體的行業監管。”裴智勇說,可以通過對大模型抓取數據和輸出數據的流量監測,知曉大模型是否讀取了敏感個人信息,是否輸出了敏感個人信息,從源頭和終端兩個層麵把控個人信息的使用,從而及時發現問題,化解或減少大模型對於個人隱私帶來的侵害。
多名業內專家也呼籲,期盼盡快完善大模型強製性合規標準,確保大模型及AI智能體研發、訓練、部署過程的隱私安全要求得到遵守。