12月以來,豆包手機助手一經(jīng)發(fā)布,便如巨石入潭,蕩起層層漣漪。各路人馬圍繞這款AI手機助手的功能、安全性以及其蘊含的可能改變現(xiàn)有互聯(lián)網(wǎng)商業(yè)模式的力量爭論不休,可謂2025年末的一大焦點話題。
豆包手機助手是在豆包APP的基礎上,和手機廠商在操作系統(tǒng)層面合作的AI助手軟件?;诙拱竽P偷哪芰褪謾C廠商的授權(quán),豆包手機助手能夠為用戶帶來更方便的交互和更豐富的體驗。豆包大模型能力全面,模型在推理、視覺理解、圖像創(chuàng)作、視頻生成、語音等方面的性能達到國際一流水平。
引人注意的是,在經(jīng)歷最初驚艷發(fā)布、“一機難求”之后,豆包手機助手馬上陷入輿論旋渦。微信異常退出引發(fā)權(quán)限爭議、陸續(xù)遭第三方產(chǎn)品限制登錄,這款AI智能體在驚艷與爭議中,正在經(jīng)受輿論的嚴厲審視。
此前一種相當流行的觀點是:豆包手機助手會繞過認證、讀取,直接閱讀敏感信息。不過,這很快被產(chǎn)品團隊辟謠。豆包手機助手官方微博稱,所有操作必須經(jīng)過用戶授權(quán)。而且,為在技術(shù)發(fā)展、行業(yè)接受度和用戶體驗之間做好良性適配,12月5日,豆包手機助手還發(fā)布《關于調(diào)整AI操作手機能力的說明》,表示在接下來的一段時間,將在部分場景對AI操作手機的能力做一些規(guī)范化調(diào)整,以推動形成更加清晰、可預期的規(guī)則,保護用戶合理使用AI的權(quán)利。
有媒體實測發(fā)現(xiàn),眼下一些App會限制豆包手機助手的使用。商業(yè)競爭中基于自身利益對別家應用設置壁壘并不鮮見,不過,從技術(shù)邏輯來講,豆包手機助手在用戶授權(quán)的前提下代替用戶訪問三方App,這本身并不違背法律法規(guī)與商業(yè)倫理。其是根據(jù)用戶的具體需求,基于用戶的指示作出行動,在性質(zhì)上屬于用戶的技術(shù)延伸,并不存在侵害第三方App應用權(quán)益。
正如北京大學武漢人工智能研究院副院長呂鵬所言,在個體智能終端,任何智能體、App對另外App、智能體的限制、隔離、降低效果,都是對用戶權(quán)益的漠視和不負責任。技術(shù)服務人類是底線,人類不應被剝奪使用技術(shù)的權(quán)利是紅線,對各種App而言,盡管背后的企業(yè)、資本方不同,但都應堅持底線,不應觸碰紅線。
2025年被稱為AI智能體元年。AI智能體的涌現(xiàn),讓AI代理成為未來各大科技公司的必爭之地。這種新型交互模式正在重塑用戶與數(shù)字世界的連接方式,有著巨大的社會價值與社會利益的想象空間。如何看待這種創(chuàng)新與摸索,實則驗證著社會對技術(shù)創(chuàng)新的包容以及技術(shù)將如何改造人類社會的遠見。
在很多層面,技術(shù)進步的一個底層邏輯就是,以速度打破時空限制,提升行動的效率。從電報到廣播電視、互聯(lián)網(wǎng)、社交媒體,再到人工智能時代,信息的跨時空傳播,打破了肉身限制,超越了時空邊界,為人類打造了一個龐大的數(shù)字世界。
AI手機助手同樣秉持這個邏輯,其核心價值并不在于取代傳統(tǒng)應用,而在于以智能化方式降低用戶操作成本,提升交互效率,增強數(shù)字服務的可及性。本質(zhì)上,這體現(xiàn)了技術(shù)創(chuàng)新的乘數(shù)效應。
其實所有的工具都是杠桿,機器放大了雙手的作用,電腦放大了人腦的價值。在有些時候,這些創(chuàng)新的確會觸及現(xiàn)有的商業(yè)秩序,引發(fā)利益沖突。譬如近期圍繞豆包AI助手與微信之間的爭議,就是典型案例。
但在爭議與沖突中調(diào)和、補充與完善,恰恰是技術(shù)進步的規(guī)律。任何科技發(fā)明之后,都會不斷遇到現(xiàn)實挑戰(zhàn),需要不斷修正。當初電報發(fā)明出來之后,很快遇到通訊內(nèi)容隱私的問題,所以后來人們才發(fā)明了編碼。而出現(xiàn)了編碼以后,一個微小的錯訛,就可能使意思完全不同。這又引出了免責協(xié)議。所以,技術(shù)進步必然要有一個過程。有了產(chǎn)品,就要有規(guī)則的匹配,就要有共識的構(gòu)建,這是任何技術(shù)創(chuàng)新必經(jīng)的過程。
大模型時代的人工智能可能更加特殊。過去,人工智能是在封閉的系統(tǒng)追求確定的目標,比如人臉識別系統(tǒng)追求百分之百準確,但現(xiàn)在,大模型帶來的“涌現(xiàn)”是一種開放的智能,產(chǎn)生各種各樣的可能性,超出設計者預料之外。這種“可能性”可能是正向的,也可能是負向的,很多時候是一種“灰度”,沒法準確一刀切地下論斷。這就需要在監(jiān)管層面給予這些創(chuàng)新以更多包容、支持與制度性的空間,使其在可控風險框架內(nèi)充分釋放創(chuàng)新潛力。
當然,AI助手的操作能力涉及隱私保護和個人信息安全,精準規(guī)范亦十分必要。由于AI助手擁有高權(quán)限與“自動操作”能力,如果管理不當或被濫用,可能引發(fā)用戶信息泄露、賬號異常、安全防護沖突等問題。這需要AI助手通過模型隔離、權(quán)限最小化、用戶確認機制、安全審計等技術(shù)與制度手段,使其行為滿足《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律法規(guī)的要求,獲得技術(shù)創(chuàng)新的合法性與穩(wěn)定性。
AI智能體的規(guī)范化是必然的,但是,任何一刀切地阻攔與打壓都是不明智的。AI助手代表了智能終端的下一階段演化方向,也是未來產(chǎn)業(yè)升級與國際生態(tài)競爭的關鍵支點。科技創(chuàng)新需要的是支持與包容,而不是反對與打壓,這應該成為從政策到輿論的普遍共識。(文/姜涵)(來源:中國網(wǎng))