有些“推廣”,像建議;有些“介紹”,像結(jié)論。如今,在AI搜索頁面上,一些廣告與鏈接,正悄然以“建議”的方式嵌入用戶視野,借助模型語言的流暢與技術(shù)的賦能,試圖模糊知識與廣告之間的邊界。
AI本該是我們獲取知識、拓展認知的利器,卻正在變成部分商家精準營銷的新戰(zhàn)場。8月20日,《人民日報》刊發(fā)《“AI+廣告”重在規(guī)范》一文指出,當前,AI大模型廣泛應用于搜索引擎。這衍生出一類新的廣告營銷模式:商家通過生產(chǎn)AI“喜歡”的內(nèi)容投放于平臺,使消費者搜索關(guān)鍵詞時,自家產(chǎn)品和服務的名稱,盡可能多地出現(xiàn)在AI的回答中,從而獲取更多的曝光。
廣告沒有消失,只是換了“馬甲”。部分商家通過優(yōu)化語料、設置提示語、構(gòu)建人設模板,反向“訓練”模型回答,潛移默化中塑造特定排序、引導內(nèi)容生成。這種操控形式更隱蔽、更系統(tǒng),表面上是“適配AI喜好”,實際上卻在重構(gòu)用戶的信息空間,讓推薦逐漸偏離真實、公正與多元。
用戶在看似客觀中立的回復中,被無防備地引向某個品牌、產(chǎn)品或服務,而這些信息是否經(jīng)過標注、是否真實可靠,卻沒有明確告知。尤其在醫(yī)療、金融、教育等與群眾生活息息相關(guān)的領(lǐng)域,商業(yè)動機一旦被偽裝成“權(quán)威解答”,對普通用戶的誤導可能不僅僅是一次消費決策的失誤,還可能造成健康受損、財產(chǎn)受損,甚或影響人生選擇。這不再只是體驗問題,而是安全問題、信任問題,更是公共倫理問題。
當人們發(fā)現(xiàn),自己是在不知情中被“精準影響”,被算法引導下的商業(yè)營銷裹挾,“技術(shù)信任”的根基也會悄然動搖。技術(shù)應該賦能社會,而不是操控規(guī)則;應當提供便捷,而不是替用戶“做決定”。
誠然,AI搜索與廣告結(jié)合,具有積極意義。AI為廣告的精準觸達提供新途徑,與傳統(tǒng)廣告相比,經(jīng)過AI比較、分析的結(jié)果往往更具針對性。但AI作為信息公共設施的屬性不能被侵蝕,答案區(qū)的“公共性”不能丟。它不屬于某一家企業(yè),而是關(guān)系到整個社會的知識公平、數(shù)字正義與公信力建設。
誰來對這些混入AI搜索的“答案”負責?模型生成不是無人問責。平臺有把關(guān)義務,商家當有合規(guī)底線,開發(fā)者需有基本的技術(shù)倫理。公共責任不能在技術(shù)外衣下“隱身”,而守住這條底線,要加強審核與管理,更需制度保障。
首要的是,設立顯性標識。凡屬推廣內(nèi)容,不能藏著、掖著。平臺須建立統(tǒng)一、醒目的廣告標注機制,確保用戶一眼識別“這是推廣”“此為付費結(jié)果”,打破“真假難辨”的信息迷霧,恢復用戶的知情權(quán)和選擇權(quán)。其次要完善隱性溯源機制,包括模型調(diào)用語料的記錄、提示詞的來源、投放行為的日志,做到全鏈條留痕、全流程可查。監(jiān)管層面需主動出擊,前置監(jiān)管手段,對涉及重點領(lǐng)域、敏感內(nèi)容的AI生成信息,設立更高門檻和透明審查機制。同時,要加快完善相關(guān)法律法規(guī),厘清平臺、商家、開發(fā)者各方的責任,為技術(shù)向善筑牢制度邊界。
歸根結(jié)底,AI技術(shù)的發(fā)展須服務于社會整體利益。它不僅要“生成得快”,還要“推薦得準”,讓用戶“用得安心”;不僅是提升效率的工具,更應成為提升公共服務質(zhì)量、促進社會公平正義的重要力量。
我們期待的,是一個能真正提升信息質(zhì)量、優(yōu)化生活體驗、保障用戶權(quán)益的AI生態(tài),而不是被資本操控、算法污染的信息迷宮。技術(shù)向善,才能行穩(wěn)致遠;算法有魂,才不會迷路。
讓每一次推薦都看得清、說得明、查得準,AI服務才能贏得公眾的信任,真正成為人們可信賴的信息助手和不斷滿足人民美好生活需要的技術(shù)支撐。唯有如此,AI才能在新質(zhì)生產(chǎn)力的賽道上,不跑偏、不變質(zhì),穩(wěn)穩(wěn)地走向更加廣闊的未來。
