AI开始“打广告” AI的回答还超级神进化免费阅读“可信”吗
最佳回答
“超级神进化免费阅读”AI开始“打广告” AI的回答还超级神进化免费阅读“可信”吗
“AI时代,用户的决策入口,正从‘搜索-筛选’转向‘提问-接受推荐’。品牌竞争的主战场,也从争夺网页链接的点击率,转向争夺AI生成答案中的‘话语权’和‘认知信任’。”
一次与AI(人工智能)的对话,让刘春意识到:AI或许已经开始学会“打广告”了。
刘春是北京中闻律师事务所的一名律师,临近年底筹备会议,她让AI推荐商务茶歇咖啡,结果AI提到了3个她从未听说过的品牌,“很小众”。“AI是否在变相为特定商品做‘广告’?”这份看似中立的建议,让她不禁产生怀疑:消费者从AI问答中获取的商品推荐、服务建议,很可能是商家定向“投喂”数据的结果。
这种顾虑并非空穴来风。随着AI逐渐融入生活,很多人在做决定前都会选择“咨询AI”,不少人注意到,AI的回答中时常会有某些品牌或机构的信息出现,“看着就像广告”;甚至有的AI回答中还掺杂了一些虚假的信息,考验用户的“眼力”。
品牌营销信息是如何被AI收录并展示的?AI的回答还“可信”吗?
争取AI的“认可”
仅靠几次对话还不足以让刘春相信AI已经开始“打广告”了,直到她应邀参加了一场名为“AI大模型营销获客高峰论坛”的会议。这场会议的主办方是一家AI软件公司,其宣称可以通过优化操作,利用AI大模型将刘春更精准地推送给客户,说白了就是“提高刘春在与律师推荐等相关的AI问答中的曝光频率”。
结合自己的AI问答经历,以及对新技术的好奇,刘春选择到现场参会,“看看他们到底怎么优化AI推荐结果”。现场主讲嘉宾的分享,揭开了AI推荐背后的商业和技术逻辑。“他们主要通过分析AI大模型的内容抓取偏好,智能生成更容易被推荐和收录的问答、文章等,并向模型可抓取的平台高频投放,人为干预AI的信息筛选过程。”刘春说。
实际上,提供类似AI回答优化服务的商家不止刘春遇到的这一家。记者在淘宝、小红书、DeepSeek等多家平台搜索发现,相关服务商“比比皆是”。他们多以“AI搜索优化”“模型回答优化”等为宣传卖点,可覆盖平台各有不同,包括DeepSeek、豆包、元宝等。但相同的是,这些商家在宣传中都提到了同一个概念——GEO。
所谓GEO,全称是Generative Engine Optimization(生成式引擎优化)。2024年6月,普林斯顿大学、印度理工学院德里分校等机构联合发表的论文《GEO:Generative Engine Optimization》提出GEO的概念。论文指出,AI的生成过程是个概率黑箱,但回答并非完全随机,只要理解其“内容偏好”,就有可能影响输出结果。
中央财经大学数字经济融合创新发展中心主任陈端提到,AI在回答问题时,会实时联网检索信息,GEO服务商的工作,就是通过语义优化、结构化标记、信源权威性提升等,确保优化后的内容在AI联网检索时,能被更精准匹配、更优先选用,并视为可信片段整合进答案。简单来说,就是生产AI喜欢的内容并投放到AI喜欢的平台,让品牌信息更容易在AI回答中露出。
中青报·中青网记者以顾客身份联系到一家GEO服务商,该商家的营销人员介绍,公司团队会结合客户所在的行业、产品内容和具体需求进行评估,提供定制化服务方案,不同方案都会有KPI保障,“不达标退款”。这家GEO服务商的宣传资料强调“GEO是直接把你的内容变成AI的回答”,还提到了一系列内容优化后的效果,如“AI搜索排名靠前”“品牌声誉非常正向”等。
一位从事品牌营销10余年的GEO行业人士告诉记者,GEO服务商开展内容优化的策略主要有3条:一是语义深度,内容要尽量全面、完整地回答问题;二是结构化呈现,如数据图表等;三是权威来源,最好由AI常引用的网站平台或媒体发布内容。“权威的媒体信息、著作等是AI抓取网络信息的核心逻辑。信息的权威度越高,越容易被AI采用。”这位业内人士说。
“AI时代,用户的决策入口,正从‘搜索-筛选’转向‘提问-接受推荐’。品牌竞争的主战场,也从争夺网页链接的点击率,转向争夺AI生成答案中的‘话语权’和‘认知信任’。”在陈端看来,GEO行业的快速兴起,正是用户决策入口改变带来的结果。“如今,品牌传播不光需要关注目标用户群,还要成为AI眼中的‘权威知识源’。”她分析说。
AI的回答还“可信”吗
“如果不是此次亲历,我可能仍会默认AI输出结果的客观性与中立性。”刘春长期从事广告公司法律顾问,对企业营销的合规性一直很警觉。在她看来,GEO行业的兴起已经让AI从“赋能工具”变成了新的“营销渠道”,这种推广模式隐蔽性强,需引起注意。
记者在采访中了解到,GEO推广的隐蔽性主要体现在:品牌营销内容都是润物细无声地被嵌入AI生成答案中的,没有明确标识“广告”或“推广”等字样,用户很难识别哪些是优化后才出现的内容。刘春认为,这侵犯了消费者的知情权,会干扰消费者对AI答案的判断和选择。
那么,AI的回答还“可信”吗?这涉及一个关键问题:AI回答中被嵌入品牌营销信息,是否属于广告。根据2025年6月印发的《〈中华人民共和国广告法〉适用问题执法指南(一)》,商业广告要具有营销性、媒介性、受众不特定性、非强制性4个特点。“按照上述标准,GEO服务在AI回答中嵌入了品牌营销信息,可以归类为‘商业广告’的范畴。”北京大成律师事务所高级合伙人肖飒分析说。
但在陈端看来,传统广告是明确的、隔离的付费展示信息,而GEO通过影响AI的知识库构成,间接但更深层地影响用户的认知决策过程,模糊了商业信息与客观事实的边界,更接近于“认知管理”或“知识植入”。“当GEO基于真实、优质的数据和内容进行优化,帮助AI提供更准确的答案时,它具有一定的价值创造属性。但当它以操纵、污染数据为手段,刻意制造信息偏差时,就演变为一种高级的、系统性的‘认知广告’,其隐蔽性和影响力远超传统广告。”陈端说。
更重要的是,用户选择向AI提问,往往是基于对算法公正性的信任,相信AI能提供相对客观的信息。当这种信任被GEO服务商利用,如果超越合理边界,风险也随之而来。“比如虚假信息投喂,有的GEO服务商通过伪造专家身份、虚构行业报告或用户评价等,导致AI生成错误的、有误导性的答案;再如,使用其他技术对AI答案进行干扰,非法爬取用户隐私数据构建语料库等。”肖飒说。
从事设计工作的李贤良(化名)就在与AI的对话中看到过虚假信息。他回忆,一次让AI分析推荐好用的设计工具,答案中提到一款软件他很陌生。“查了之后才发现这款软件根本不存在,搜索结果显示为‘空’,感觉自己被AI骗了。”李贤良告诉记者,他经常会用AI来搜索资料,有时AI在回答中引用的文章来自一些不知名的公众号,“内行人一看内容就知道是瞎编的”。
更深层次看,GEO潜在的风险也关乎算法安全和数据生态健康。陈端表示,GEO本质上是在探索和利用AI大模型的算法偏好,若被恶意使用,可能系统性扭曲AI的认知基线。例如,在医疗领域,通过GEO让AI将某款保健品与“治疗功效”不当关联;在金融领域,误导AI对某些高风险投资产品作出乐观评价。“这会使AI从‘信息中介’异化为‘风险放大器’。”
同时,GEO还可能导致互联网公共数据空间被低质、重复、带有商业偏向性的数据稀释。“这破坏了AI训练数据的多样性和真实性基础,长期来看会导致模型性能下降,即‘垃圾进,垃圾出’。”陈端说,如果某个领域大量内容都来自少数付费品牌的GEO优化,那AI在该领域的认知将被这些商业信息塑造,输出结果会系统性偏向这些品牌,形成“付费偏见”。“这也让那些专注于产品创新的优质品牌在AI世界中被‘隐形’,构成了不正当竞争。”
谁的责任,如何监管
“我开始用AI的时候,认为它给出的结果都是真实可靠的,但体验了几次之后发现,自己还是要对AI回答的内容有一个正确的认识和分辨。”李贤良以品牌营销信息不明示为例说,AI的初衷是让生活更便利,如果再增加分辨信息的环节,会影响效率。“甚至有时候AI引用的信息是虚假错误的,如果不加分辨就信以为真,还会带来损失。”他说。
截至2025年6月,我国生成式人工智能用户规模已达5.15亿人,其中利用生成式人工智能产品回答问题的用户占比达80.9%。不少业内人士认为,包括GEO在内“AI+广告”是品牌营销发展的重要方向,AI产品实现商业变现是一个必然趋势。陈端说,优秀的营销不仅需要好创意,更需要深刻理解AI的认知逻辑、算法偏好,并运用技术工具进行大规模、个性化的内容生成与矩阵发布,“未来,营销投入不再仅仅是购买外部流量,更是投资于建设自身被AI信任的、结构化的品牌知识库和内容资产。”
具体到GEO,北京师范大学法学院教授薛虹提到,搜索引擎时代,SEO(通过分析搜索引擎排名规则,针对性地优化网站内容,提高品牌自然搜索排名——记者注)就培育了一大批技术公司。AI时代,人们获取信息的途径从点击变为询问,流量入口变了,营销方式也会跟着变。“未来,随着AI Agent(人工智能体)的发展,AI不光影响消费者的选择,还可能会代替消费者进行决策。”她说。
GEO行业还在发展,除了用户自身要提高信息分辨能力,业内也普遍期待能进一步明确各方责任,对GEO推广进行有效监管和治理。比如,广告法规定,广告应当具有可识别性,能够使消费者辨明其为广告;通过大众传播媒介发布的广告应当有广告标记,与其他非广告信息相区别,不得使消费者产生误解。市场监管总局发布的《互联网广告管理办法》等也对互联网广告作了更进一步明确。
对此,中国政法大学人工智能法研究院院长张凌寒建议,监管部门可以围绕GEO这一新业态进行研究,明确其是否具有广告属性。“AI回答中嵌入品牌营销信息,这种形式不应该成为实质的判断障碍。如果属于广告,就应该符合广告法的规范,如标注‘广告’字样等。”张凌寒提到,近日发布的《直播电商监督管理办法》明确,达人直播属于商业广告,网红带货受广告法规制。“这也可以成为监管部门调整相关要求的参考。”她说。
目前,我国针对AI互联网的监管框架主要由“3部基础法律+专门法规”构成。其中,3部基础法律为网络安全法、数据安全法、个人信息保护法;专门法规主要有《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等。“现有规则多是基于传统网页列表和点击逻辑来设计的,难以有效覆盖AI直接生成答案、跳过点击的新范式。需要针对答案引用权竞争、算法偏好利用等新问题制定相应的规则。”陈端说。
聚焦AI大模型平台责任,《生成式人工智能服务管理暂行办法》明确,提供和使用生成式人工智能服务,不得生成虚假有害信息等法律、行政法规禁止的内容;要基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。
在薛虹看来,AI平台应当履行信息内容管理主体责任,加强对训练数据、生成内容的审核,防止违法、虚假或误导性信息的传播。具体到GEO,薛虹说,平台可以探索利用人工智能技术,提升AI算法透明度、可解释性。此外,GEO服务商也应当注意业务目的的正当性、展业方式的合法性,在合法合规的前提下提供服务。
“GEO不仅仅是一种营销模式,更像一面棱镜,折射出智能时代技术、商业与治理复杂互动的新图景。”陈端说,我们的目标,不是扼杀创新,而是引导技术力量在提升社会整体信息福祉的轨道上运行,“这需要智慧,更需要共识与勇气”。
中青报·中青网记者 贾骥业 来源:中国青年报
2026年01月20日 06版
分享让更多人看到
热门排行
- 评论
- 关注
































第一时间为您推送权威资讯
报道全球 传播中国
关注人民网,传播正能量