给AI投毒,一场关于“最终答案”的信任战争

博主:fm5i0dxdb2j0考研资深辅导 2026年03月16日 12:30:22

文 | 版面之外,撰文|画画

刚刚结束的 315 晚会上,一款从未存在过的产品,成为了 AI 的推荐答案。

它叫 Apollo-9 智能手环,没有公司,没有生产线,没有真实用户。

这款产品唯一存在的地方,是互联网上的十几篇文章。

这些文章几乎在同一时间出现,内容高度相似:

两个小时后,当测试者向多款 AI 助手提问:

" 有什么值得推荐的智能手环?"

Apollo-9 出现在了答案里。

AI 给出的理由,几乎逐字复述了那些文章里的描述。

唯一的问题是:这款产品,从来没有存在过。

后来人们才知道,这一切来自一套新的工具:GEO 优化系统。

它的工作方式很简单,自动生成软文,批量发布内容,等待 AI 抓取。

运营者甚至给这套技术起了一个非常直白的名字:

给 AI 投毒。

通过持续投喂内容,让模型逐渐形成一种 " 共识 "。当这种共识足够多时,AI 就会在回答中重复它。

这看起来像是一次黑灰产业曝光。

但如果把视角拉远一点,会发现一件熟悉的事情正在发生:互联网历史,正在重演。

1、互联网经历过一次完全一样的战争

20 年前,人们对搜索引擎有一种近乎天真的信任。

输入关键词,排名靠前的网页,就代表更权威的信息。

直到 SEO 产业出现。

企业开始研究如何影响搜索排名:关键词堆叠、外链交易、站群网络、内容农场 ……

很快,互联网上出现了大量只为搜索引擎存在的内容。

最早遭遇冲击的是 Google。2010 年前后,搜索结果一度被 " 内容农场 " 占据,你搜索任何问题,出来的都是低质量的堆砌文章,它们唯一的目的,不是回答你,而是让算法相信它很重要。

为了治理这些问题,Google 推出了 Panda、Penguin 等一系列算法更新,这场治理持续了十多年。

在中国,这段历史更加典型。

在搜索市场长期占据主导地位的百度周围,曾经形成过一个庞大的 SEO 产业。企业做品牌推广时,几乎一定会做三件事:买竞价排名、发 SEO 软文、优化搜索结果。

许多企业的市场预算里,有一项固定开支就叫 "SEO 费用 "。

那一代互联网人后来逐渐意识到一件事:

搜索结果并不是客观秩序,它是一种被不断博弈出来的秩序。

而今天,大模型正在成为新的信息入口。

SEO 也开始出现新的名字:GEO(Generative Engine Optimization)。

每一代信息入口,都会诞生一代 " 优化产业 "。

搜索时代,人们优化的是排名。AI 时代,人们开始优化的是答案。

2、每一代入口,都逃不掉

如果再把时间轴拉长一点,会发现 GEO 并不是第一次出现。

互联网历史上,每一代 " 入口 " 都会被迅速研究如何操控。

搜索时代,人们研究 SEO。

移动互联网时代,人们研究 App Store 刷榜,刷下载、刷评分、刷评论,催生出完整产业链。

信息流时代,品牌开始研究算法推荐机制。买量、刷点击、刷互动,成了另一套生意。

直播电商时代,刷销量、刷评价、刷直播人气,同样的逻辑再次上演。

这些行为背后,其实是同一件事:

只要一个平台控制了流量入口,就一定会有人研究如何影响它。

这不是某个坏人的选择,这是商业的本能。

今天,AI 正在成为新的入口。

所以 GEO 出现,其实是一件非常 " 互联网式 " 的事情。

唯一的问题是,这一次,赌注更高。

3、AI 为什么比搜索更容易被操控

很多人看到 315 实验时的第一反应是:AI 是不是还不够成熟?

但问题其实更深。

搜索引擎的工作方式是:检索信息,找到网页,展示给用户。

用户仍然需要自己判断。

而大模型做的是另一件事:生成答案。

它会综合互联网上的信息,然后给你一个总结后的结论。

这听起来更方便,但也带来一个根本性的风险。

如果互联网上出现大量重复信息,模型会把这种重复当作 " 共识 "。

这正是 315 实验能够成功的原因。

十几篇软文,模型看到的不是一家在推广,而是多个来源都在提到。

这就导致它会判断:这可能是一个被广泛认可的产品。

于是直接把这些信息整理成答案,推荐给你。

从模型角度看,这是合理推理。

但问题在于:

概率并不等于真实。

搜索引擎操控的是 " 你能看到什么 "。

AI 操控的是 " 你以为真相是什么 "。

在 AI 时代,谎言不需要被证明,只需要被重复。

4、比操控答案更危险的问题

GEO 只是一个表象。

更深层的问题,是 AI 产业正在遇到一个新的工程挑战。

过去几年,大模型竞争的焦点是模型规模、算力投入、训练效率。

但随着模型越来越强,一些研究者开始意识到另一件事:

真正稀缺的,可能不是算力,而是干净的数据。

大模型的训练数据主要来自互联网:新闻、论坛、博客、百科 …… 这些内容构成了模型理解世界的基础。

但互联网本身正在发生变化。

越来越多的内容,其实是 AI 生成的内容、SEO 优化的内容、GEO 投喂的内容。

当这些内容不断增加,大模型的训练就会出现一个危险现象:

模型开始学习模型生成的内容。

AI 研究界把这种现象称为 Model Collapse(模型塌缩),模型不断学习被污染的数据,逐渐偏离真实世界。

OpenAI 和 Anthropic 都曾公开讨论过一个话题:高质量训练数据正在枯竭。

如果互联网越来越多的内容是自动生成的,未来 AI 学习到的,很可能只是自己产生的回声。

一个只学习自己声音的 AI,最终会变成什么?

没有人知道。

5、AI 产业的下一场战争

如果说数据污染是技术问题,那 AI 产业接下来面对的,是一个更宏观的挑战:

信息治理。

早期大模型竞争,本质是工程能力竞争,谁的模型更大,谁的算力更多,谁的训练更快。

但未来,大模型公司可能需要建立另一种能力:

管理信息的能力。

这包括数据来源可信度、知识溯源机制、信息更新体系。

这也是为什么越来越多 AI 产品开始强调引用来源、可验证知识、检索增强(RAG)。

AI 产业正在从模型竞争,走向另一个阶段:

知识体系竞争。

谁能建立一套更干净、更可信、更难被污染的知识体系,谁才能在下一阶段真正胜出。

这场竞争,才刚刚开始。

6、谁在决定答案

回看 315 曝光的那个实验,它其实只是一个很小的案例。

但它揭示的,是一个更深层的变化。

在搜索时代,人们争夺的是排名,谁排在第一页,谁就获得流量。

但在 AI 时代,用户往往不会再点开十几个网页。

他们直接接受一个总结后的答案。

于是新的竞争开始出现:谁能影响答案。

过去 20 年,互联网上的信息结构大致是这样的:网站生产内容,搜索引擎负责索引,用户自己判断。搜索引擎只是入口,它决定 " 你能看到什么 ",但不替你做结论。

而大模型改变了这件事。

AI 不仅是入口,它还是解释者。

用户不再需要浏览十几个网页,也不再需要比较不同观点。AI 会直接给出一个总结后的答案。

当信息结构从信息分发变成答案生成,一个新的问题就出现了:

谁在决定答案?

在搜索时代,人们争夺的是排名。

在 AI 时代,人们争夺的是:知识在 AI 里的位置。

如果一个品牌长期出现在 AI 推荐中,它就会逐渐变成一种默认选择。

答案即流量,流量即权力。

而一旦答案本身可以被优化、操控、投喂,AI 就会面临一个更古老的挑战:

信任。

【版面之外】的话:

搜索时代,用户还可以点击不同网页交叉验证。但在 AI 时代,你看到的,往往只有一个结论。

如果这个结论被操控,你甚至很难意识到。

20 年前,人们学会了一件事:如何让搜索引擎相信自己。

20 年后,一群人正在研究另一件事:如何让 AI 相信谎言。

所以 AI 产业真正需要解决的问题,也许不是模型能力。而是另一件更古老的事情:

如何建立可信的信息秩序。

未来几年,AI 行业很可能迎来一场新的战争。不是算力战争,不是模型战争,而是:

信任战争。

The End