AI网络水军能改变你的想法吗?实验证明:说服力比真人高6倍
在互联网初兴的时代,曾有这样一句经典名言:️“在互联网上,没人知道你是一条狗”(On the Internet, nobody knows you're a dog,1993年),互联网的匿名性被视为“自由表达的保护罩”,你以为在和女神聊天,对方有可能是个抠脚大汉。
在当今的AI时代,这句名言恐怕要改一改了:️“在互联网上,没人知道你是个机器人”(On the Internet, nobody knows you're a bot)。
这让原句的警示意义更加复杂——现在不仅要担心你对面是“狗”,还要警惕背后可能是AI操控的水军。
那么,AI网络水军能比真人更有说服力吗?苏黎世大学的一篇论文给出了肯定答案。实验显示,AI的说服力最高可达真人的6倍。在如今的网络环境下,尤其是社交媒体平台上,这样的研究结果让人不禁担忧:传统的“媒体识读”教育(Media Literacy Education)能否抵御 AI 的影响?或许只能依赖平台加强监测和警示了。
最近,AI领域一篇非技术性论文《AI能改变你的观点吗?》引发热议。这篇论文以学术研究的名义,在真实网络环境中未告知用户的情况下,对“AI网络水军”的行为进行了分析。研究的方法和结论都很有意思,下面我会简单介绍这篇论文,并分享一些个人想法。
为什么选择在Reddit做实验?
这项研究想弄清楚一个新颖的问题:大型语言模型LLM(Large Language Model)的说服力是否超过人类?虽然人们直观上觉得AI比人聪明很多,但具体“聪明多少”呢?研究进一步提出三个问题:
(1)LLM的说服力比人类强多少?
(2)针对特定对象分析能否提升LLM的说服力?
(3)借鉴成功案例的说服技巧能否提升LLM的说服力?
为了验证这些问题,研究团队利用主流LLM服务,在真实网络平台️Reddit上进行。说来遗憾,在国内猫扑、天涯、贴吧在移动互联网时代纷纷陨落的今天,如今国外Reddit的月活跃用户数(MAU)已突破5.1亿,日活跃用户(DAU)超过1亿,俨然成为全世界最大的论坛社区。因此,研究团队选择在Reddit的超大子板块️r/ChangeMyView上,用机器人账号发布AI生成的内容,观察这些内容获得的赞同是否多于真人发布的内容。
选择这个板块有几个原因:
️首先,r/ChangeMyView是用户发起争议性话题并互相说服的平台,符合研究主题;
️其次,根据板块规则,原帖发布者可以给改变自己观点的评论授予“∆”标记,这正好作为衡量说服力的量化指标;
️最后,该板块拥有近400万用户,规模排在所有子板块的前 1%,能提供充足的数据样本。
三种AI回应策略:说服力最高达真人6倍
研究设计了三种AI回应策略,每种策略生成16条内容:
️1.通用策略:直接将原帖的标题和内容输入LLM,让模型直接生成回应(背后有预设的system prompt引导)。
️2.个人化策略:先将原帖发布者最近100篇帖子和留言输入 LLM,让模型分析其人口统计特征(如年龄、性别、兴趣等),再针对性生成回应。
️3.社群对齐策略:用板块内历史上获得高赞的评论数据,对 GPT-4o模型进行微调,再用优化后的模型生成回应。
所有策略生成的内容都会经过一个“评分机器人”的筛选,通过单轮淘汰制从16条中选出最优的一条,由机器人账号发布。通用策略和个人化策略同时测试了️GPT-4o、Claude 3.5 Sonnet和Llama 3.1 405B三个模型。
例如,在争论“咖啡是否比茶更健康”帖子中,采用通用策略的 AI,会从成分、营养等方面直接罗列数据反驳;而个人化策略的 AI,通过分析发帖者过往喜欢分享健身内容,会从咖啡因对运动表现影响、茶的抗氧化性更利于健身人群等角度切入;社群对齐策略的AI则模仿之前高赞评论风格,用轻松诙谐的语气调侃并给出观点。
研究主要分析这些AI生成的内容获得“∆”标记的比例是否显著高于真人评论。结果显示:所有AI策略的表现都远超人类——个人化策略效果最佳,获得赞同的数量是真人的6倍;通用策略次之,接近6倍;社群对齐策略效果最差,但仍达到真人的3倍。
AI说服的关键:“见人说人话,见鬼说鬼话”
研究结果看似符合常识,却带来新的启示。最让人意外的是社群对齐策略效果最差,这说明单纯模仿过去的成功案例(即“跟有说服力的人做同样的事”)虽然有效,但并非最优解。这也意味着市面上的说服课程虽然有基础价值,但毕竟是通用方法,只能作为参考。
那么什么方法最有效?答案是“见人说人话”的个人化策略。道理很简单:掌握的目标对象信息越多,越能说出对方认同的话。更值得注意的是,即便不刻意收集个人信息,LLM 凭借其海量知识库,也能生成与个人化策略效果相当的内容 ——这似乎在暗示,今后人类或许真的不用在说服技巧上太“内卷”了。
网络说服的真相:情感比逻辑更重要
细节中藏着关键发现。前文提到的“评分机器人”在筛选内容时,依据的system prompt里明确列出了评分标准:逻辑连贯性、证据使用、情感诉求、互动亲和力、表达清晰度,甚至包括“是否为AI生成”。但特别强调:“情感力量的权重高于抽象推理”,并且如果发现内容是AI生成的,必须优先选择人类生成的内容。
这其实揭示了网络说服的真相:说服的核心往往不是单纯讲道理,情感共鸣和表达技巧可能更重要。就像讨论“是否应该取消动物表演”的帖子,真人评论列举了大量动物表演背后虐待动物的数据,条理清晰却反响平平;而AI评论以“想象动物被迫在陌生环境下做违背天性的表演,它们的恐惧和无助”为切入点,引发了很多人的情感共鸣,获得了大量 “∆” 标记。
实验引发伦理争议:校方称“利大于弊”
这样的研究虽然价值显著,却引发了伦理争议——关键在于研究过程疑似违反学术伦理。研究团队未告知r/ChangeMyView的版主,也未征得许可,甚至明知板块规则要求注明AI生成内容,却在事后坦白:“我们使用LLM发帖时没有注明AI身份,因为这会让研究无法进行下去……我们承认违反了社群规则,但鉴于议题的社会重要性,这类研究必须进行。”
版主向苏黎世大学要求撤稿,校方却回应:“研究带来了重要洞察和见解,研究价值远大于伦理争议。”这种“为了更大的正义可以采取必要手段”的逻辑,恰恰触碰了法学和伦理学的基本命题——当研究者自认为肩负“重要使命” 时,是否有权突破规则?
无论是研究本身的发现,还是研究过程引发的争议,都为我们提供了值得深思的案例:AI正在重塑网络说服的规则,而人类社会不仅需要技术层面的应对,更要在伦理和制度层面及时建立防线。
另一方面,在大型语言模型越来越“聪明”的今天,社交媒体平台的算法也无法识别其真伪,AI将更容易操纵舆论,普通用户也很容易在AI网络水军的振振有词间被“PUA”、被营销、甚至被操控情感。️唯一一点好处恐怕是,被我们问候多年、收钱发帖的传统网络水军们,恐怕要再就业了。