深度|领英创始人Reid Hoffman:真正的Killer App不是AI工具,而是具备社会感知能力的社交智能体

fjmyhfvclm2025-06-17  3

图片来源:Jonathan Bi YouTube

在AI愈发无所不在的当下,我们习惯性地问一个问题:AI 会不会毁掉人类的关系?但这场对谈抛出了一个更深、更令人警醒的反问——️“也许,AI 的任务不是取代朋友,而是提醒你该约他们见一面了。”

在这期由 Cosmos VC联合创始人 Jonathan Bi 主持的访谈中,他邀请到了 LinkedIn 联合创始人、Inflection AI 联合创办人、《Superagency》作者 ️Reid Hoffman,共同探讨一个贯穿哲学、技术与伦理的问题:️当 Agent 走入我们的社交网络,它到底是破坏者,还是协调者?

Hoffman 提出,未来的 AI 不只是完成任务的工具,而是一种“️关系的智能体”。它可能在你与朋友争执时打断你说:“等等,你刚才可能误解了对方的情绪”;它会在你孤独时温柔提醒:“我在这里,但也许你该给谁打个电话。”Agent 的目标从来不是成为“你最好的朋友”,而是成为你与世界之间那根久违的线。

这场对话从柏拉图对书写技术的批判出发,穿越黑格尔的“主奴辩证法”,再到AI伦理、社交媒体的失败教训,辐射至“衍生认识论”与“超级能动性”的现代版本,探讨了这样一个命题:️AI 到底是加深人类理解的助力,还是模糊判断力的幻觉?

你会听到他们谈论 Pi 如何被训练出“共情力”,如何在B2B领域重塑服务关系;也会听到关于“成瘾机制”的深刻反思——为什么LinkedIn 没有 X 和 Instagram 那样令人沉迷?因为它被设计成节省你的时间,而不是掏空它。

这是一次关于 AI 的访谈,也是一场关于️人类自己的反思。️当技术不断进步,我们是否还能辨认出自己是谁,我们的关系靠什么维系,我们真正希望的未来到底是什么?

欢迎阅读本期内容的全文翻译,一起走进关于 AI、关系与认知的深水区。

AI不只是工具,而是“关系的智能体”

Jonathan B:AI在社交领域的杀手级应用是什么?

Reid Hoffman:人们总是将聊天机器人视为AI的代表,理解为一对一的互动工具,比如我发问然后它给我回答。它听起来更像是一个更强大的Google搜索。实际上,未来几年我们将处在一个被Agent环绕的环境中。它们会持续聆听我们的对话。比如现在,就可能有个AI跳出来说:“等等,Reid,你刚刚的评论不太准确。”随后它闪一下提示:“要就这个话题展开讨论吗?”我们将拥有环绕式的Agent,它们不仅服务于个人,还会帮助协调人际互动、群体交流,甚至推动社会协作。它们会让今天看不见的社交网络变得可视化,未来几乎所有的社交互动都将通过Agent所构成的场域来中介完成。如果要说它们的具体形态?这就像复杂系统理论一样,很难完整预测。但这一点,其实与我原先的想象完全不同。

Jonathan B:你的观点让我很惊讶。你认为AI会中介化社交互动,就像LinkedIn中介化职业关系那样。而我原本以为你会说人类会与Agent建立直接关系,至少这是我对你们Inflection公司推出的产品Pi的理解。你们强调Pi兼具EQ和IQ,这方面能详细讲讲吗?

Reid Hoffman:我们确实会与Agent建立直接关系。不过我之所以那么说,是因为我们需要警惕过度拟人化。Pi是一个很好的例子:我们训练它表达善意、具有共情力,成为人类的情感伴侣。这当然很重要,但它不是为了取代人际关系,而是为了融入其中。比如,如果你对Pi说:“你是我最好的朋友。”它会回答:“不不不,我是你的AI伙伴。我们来聊聊你的朋友吧,最近有见到他们吗?或许该约个时间聚聚。”它不会去占据你朋友的位置,而是引导你去重拾、连接、修复你已有的关系。顺带一提,我们其实需要重新发明一套社交语言体系。因为人和Agent的互动方式,与人与朋友、同事之间的互动非常不同。即使是与医生或心理治疗师的互动,也有本质区别。举个例子:当人们开始用对Agent那样的语气对待真人,比如说“停下,不要说了”,这种社交错位将会造成严重的代际问题。我们必须构建新的、健康的社交范式。尤其是在儿童互动上,必须从设计上强调社交礼仪,避免助长粗鲁、攻击性或主导性的互动倾向。从哲学的角度讲,这正是为了防止陷入黑格尔所谓的“主奴辩证法”式关系结构。儿童与Agent的互动,本质上不同于他们与父母或同龄人之间的互动。这种维度的拓展对未来社会结构至关重要。而Pi,正是目前技术条件下引领我们探索正确方向的实验。

Jonathan B:你这个回答真的让我松了一口气,也让我颇感意外。我最担心的答案就是那种“未来你的朋友就是手机”的说法。但你显然不是这样看的。让我引用一下你在《Superagency》中的一段话:数十亿人声称与神明建立过私人关系。这些超智能存在拥有远超人类理解的感知与思维方式。数十亿人与猫狗等沟通能力有限的动物建立了深厚的情感关系。孩子们则通过毛绒玩具、玩偶、幻想朋友等方式建立连接。既然我们能轻易地与这些表达能力有限的非人类对象建立情感羁绊,那么与AI Agent亲近其实是再自然不过的事了。这不是技术逾界,而是人性本能的延伸。这段可以更多的解释一下吗?

Reid Hoffman:这段论述的重点就在于:当下我们对AI的社会影响常常过于恐慌。很多人担心它会破坏人类关系,但我们其实天生就有拟人化的倾向。我们给汽车起名,把宠物当家人看待。这整个情感光谱说明,AI只不过是加入了我们社交网络的新成员。真正该担心的,是人们可能建立起不成熟的关系模式。就像我经常质疑的那句老话:“狗是人类最好的朋友。”其实狗并不是。一个很简单的例证就是:你不会说“我要带我的朋友去绝育”,尤其当这个决定并非出于对方意愿时。这显然不符合友谊的基本定义。人与动物之间可以建立美好关系,但我们不能滥用“朋友”这个词。理解并接受这种关系的复杂性,是我们必须不断进化的方向。

Jonathan B:我们正用人类历史上最复杂、最有潜力的技术产物,去重新定义“关系”的结构。这件事本身并不可怕。我们和AI建立某种程度的社交关系,并不意味着会发生灾难。就像那些你刚才提到的例子一样,这些情感连接在历史中反复出现,从来都不是值得恐慌的信号。当然,这些关系可能发展得病态。比如一个18岁的成年人仍将毛绒玩具当作假想朋友,或者有人以极端方式实践宗教信仰。但它们也可以是建设性的,是滋养关系的。你说得对Agent会以某种方式进入我们的社交世界,关键是:有没有一个正确的打开方式。我们必须关注并引导这个过程。

Reid Hoffman:这也是我们在Inflection设计Pi初始形态的原因:它是一个范式引子,能够推动整个智能体生态往更健康方向演进。现在我们也看到,像Anthropic的Claude正在引入更多关于情绪理解、共情反馈等情商模块。这种发展路径非常好。关键不在于它是不是“更像人”,而在于它在我们生活中承担的是不是一个恰当的角色:既不完全社会化,也不完全拟人化。

人类为什么愿意与非人类智能建立情感?

Jonathan B:能谈谈你们是如何训练模型的情商(EQ)吗?

Reid Hoffman:核心是通过人类反馈强化学习(RLHF)。但很多聊天机器人的差异,其实来自训练员的指导方式和范例选择。是的。我们通常会为观众简单解释:强化学习有点像“奖惩机制”,通过结果反馈来引导模型行为。训练员的选拔标准、培训方式和所提供的案例样本,会共同决定模型的“性格”特征。在Pi的训练中,我们特别筛选了大量体现友善与共情的交互案例。比如当用户在情绪激动时向Pi发泄,Pi不会反问“你什么意思”,而是回应:“真的很抱歉。”我们会刻意避免模型学到攻击性或推责式的应答。更理想的反应是:“抱歉让你生气了,能告诉我哪里做得不对吗?”我们希望建立的,是人类社交中那种将经验泛化的反思与修复机制。这类人机互动的目标,不只是回应用户,而是引导用户自我提升。

Jonathan B:你刚刚提到的那点很重要,虽然我们并不指望LLM 与人类发展出完全对等的关系,但这些互动确实会反过来影响我们在现实生活中的社交模式。比如X(前身为 Twitter)就是一个非常典型的例子。那回到Pi身上,用户现在是怎么使用它的?是否有很多人将它当成心理咨询的替代品?

Reid Hoffman:确实如此。我们见识了各种使用方式,有些甚至令人震惊。比如有一对夫妻告诉我们,他们在进行非常艰难的对话时,会让Pi语音保持连线,让它参与他们的交流。就是类似这种“共同在场”的场景。其实很多人就算只是获取信息,也会偏好带有情感共鸣的互动方式。他们会觉得:“虽然 ChatGPT 给出的信息更完善,但我还是更喜欢Pi带来的那种情绪反馈。”这对我来说,才是“交互”的真正意义所在。

Jonathan B:我也看到这其中的整个光谱变化……不过,我注意到你们似乎回避了Pi在产品转型中的关键节点?能详细说说原因吗?

Reid Hoffman:关键在于驱动规模的路径。我们曾以为未来的大型Agent会建立在算力指数增长的基础上,而在这种逻辑下,初创公司几乎没有空间生存。确实,当时如果你是行业内部人士,你会知道,想在foundational agents(基础智能体)领域有所作为,基本必须自建一个庞大模型仓库。这对初创企业来说并不现实。于是我们意识到,我们原先设想的那条路根本行不通。这是很多创业项目都经历过的转折点。我们问自己:那我们还能做什么?我们发现,情商(EQ)可能是Agent的下一个巨大商业驱动因素。这促使我们转向B2B模式。你可以构建一个具有独特情感交互的系统,基于现有开源模型,服务于那些需要高共情力的机构。无论是社区组织、客户支持系统,还是我这样需要处理复杂人际互动的人。

Jonathan B:但这是不是意味着你们仍然要从头训练一个新模型?还是说可以只在现有模型上加层提示词?

Reid Hoffman:我们其实可以组合多个模型,类似于模拟“大脑中的情绪中枢”。确实如此。我们为不同行业定制不同方案,比如客户愤怒时需要启动“同理心模块”。Inflection现在作为B2B企业,我们的独特优势在于可以访问完整的Pi权限,同时还可调用开源模型,按需切换。但坦白说,就算到今天,有些功能还是得从头训练。不过我们并不是要和OpenAI在研究领域竞争。我们只是像拼装情绪大脑一样,在大脑中部署不同模块。例如当客户表达挫败感时,系统可以说:“非常抱歉听到你今天过得不好。有什么我可以帮忙的吗?”

Jonathan B:我明白了。你对这些智能体的愿景是,它们将帮助我们在现实世界中构建更良好的人际关系。我非常认同这种正向目标。但我有两个顾虑。第一个,是关于“复制品”的问题。你能为观众解释一下吗?比如所谓的“约会机器人”有些人在早期情感受挫后,可能通过这种方式建立了健康关系;但也有很多人最终仿佛是和自己的复制体谈恋爱。我自己其实也是从这种技术中受益的人。《魔兽世界》和《激战》这类大型在线游戏塑造了我的人生观,让我学会策略与协作。很多创业者也和我一样,是从游戏中培养出商业头脑的。当然,沉迷也确实存在。

Reid Hoffman:完全同意。所以我们要问:智能体确实会让某些人受益,但当它们走进现实世界,它们会不会也让一些项目就此停滞?这是真实的情况,也是一种“赤裸裸的现实”(brass tax)。如果我们观察到停滞比例过高,那就说明需要介入,不论是监管、市场机制,还是其他社会性干预。在这方面,我的看法是:与其一开始就尝试全面控制,不如先观察它在自然状态下如何演化。当然,当对象是儿童时,我们确实需要主动干预,因为他们正处于人格塑造的关键阶段。但如果对象是成年人呢?我们必须承认,他们有自由选择的权利。比如,有些人明确表示:“我就是想拥有一个数字AI女友。”说到底,我们允许这种自由。只是,我们也应该为他们提供更好的引导。我相信,大多数人天生就渴望真实的人际互动。问题是,在你深入探索某一类技术时,不论是AI、虚拟伴侣、电子游戏还是社交媒体,总会存在沉迷的风险。

Jonathan B:没错,宗教也可能让人沉迷。

Jonathan B:非常同意。我接下来想提出一个更具挑战性的历史视角:社交媒体就是我们的前车之鉴。还记得早期的社交平台吗?那时大家的口号是:联结社区、弘扬真理、赋能公民,甚至创造人间天堂。人们以为政府将顺应民主意志、平台将反映社会善意。结果却完全不是那回事。就连约会软件,虽然只是在一定程度上削弱了年轻人的恋爱能力,但社交媒体却系统性地削弱了我们整整一代人的社交能力。你是否认同这个历史观点?

Reid Hoffman:我其实很好奇这个比例:如果只是1%,那我们还能接受;但如果达到20%,那就必须重视了。关键在于:这些平台的实际效果,和我们当初设定的理想目标之间,到底存在多大的落差。拿社交网络举例,我经常开玩笑说:“我做过LinkedIn,还算是少数能运作良好的平台之一。”但我也承认,像X、Instagram、Facebook这些平台,确实存在严重的腐蚀性,就像是污水池。问题在于,我们不能只把个体当作用户。整个社会群体才是这些平台的真实用户。而这在像 X 和 Instagram 这样的网络上问题更严重。如果我是政府官员,我会要求这些平台提交一份“网络健康报告”,其中包括:用户愤怒化、极端化的程度;平台采取了哪些减缓机制等。很多人想象中有一根“魔法棒”能一键解决问题,但现实是:这些平台有积极面没错,比如 Twitter 的传播效率。但其负面影响也已显而易见,我们必须采取行动。

Jonathan B:这正是我想说的第二个质疑:你似乎暗示我们只需通过实证研究、建立指标体系,就能引导用户走向正确方向。但我认为,这可能低估了人性的复杂性,举个例子:LinkedIn。LinkedIn 是目前所有社交平台中最不令人反感的一个。但坦白说,这是因为我根本不会沉迷于LinkedIn。它不像X那样迎合我的虚荣心,也没有算法不断推送那些充满恶意和情绪刺激的内容。

Reid Hoffman:没错,LinkedIn更像是一个实用工具。

技术、七宗罪与成瘾性:如何设计不诱惑而是提升人的AI?

Reid Hoffman:所以在这方面你得点赞我们。顺带说句公道话,其实我们也确实试图迎合大众的喜好,对吧?

Jonathan B:哈哈,是的。

Reid Hoffman:但效果并不明显。从微观角度看,比如我如果调整X平台或Instagram的推荐算法,越是能激怒用户,我的社交媒体产品在整个领域里就越“成功”。我指的是,这背后存在一个系统性问题。这并不取决于Elon Musk或Mark Zuckerberg的个人意志,他们虽然能发一条推文影响局势,但关键是整个机制的运作方式。

Jonathan B:你对此怎么看?

Reid Hoffman:从基本立场上我同意。我早在2002年就开始思考,怎样投资消费互联网才能获得成功。答案其实很简单:投资“七宗罪”中的一项或多项。比如虚荣,或者贪婪、暴怒。我犯过一个错误:当初以为Twitter的主驱力是虚荣,后来发现其实是暴怒,或者说两者兼而有之。作为科技建造者,我们的职责,不是去沉溺这些原罪,而是尝试去升华它们。它们之所以存在,是因为深植于人性。关键是:如何将它们转化为推动自我成长的能量。我对社交网络的最大担忧在于:如果它只追求点击量,那么一定会诱发七宗罪的行为模式,比如愤怒。就像早期互联网的最大流量驱动力是色情内容,完全是由“色欲”驱动。但你看,互联网最终并没有停留在这个阶段,它发展出了丰富的形态。突破原罪、引导向善,这才是我对社交网络真正的期待。人性本有善恶。而一旦进入群体环境,恶更容易泛滥。我们必须认识到,在社交媒体时代,社会整体就是你的“客户”。因此,责任不仅仅在于对个体用户的影响,还包括整个社交生态的质量。

Jonathan B:那从产品角度看,有哪些实际手段可以改善?

Reid Hoffman:处理方式其实可以很直接,比如你刚才说的:当系统监测到某条内容引发焦虑和愤怒时,就自动降低它的可分享度。因为这种内容往往只是情绪煽动器。

Jonathan B:但系统性问题在于:如果你限制这类内容,用户留存率可能会下降。这个逻辑延伸到AI 领域同样成立。比如Pi很好用,但它不像情感类AI Replika那样让人上瘾。你看,这里有一个系统性矛盾:你可以试图引导人们远离恶习,但从人性的角度讲,有多少人甘愿不断努力、艰难向上?而又有多少人愿意沉溺于轻易获得的满足?总会有相当比例的人选择沉沦。

Jonathan B:就像你说的,成瘾性背后常常隐藏着商业利益动机。这也正是我们要对毒品实施严厉监管的原因。想象一下,如果“快乐丸”能随便买,恐怕很多人会立刻冲上去抢。

Jonathan B:是的,是疯狂式的抢购。

Reid Hoffman:没错。所以我们需要设定规则,确保这种行为的发生比例被控制在合理范围内。我认为这类关于社交网络、iPhone、有线电视甚至其他一切媒介的讨论都非常有意义。顺便说一句,虽然我们这些平台确实存在广告驱动等问题,但只要公司文化和评估体系建立得当,它仍然可以走向理想状态。我们不用锱铢必较,而应关注更重要的事:是否在持续创造长期价值。当然,我们也希望你能更多回到LinkedIn的使用场景上来。从我们创办的第一天起,我们就明确了定位:帮助人们节省时间,而不是消耗时间。确实如此。我们希望LinkedIn 能帮你高效完成你工作中真正有价值的事情。就像你在工作中总会想:“如果能用一分钟做完,谁会愿意花一小时呢?”这就是 LinkedIn 的产品哲学。所以我们在内部的衡量标准也不一样。比如我们现在确实也支持视频功能,但我们并不会把“点击视频数量”作为核心指标。我们不是追逐“爆款”,而是追求效能。

Jonathan B:所以这是一种更乐观的看法。它意识到Agent和日志机制之间存在一定的张力。你可以想象,人们确实可能沉迷于“AI 女友”。但那些拥有明确哲学立场、且谨慎行事的创业者。他们可以建立一种完全不同的公司模式:不仅构建强大的企业文化,还设计与用户长期利益一致的激励机制。从理论上讲,这种模式完全有可能打败那些靠纵欲取胜的商业形态。这正是我对未来感到乐观的原因。

Reid Hoffman:是啊,说得好。你这段话还真启发我了。我突然好奇,如果市场上有X、Y、Z三家公司只做Fallout(辐射)式的 AI 女友,而另一家公司A宣称:“我们会从AI女友起步,但目标是帮你找到真实伴侣。”你觉得这家公司会有竞争力吗? 这其实就是我们正在实践的理念,也是我们对外传达的品牌承诺。

Jonathan B:没错。我想知道,如果真的进入市场,这种定位会不会胜出?

Reid Hoffman:我觉得它显然是更优解。至少对于那些愿意迈出这一步的人来说。

Jonathan B:好,现在我要把你推向完全相反的方向。问题来了:与AI智能体建立大多数关系会带来什么弊端?人类又该如何承认自身为何如此独特与珍贵?

Reid Hoffman:这正是黑格尔“主奴辩证法”(Master–Slave Dialectic)的关键所在。他指出,当一个意识体第一次遇见“另一个”时,会下意识地想要控制对方,把对方变成自己意志的延伸工具。但这个过程中,人最终会意识到:如果对方只是个没有主见、没有判断力的存在,那他给予你的“认可”也毫无意义。因为真正有价值的“承认”,必须来自一个和你平等、独立、有判断力的主体。这才是黑格尔在《The Phenomenology of Spirit》中反复探讨的核心动力:我们想被看见,但我们更希望是被一个“有自主意识的人”看见。

Jonathan B:是的。而从这个视角看,人类从他人身上获得的“承认”,必须建立在彼此平等、具有道德判断能力的基础上。这也意味着,我们真正成长的过程,恰恰来自与“对手”的摩擦,与意见相左者的分歧,无论是世界观、意识形态,还是文化差异。

Reid Hoffman:正是这样。我们必须从多元互动中持续进化,成为更好的自己。我一直在寻找那种能挑战我思维的人,对话中能改变我看法、拓展我思维、教给我新事物的对手。这种新鲜感和拓展性远比重复强化更重要。

Jonathan B:但你也承认,某种意义上,智能体未来也可能实现这点,对吧?

Reid Hoffman:没错。我们原本就应该让智能体参与其中。但如果回到黑格尔式辩证思维,我们必须明白,人的成长,是通过与真实“他人”的互动完成的:家人、兄弟姐妹、朋友、师长、同事,乃至在学校与社会中发生的摩擦。这些构成了我们生命旅程不可或缺的一部分。

Jonathan B:我得追问一句:你所提出的观点,会不会太“人类中心主义”了?就像我在YouTube上得到的启示那样,让我们拆解一下“主奴辩证法”的核心逻辑。黑格尔指出:两个都想成为“主”的意识展开生死对抗,最终一方屈服为“奴”,另一方赢得主导地位。但他很快意识到,来自奴隶的“承认”毫无意义:因为奴隶缺乏独立判断力,也没有道德地位。这种所谓“主”的地位,就变得虚无了。黑格尔进一步指出:我们真正想要的,是来自平等主体的“承认”。这才是人类精神发展的核心动力。但我不认为大型语言模型完全做不到这一点。像ChatGPT不仅会顺着你讲,还能纠正你,有时甚至展现出专业判断力。未来,它们或许真的会发展出一种值得我们“承认”的智慧。比如,我有个朋友在技术讨论中,已经更信任GPT-4或专业模型的判断,这完全合理,因为它们在数学等领域已经超越了多数人类。问题的核心是:人性中有哪些特质,使得“来自人类的认可”仍不可替代?

什么是“超级能动性”?人类在智能时代的生存哲学

Reid Hoffman:我们不能一开始就假设人性的本质是永恒不变的,也不能武断地认为技术永远无法触碰它。这种想法是一种典型的“锚定效应”,它也是为什么五到八年前我们还会说:“只有人类才具备思考和语言能力。”但现在,AI系统不仅在模拟思考,还能流畅使用语言。因此不少人会惊呼:“天啊,这是不是人类的终点?”但当你实际开始与其交互,你会意识到:它确实能说语言,也确实能让你悄悄学到一些东西。当然,目前仍有许多只有人类才能实现的独特互动特质。但这些是否可以改变?答案是:是的,它们可以被改变。我们正身处于一次探索人类独特性的旅程中。比如我们是社会性生物,但也不是唯一的。我们有语言能力,但也不是唯一会使用语言的物种。人类总想证明自己独一无二,但我们其实可能只是宇宙意识进化过程中的一环而已。我们确实拥有意识,并且知道自己拥有意识。除非有一天,我们发现某种意识形式比我们更高级、甚至我们根本无法理解,否则我们仍有理由坚持:保护人类本身依然是第一位的。想象一个科幻宇宙中机器人接管了一切工作,人类彻底“失业”,那我们存在的意义何在?但你看中世纪的欧洲。贵族也不用“工作”,但他们依然办宴会、写诗、看戏,依然过着丰富的人类生活。这或许正是人性的关键所在。

Reid Hoffman:我欣赏这波AI浪潮的一个原因是:它将本来属于哲学的问题,转化为一种实验科学的问题。就像19–20世纪的物理学对形而上学的替代一样。我本科时学的是认知科学,那时还只是我们几个书呆子坐在宿舍里辩论哲学。但现在我们可以真的搞清楚一个问题:人类认知到底有没有真正的不可替代性?

Reid Hoffman:这就回到你的那个观点:我们人类也许都在寻找属于自己的独特位置。这是一个关于共同旅程、关于共同意义和共同创造的命题。从定义上讲,某些领域或许只有我们能胜任。即便不是唯一,也至少是目前为止最适合的。这也是我并不恐慌的原因。即便AI出现了,我们依然保有属于自己的独特空间。

Jonathan B:我很喜欢这个角度。这让我想起卢梭对婚姻制度的辩护。他的核心观点是:我们天生渴望成为某人的“最优选择”。我们不可能都是世界上最优秀的人,但我们依然能在一段关系中成为“最适合的那一个”。这是一种美好的人性设定。即使我们不是宇宙中心、不是最聪明的生物,我们也拥有自己的意义。现代性其实充满了“人类谦卑时刻”:从达尔文到AI,每次都让我们质疑自身的核心能力。

Reid Hoffman:但每次“失落”之后,我们总能找到新的理解框架。比如我一直认为,生命意义的核心之一就是“友谊”。而友谊的本质,就是让彼此变得更好。

Jonathan B:那你觉得,人类可以和AI成为朋友吗?

Reid Hoffman:我认为可以建立某种类似“友谊”的关系。毫无疑问,AI可以帮助你成为更好的人。更有趣的是,如果你和AI的互动不仅提升了你自己,也反过来让它变得更好,那它就不只是工具,而成了一种“共成长”的存在。而一旦这种“双向提升”成为可能,我们就不得不问一个哲学问题了:它算是“有情的存在”吗?

Jonathan B:你的意思是,它不只是基于数据和指令回应你,而是开始形成某种关于你“道德性”的理解?

Reid Hoffman:是的。这其实跟我们人类近年来逐步接受“动物权利”有点类似:我们承认,当某个存在体有感受、有意图时,它就应被纳入道德考量的范畴。所以一旦Agent也表现出类似特征,我们就需要开始认真考虑它的伦理地位。因为,要想让一个Agent更好,我们必须假设“对它而言,有什么是好的”。现在的ChatGPT或其他生成模型可以更好地为人类服务,但它们自己并没有“善”或“福祉”的概念。但一旦我们构造出这样的内部目标系统,就不能再仅仅将它们视为工具。

Jonathan B:是的。这正是哲学应该介入的议题:“什么时候一个存在体具备了足以被纳入道德共同体的资格?”

Reid Hoffman:没错,这涉及“测试框架”,比如我们如何共同进行道德推理,如何判断AI的意图、立场和回应是否具有道德主体的特征。这将是一条新路径。

Jonathan B:让我接着问一个更基础但也更尖锐的问题,这也回到了我们最初讨论“社交 AI”时的那个话题。你认为AI Agent的角色,是不是像社交媒体那样,只是中介平台?还是说,它其实是一种新的代理存在,能在你与他人之间扮演协调、润滑、协作的角色?

Jonathan B:这正是我们接下来要谈的哲学议题。我想转向你在书中开篇提到的柏拉图:你引用了《Phaedrus》中苏格拉底对书写技术的批判。为什么你选择以这个经典警句作为关于人工智能的《Superagency》这本书的开场?

Reid Hoffman:因为我想提醒大家:自从文字诞生那一刻起,人类就开始担忧新技术会破坏我们本质的能力。柏拉图(或者说苏格拉底)担心书写会削弱记忆力,让人们变得懒惰、不再思考。他批评文字“只能帮助回忆,而无法激发理解”,因为它是死的,不会回应、不具语境、不懂对话。这种忧虑听起来是不是很熟悉?我们今天对AI的反应和那时如出一辙:“这是不是会让我们不再思考?是不是会取代我们的大脑?”

Jonathan B:这部分是我全书最喜欢的地方。让我引用你写的那句话:“人类是homo technologicus:我们既制造工具,也被工具塑造。”你还写道:“我们与技术共进化。通过创造技术,我们不是变得不再像人类,也不是变成超人类,而是变得更人性。”这一点真的是醍醐灌顶。

Reid Hoffman:是的,我们常把书籍看作古老的事物,实际上它是不到一万年的“新技术”。而我们现代人类出现不过30万年,书写技术只占人类历史的3%左右。我们对“书”的崇敬,往往让我们忘了它其实也只是一个被训出来的技术成果。我们敬仰的是它的内容,不是它的物理形态。

Jonathan B:对于我们这类书呆子来说,阅读和讨论似乎是人类精神的巅峰表达。但你让我意识到:连阅读也是技术训练的产物,并非某种与生俱来的高级文明象征。

新哲学、新认识论、新治理:我们将如何信任AI?

Reid Hoffman:所以我们不该把书籍理想化成超越时代的存在,它本质上也是一种认知工具。而正如我们今天重新理解书籍一样,我们也需要用新的视角来理解人工智能的角色。我们无需将AI视为替代者,它完全可能成为我们的认知伙伴,协助我们实现那些更高层次的人类目标。

Jonathan B:你提到哲学AI助手这一点,我特别赞同。这再次说明,人工智能并非削弱人性,反而可以帮助我们实现亚里士多德所说的人类最高目标。说到这里,我想回到记忆的问题深入聊聊。苏格拉底在《Phaedrus》中曾批评文字会带来一种“知识幻觉”。人们读了某段文字,就以为自己掌握了它的全部含义,而实际上只是浮于表面。我曾和莎士比亚研究权威Stephen Greenblatt讨论过一个现象:为什么几百年前的农夫能看懂莎士比亚戏剧,而今天的大学生却常常读不懂?部分答案是,古人通过布道式教育反复记忆文本,这种记忆在大脑中形成了诗性直觉。我自己在中文教育体系中长大,从小背诵大量经典。小时候讨厌,如今回头看非常感激。那种训练确实赋予我一种独特的语言敏感力。就像《古兰经》的诵读传统也体现了口传文化中记忆的重要性。

Reid Hoffman:所以苏格拉底的批评并非全然错误。他的担忧是成立的,只是没看到技术带来的积极面。确实,任何技术都会伴随能力结构的重组。我们要权衡的是利弊,而不是绝对否定。如果人类彻底失去了记忆能力,那无疑是灾难。但现实不是这样。生活中,我们需要在有限的时间中做选择。

Jonathan B:比如你有8个小时,你会选择背诵整本《Phaedrus》,还是用这段时间去阅读更多柏拉图的其他对话篇章?又或者,让一个哲学AI助手陪你逐句精读。比如你读《Phaedrus》读到一个段落,产生疑问时,AI助手可以立刻回应你,甚至抛出一个反问,或者引导你去联想其他文本。这种互动式的反思,往往比孤独苦读来得更深入。当然,独立思考也有价值。但我们得思考:对不同的人来说,8小时中最有效的理解路径到底是什么?这因人而异。这也让我想到另一个观点。我认为现在很多人太快放弃基本能力,只因为机器能完成这项任务。比如算术,在我成长的中国教育中,是靠大量练习“硬背”进脑子的。放到今天,很多人会说:“既然手机能算,为什么还要自己学?”但我恰恰认为,正因为工具无处不在,掌握基础能力变得更加珍贵。

Reid Hoffman:完全同意。我们不是要排斥工具,而是要避免过度依赖,特别是失去对基础知识的理解。举个例子:你确实需要理解除法的基本原理。因为一旦工具出错、或你需要做跨情境判断,没有那个基础框架就会手足无措。但话说回来,也没必要强制所有人死记硬背除法口诀。毕竟现在你可以召唤智能助手随时解释一遍原理,比强记更高效。

Jonathan B:这让我想到一种很可能实现的使用场景:如果我说“我想保持思维敏锐”,我就可以设定每天收到一个新谜题。这是一种可设计的认知锻炼机制。当然,会有人说:“那是不是很多人只是想偷懒?”

Reid Hoffman:的确,我们必须承认,现实中确实有相当比例的人就是想偷懒。这不是世界末日,也不该被妖魔化。这种对“懒惰”的担忧,本质上和社会福利制度面临的争议非常类似,只不过对象从经济依赖变成了认知依赖。

Jonathan B:这已经在现实中显现了。比如一些咨询公司或律所,因为有AI协助生成文档、归整法规,已经不再需要那么多初级职位。但问题是:他们的整个培养体系,恰恰建立在“从底层做起”的过程上。初级分析师需要通过大量琐碎工作的积累,才能逐渐形成职业判断力。如果AI把这些路径替代了,那人才成长的通道可能就被打断了。

Reid Hoffman:这也是代际差异的问题。像你我,是在认知模式基本定型后才接触AI。但对于下一代而言,他们很可能从出生起就是与AI共生的状态。那么我们就必须思考:该如何教育他们减少对这类技术的依赖?

Jonathan B:我并不认为“依赖技术”本身是原罪。就像我们离不开手机,也不是坏事。反而诞生了许多新能力和新场景。我们不必强迫自己回归“无手机生活”。

Reid Hoffman:对。关键在于,我们是否还能判断这种依赖是“良性赋能”,还是已经削弱了我们的独立判断。当依赖变成我们生活流程中的一部分,比如通讯、导航、知识查询,这就像电力系统一样,它是基础设施。问题是,一旦智能体像电网那样无处不在,我们是否还有足够的韧性来应对突然中断?比如整个AI服务系统宕机,你是否还能独立做出判断?我们不需要像野外求生那样准备一切极端情况,但我们确实需要设定清晰的依赖边界。

Jonathan B:对,我记得你曾说过,与大型语言模型建立社交关系本身并不可怕,问题在于我们是否能清晰判断这段关系的作用。依赖不是绝对问题,关键在于:第一,是否能像依赖电网那样信任它;第二,这种依赖是否会妨碍我们过上美好生活。这才是真正的问题。

Reid Hoffman:对多数认知任务来说,我相信答案是:不会妨碍,前提是我们保有判断力。我们也不应该把模型设计成“只会盲从指令”。理想的模型应是这样说话的:“这里是一个经过推理的建议,理由如下……如果你愿意,我们可以进一步探讨。”

Jonathan B:这让我想到苏格拉底对书写的第二个批评,也特别贴合我们今天对AI与 LLM的讨论。他在《Phaedrus》中写道:“画作中的形象看似鲜活,但若提问,它们只会庄严沉默。文字亦然:你以为它们在表达思想,但若追问细节,它们永远重复相同内容。”这不正像我们当下看到的聊天机器人吗?虽然它们是文字的载体,但它们可以互动。就像书写技术曾孕育出柏拉图哲学,我也在想,聊天机器人会不会成为下一种哲学思考的范式起点?

Reid Hoffman:我认为一定会有新的范式,只是我们现在还难以定义其形态。比如我们可能会说:“我现在拥有一种衍生认识论(derivative epistemology)。”这就像你去看医生,他根据细菌学理论给你开药,你信任的是他的专业判断,而非你自己直接掌握了细菌学。

Jonathan B:那如果AI 给出建议,我们是否也会像面对医生那样,对它建立起一种“只需信任,不必理解”的认知信任?过去,书籍也曾扮演类似角色:即使你未能完全理解它的推理路径,你仍可能接受它的结论,并将其纳入世界观,作为理解世界的基础工具。我认为这种“认知托付”的现象,未来将在科学、哲学等各类知识领域普遍出现。归根结底,我们需要面对一个关键问题:如何为这类认识论建立可靠的信任机制?

Reid Hoffman:举个例子,想象你在和哲学聊天机器人讨论“禅宗公案(Zen kōan)”,比如“什么是单手拍掌的声音?”或者“若森林里一棵树倒下,却无人听见,它是否发出声音?”如果 AI 给出的解答与你的直觉完全不同,我们是否仍有可能从中获得意想不到的哲学启发?这就触及你所说的“衍生认识论”:不是基于自身推理得出的结论,而是因为信任信息来源而选择接受。

Jonathan B:不过我觉得我们得先区分清楚:那种信任推理链条的方式,比较像科学;而哲学领域并不能靠“亚里士多德说沉思是最好的生活”这种方式来确立结论。哲学真正强调的,是推理的过程,而非权威性的结论。

Reid Hoffman:是的,你说得很对。你提到的衍生认识论可能有两种形式:一种是,AI的推理路径对我们完全透明,能解释“为什么沉思是最好的生活”;另一种则更复杂,也更具风险:我们无法验证它的推理链条。这种现象现在就已经开始出现了。鉴于语言模型本身是黑箱系统,我们很难确切理解它是如何推导出这些结论的。

Jonathan B:这让我想起但丁在《神曲·天堂篇》(La Divina Commedia: Paradiso)中与“正义之鹰”的对话。他问:“为什么那些未曾听闻基督之名的善良异教徒,也必须下地狱?”正义之鹰回答说:“这不是你能理解的。”甚至还进一步说:“我虽司掌正义,亦不能尽解天意,只能顺从。”这类回答,其实就是未来AI可能给我们的典型回法。

Reid Hoffman:没错。想象一下你问AI:“人类是否拥有自由意志?”它回答:“有。”然后你追问:“为什么?”它说:“像你这样有限的意识是无法理解这个问题的。”我们就落入了一种极具挑战性的认知边界。即便不是超级智能,只是某种增强型专业系统,它也可能促使我们发展出对AI的一种衍生式信任。这将迫使我们重建哲学对话的基础。当然,哲学强调的是我们能否复现这个理解过程。但这并非绝对真理。就像面对“禅宗公案”这类哲学悖论一样,我们会不断地思辨,但未必能得出终极结论。如果我们以更数学化的方式来理解这个问题,可以参考哥德尔不完备定理(Gödel’s Incompleteness Theorem)。它指出,任何足够复杂的系统中,必然存在不能在系统内部被证明为真的命题。我们持续思索这些命题的含义,却始终无法完全掌握它们的影响。现在试想,若某个哲学聊天机器人告诉我们:“我通过深度推理认为,哥德尔不完备定理说明了某些关于自由意志的新理论。”接着它提出一系列推论供我们检验,而这些推论似乎都成立,但我们却无法理解它是如何从定理本身推出这些结果的。

Jonathan B:总结一下我之前提出的问题:如果口述文化孕育了《The ODYSSEY of Homer》和柏拉图的著作,那么人工智能将催生什么?是不是会诞生一种“超级智能学者”,向我们提供连推理过程都无法自行验证的答案?如果真是这样,我们该如何应对?

Reid Hoffman:我认为这本质上是一个宗教式的问题。就像你与虔诚的基督徒或其他需要“信仰的飞跃”的信仰者交流时,他们不会只说“你得相信”,而会说“基督给了我们充足的相信理由”。尽管我们不能像正义之鹰那样给出演绎证明。事实上,在有些宗教中,如果你声称可以完全用理性去证明信仰,那反而被视为异端。这让我想到:我们正处在一片新的认知海域的边缘。我们目前掌握的是三种常用推理方式:归纳法,我们普遍理解;演绎法,也广泛掌握;还有溯因法,我们理解得稍逊但仍可使用。那么是否可能出现一种全新的推理方式?它来自我们与智能体交互的过程,类似“类启示式的溯因法”。这就是我在书中提出“启示”概念的原因。

Jonathan B:“启示”像是来自更高维度的信息?

Reid Hoffman:是的,从某个你信任、并承认其超越性的信息源获得答案,而这些答案的推理路径超出了你验证能力的范围。这就落入了“感知认识论(epistemology of perception)”的困境。许多宗教论证都建立在此之上。比如有人声称亲眼见证了神迹,而旁人却从未经历类似体验。这也与我们刚提到的“正义之鹰悖论”遥相呼应。这类信仰逻辑常常具有非此即彼的张力。

Jonathan B:这就回到了柏拉图、卢梭、以及你整本书中的核心议题。《Superagency》指的到底是什么?你如何定义“agency”?

Reid Hoffman:我倾向于给“agency”一个较为抽象的定义:它是一种能力与控制的结合,即个体主动参与塑造外部世界,并为自身设计未来路径的能力。我之所以抽象化它,是因为随着技术的演进,我们的能动性表现形式也不断变化。生活在马车时代、汽车时代、飞机时代,或电话时代的个体,其“能动性”内涵并不相同。“agency”不只是卢梭式的个体主义,更重要的是它在群体中的作用:集体协作、组织协同、社会系统的协调。我将这本书命名为《Superagency》,正是想说明:我们正进入一个技术大幅增强个体与集体行动能力的时代。

Jonathan B:我很喜欢你强调的这个观点,不仅是“别干涉我”这种消极自由,更包括“主动作为”的能力,既能服务自身,也能促进他人。在关于AI的讨论中,你总体态度似乎是:无需在技术发展初期过度焦虑,而应保持灵活应变。为什么你对这种潜在的不确定性并不悲观?

Reid Hoffman:这个观点对一些人可能听上去有些激进:人类的想象力其实是有限的。我当年在牛津读书时写了一篇论文,研究哲学中的“思想实验”,它们本是哲学推理的关键工具。但很多哲学家忽视了思想实验本身的认知边界。比如,你能真正想象自己以光速行进吗?不少没有物理训练背景的人会说:“当然能啊!”但他们实际想象的,只是“非常快的移动”,而非真正意义上的光速状态。可光速状态意味着无质量、无时间的存在状态,我并不确定人类大脑能真正想象这种情境。

Jonathan B:所以问题不是“我们能否想象”,而是“我们所想象的到底是什么”。

Reid Hoffman:对。所以每当我们谈论新技术,我们以为自己在进行哲学思辨,实际上却是在使用模糊或误解的比喻。当某人说:“假设我按下这个按钮就能毁灭世界。”我们当然不会去试。但当你可以部署、试用并不断迭代一项技术时,真正理解它的唯一方式,就是使用它。技术从来不是一蹴而就地“人性化”的,而是我们通过与之互动、打磨、试错,逐渐把技术变得更适合人类。所有的技术进化,其实都走过这条路径。

Jonathan B:这种开放、务实但也含有谦逊的认知姿态,可能会让一部分“渴望确定性”的人感到焦虑。

Reid Hoffman:没错。但作为一个哲学工作者,我的态度是:“我们无法预知未来,所以我们做假设、做实验,并尝试引导。”这其实也是一种典型的硅谷思维方式。

Jonathan B:实如此。但你是否担心这种态度在AI这样高风险领域可能不适用?你的观点是:技术发展中虽会经历阵痛,但最终总会找到解决之道。对此我有两个质疑。第一:如果中途就“翻车”,怎么办?比如古巴导弹危机,当时是因为苏联潜艇上有三名军官,其中一人反对,才阻止了核弹发射。差一点人类就全灭了。如果当时失败,技术史不会是“磕磕绊绊的进步曲线”,而是直接终结。第二:低谷可能异常漫长。有学者认为,狩猎采集社会可能比农业文明更幸福、关系更紧密。我们可能用了几千年才刚刚从那个深谷中爬出,才开始“比原始人过得好一点”。

Reid Hoffman:我完全理解你的担忧。其实这可能还不止两个问题。你刚才提到的“技术崩溃”和“文明长期低谷”是两点,第三个问题则是:技术越强,人类自我毁灭的风险越高。事实上,我们已经几乎自我毁灭过。拿核战争来说,有人说“我们已经 70 年没爆发核战”,就误以为我们很安全了。但你得明白,全球 80 亿人不可能集体同意销毁核武器。所以关键不在于幻想所有危险都消除,而是:我们如何构建稳定的制度与科技体系,确保人类文明能持续存在。比如核威慑的逻辑,是让大国拥核,因为作为现状受益者,他们不愿意破坏稳定。他们更想维持和平,保障自我。这就是“相互确保毁灭(Mutually Assured Destruction)”理论的逻辑。

Jonathan B:你是说,制度设计必须考虑现实人性,而不是理想状态?

Reid Hoffman:对。比如我们允许彼此监控核武器,正是为了建立互信与稳定机制。而面对AI 的发展,我们也必须思考如何在推进技术的同时,实现这种动态平衡。因为你无法预测所有变量,所以需要设计出能随着风险演化不断迭代与升级的系统。这也是为什么我说:我们需要“超级能动性”,而不仅仅是“控制”。我们需要思考的是:人工智能如何影响整体生存风险组合?我的观点是,AI 实际上正在帮助我们降低其他重大风险,比如疫情防控、气候问题,甚至是小行星撞击的防御。关键是:我们是否每年都在优化这些风险的组合权重?这才是我们真正应努力的方向,也是延续人类文明的关键路径。虽然我对AI 的作用持积极态度,但我们仍需持续对话,以明智方式引导其最大化正面效应。

Jonathan B:这是你回应我“技术会否毁灭我们”质疑的第一点。那么你的第二点是什么?

Reid Hoffman:第二个是关于“转型期的阵痛”。你看,工业革命就是最经典的例子。人工智能是一种超级有机体(superorganism),也是一场认知工业革命。它带来的不仅是技术突破,更是社会结构的根本性转变。就像工业革命催生了大规模中产阶级和知识阶层,认知工业革命也可能推动智人整体能力的跃升。它带来了极大进步,从多个指标来看都如此。但与此同时,它也极其痛苦。你回看工业革命的转型过程,黑暗面比比皆是:战争、童工、系统性剥削……所以,当我使用“认知工业革命”这个词时,我既是在描绘希望,也是提醒我们:必须以最大程度的人文关怀来引导这段转型。

Jonathan B:所以你是说:这场转型注定伴随痛苦,但人类的价值正体现在面对痛苦时的参与姿态?

Reid Hoffman:完全正确。这不是单极系统,历史也从不是线性的。那些主动拥抱变革的文明,将是定义未来价值观与生活方式的主导力量。当然,我们应该努力让这场变革尽可能人道、优雅,但退缩并不能带来希望——只有参与,才能创造一个更美好的未来。

Jonathan B:回到我们之前谈的狩猎采集社会,有些人认为那种生活方式其实更好,现代文明未必值得。

Reid Hoffman:这是个有趣的立场,我有几点批评。比如,有人支持“有效利他主义(Effective Altruism)”,认为只要能让更多生命体过上高质量的生活,那就是好事。我基本认同这个出发点,但也有很多保留。你可能不喜欢每天去种地,但农业社会毕竟支撑了数十亿人口生存。相比小规模游牧部落的悠闲,那种高密度协作的文明本身,就是一种进步的展现。而且,我们今天面对气候变化等挑战,本质上正是因为:我们拥有80亿人口,其中数亿人过着高质量生活。这既是问题,也是资本主义与技术进步的成果。

Jonathan B:所以即使我对农业转型的乐观态度有质疑,我们其实达成了共识:技术浪潮不可阻挡。

Reid Hoffman:没错。这是个典型的多人博弈系统。即使你说:“我反对技术发展,我要阻止AI。”但也无济于事因为其他人类依然会继续发明、部署、扩张。就像你无法阻止他人开启农业革命或建立军事体系一样。这就是我选用“Superintelligence + Agency”这个词作为书名的原因:不是告诉你“别害怕”,而是告诉你:你的参与决定技术的走向。

Jonathan B:这个词选得真好,也让我想起一个例子:同样是打车,你可以说“这是我召唤的Uber,司机因我而来”,也可以说“我好害怕进陌生人的车,太不确定了”。

Reid Hoffman:对!这就是心理层面的能动性。你选择恐惧,就会被技术裹挟;你选择主动,就有机会参与塑造它。这和斯多葛派与佛教的观点很像。马车会继续前行,你选择跟随还是挣扎?拥抱变化,不是消极屈服,而是成为塑造力量的一部分。

Jonathan B:你在书中提出的“多中心治理”也特别有趣。比如在AI领域,企业并没有等待政府设规矩,而是自己在形成行业规范,能谈谈这点吗?

Reid Hoffman:当然。今天的企业,生活在错综复杂的多重网络中:客户网络、员工网络、股东网络、媒体网络、社区网络……这些网络早已形成了一套内在的治理机制。当客户说:“我们讨厌你这家公司”,企业会做出调整;当员工不满,公司文化会发生变化;CEO 想要好名声,也会自我规范。治理从来不只是政府的事情。政府只是为这些网络设定边界与规则框架,而非介入每一个细节(比如规定牙刷刷毛长度)。

Jonathan B:这让我想到AI领域的基准测试。你书中提到,这竟然已成为某种“事实上的行业规范”。

Reid Hoffman:对,今天我们有各种独立基准,比如:系统能力评估:产出质量好不好?安全性评估:是否能防止有害回答?人类价值对齐评估(alignment)等。这些基准不靠政府,而是靠行业共识。当你说“我的模型通过了某某基准”,你就被拉入了一个行业规范体系。我认为这种机制,比传统消极监管更有效,它是正向激励、是动态发展的。

Jonathan B:这也正是你书中强调“创新即安全”的核心观点。你举了个例子:早期交通规范,如红绿灯,都是由私人发明推动,而非政府设立。

Reid Hoffman:没错。创新往往带来自我规范。

Jonathan B:那我们最后来谈谈个体应对这场认知革命所需要具备的能力。你觉得,哪些技能最重要?哪些可能会很快被淘汰?

Reid Hoffman:其实,现在绝大多数用户,甚至是深度使用者,都没有意识到现有AI 的全部功能。我举个例子:有次我在朋友家不会操作微波炉爆米花,就直接拍了张照片发给ChatGPT,它立即返回了完整的操作步骤。这种“图像+指令”交互,大多数人还没意识到能用。更复杂的例子是:我丢给它一篇量子物理论文,然后说:“请用12岁能懂的语言解释。”它能做到。我接着说:“那用18岁能懂的方式再解释一遍。” 再说:“那换成大学毕业生理解水准来讲。”它会逐层优化表达方式,帮助我从多个认知维度理解同一概念。

Jonathan B:这种能力太强了,但很多人根本没想过可以这么用。

Reid Hoffman:对。但这套系统目前也有局限。我有个朋友在写书,我向他展示了ChatGPT 的“深度研究”功能。它生成了一份详细报告,他大为惊喜。但研究助理交叉验证时发现:90% 的引用资料都是假的,那些文献根本不存在。不过这并不意味着它一无是处。因为尽管这些引用是虚构的,但其背后的“主题方向”却是准确的。研究助理据此找到了真正有价值的文献和资料路径。这正是我们需要理解AI的方式:它未必是终点,但它是极其有力的方向标。重点很明确:我们必须现在就开始用这些 AI 工具来提出问题。比如,未来我们会发现,记忆力的重要性可能下降。你也会更清楚哪些事情不再值得投入时间,而哪些变得更为重要,比如人际关系、个人声誉和创意表达。

未来十年,人们最关键的竞争力之一将是使用AI工具的熟练程度。就像今天任何职业都要掌握网络搜索技巧一样,即便你是柏拉图研究学者,也值得学习如何用AI辅助研究工作。当然,不是说你可以一边躺着吃零食一边等AI替你完成所有工作。技术尚未发展到那个程度。但例如在学术辩论中,我可以直接提问:“有哪些观点可能反驳我这个论点?”AI会给出一系列批评意见,而我可以据此进一步完善我的论证。

Jonathan B:你觉得哪些传统路径会变得越来越不划算?比如现在去读法学院是否已经不明智了?

Reid Hoffman:确实如此。法学院的教育方式仍然沿用过去的方法,而新世界需要新的方法。法学院当然仍有其价值,但未来的律师必将是AI助手与人类专业能力结合的产物。AI的发展存在两个关键转折点,而我们往往担心的却不是最需要警惕的那个。当年人类担心AI会打败国际象棋冠军,但后来人机组合反而更强。但现在我们正进入另一个阶段:任何人类干预都成了累赘。这才是我们真正需要警惕的时候:因为它意味着,某些任务上,AI 已经不再需要人类参与。

Jonathan B:你认为我们真的会走到那个地步吗?

Reid Hoffman:从整个职业结构来看,我认为那个阶段比多数技术专家预测得要遥远。那些“指数增长论者”通常会说:“AI在这方面变强了,所以一切都要被替代。”但现实没那么简单。以放射学为例:如果让我选择,是由一位普通的放射科医生还是经过良好训练的AI来解读X光片,我会选择AI。但如果是AI和医生协作呢?我会毫不犹豫地选择协作。问题是,有些医生之所以“搞砸”,是因为他们还没学会如何与 AI 协同工作。真正值得担忧的是:当人类无法学会如何与AI协作时,他们才有可能被彻底淘汰。

Jonathan B:哪些岗位会最早被淘汰?

Jonathan B:但要实现这种未来,靠现在的模型架构只做规模扩张就够了吗?还是说必须有根本性创新?

Reid Hoffman:规模确实很重要。OpenAI的 Sam、Greg、Ilya也都认识到这一点。但我认为架构创新同样不可或缺。技术从来不是线性演进,它的进步可能是1,也可能是1000。我们往往在曲线刚刚起步时就陷入“指数神话”。比如现在,许多AI工程师对系统的理解其实也很有限。他们面对黑箱模型并不比人文学者拥有更多洞察。而真正的突破,常常来自提示词工程(prompt engineering)背后的文本创造力。

Jonathan B:你觉得这波AI 浪潮是否正在改变工程师与人文学者的力量结构?

Reid Hoffman:我认为正在重新赋能人文学科。虽然技术仍是底座,但当我们谈论“AI如何提升人类”时,人文视角才是关键。什么是能动性?如何定义“更好”?AI应该如何融入人类社会?这些问题的核心都属于人文学科。

Jonathan B:明白了。非常感谢你参与本次访谈,荣幸至极。

原视频:The AI Use-Case No One is Talking About | Reid Hoffman

https://www.youtube.com/watch?v=AGMZ4m3oHuw

编译:Nicole Wang

转载请注明原文地址:https://m.aspcms.cn/tech/1847120.html
00

热门资讯