《人类简史》作者赫拉利:AI是崛起的新物种!

当人工智能(AI)的能力以指数级增长时,它依然是人类可以掌控的工具,还是涌现出的一个新物种?

在追求和创造“更智能的 AI”时,关于 AI 最本质的问题却被日渐忽视:它到底是什么?它要指引我们走向哪里?我们又该如何回应?

日前,历史学家、哲学家、《人类简史》&《未来简史》作者尤瓦尔·赫拉利(Yuval Noah Harari)与 LinkedIn 联合创始人、风险投资家&作家 Reid Hoffman,围绕 AI 的本质、风险、技术与社会的关系,进行了一场深入对话,回答了上述问题。

图|Yuval Noah Harari

一直以来,赫拉利都在关注 AI 对社会的深远影响,强调其可能带来的情感操控和社会结构变化。在访谈中,他提出了多个发人深省的观点,为理解 AI 的未来提供了一个不同寻常的视角。如下:

AI 可能并非人类的延伸工具,而是一种“无机生命”的起点;

如果社会本身不可信,就不可能创造出可信的 AI;

当前的 AI 竞赛陷入信任危机,国际协作亟待建立;

智能不是一切,意识才是引导伦理与真理的核心。

AI代表了「新物种的崛起」

有人说 AI 是继文字之后最重要的发明。赫拉利给出了截然不同的答案——AI,可能不是人类的延伸工具,而是一个即将诞生的新物种

赫拉利指出,如果从历史尺度上审视文字与 AI 的意义,其地位并非是同维度的延续关系。他说:“文字扩展了智人(Homo sapiens)的能力,而智人已经统治了地球。而 AI,至少在某些设想中,是一种新物种的崛起。”

赫拉利认为,文字将有统治力的智人推向更高文明,而 AI“可能会取代智人成为地球上占主导地位的生命形式,或者至少是占主导地位的智能形式。”

此外,赫拉利还提出了一种假设:AI 的出现或许标志着“无机生命”的起源。“在未来某个时候,当回顾宇宙历史时,人们可能会说:‘40 亿年前出现了有机生命的起源。现在随着 AI 的崛起,出现了无机生命的起源。’”

人类太慢,AI太快:我们还能及时纠错吗?

赫拉利认为,AI 真正的危险,不仅在于它拥有强大的智能,更在于它发展的速度,可能远远超过了人类社会适应和纠错的能力。“自我纠错是一种相对缓慢、且相当麻烦的过程。AI 发展得如此之快,我真的很担心,人类根本来不及进行自我纠错。”

赫拉利指出,正是因为人类能够在犯错后意识到错误并加以修正,我们才得以不断演化、维系社会稳定。“一个良好的体系,应当具备一种内在机制,能够识别并纠正自身的错误。”

但身处 AI 时代,他发出了警告:“等你琢磨清楚当下 AI 技术到底咋回事,它对社会、对政治有啥影响,它早都变样十回了,你面对的完全是另一码事。”

AI缺乏“意识”,因此无法真正追求真理

赫拉利进一步指出,智能并不能自动带来伦理和真理。真正让人类关心真相、感受痛苦、拥有道德判断的,是“意识”。

然而,AI 目前只具备智能,尚未具备“良知”或“真理追求的本能”。也就是说,如果一个 AI 没有意识(例如不能“受苦”、不能“感受”),它也就无法真正理解“伤害”“同情”或“责任”这些人类社会的核心伦理概念。这将导致AI 在达成目标时可能完全不择手段。

他认为,硅谷过度重视“智能”而忽视“意识”:“硅谷汇聚了许多极其聪明的人,他们的生活建立在智能之上,因而倾向于高估智能的价值。但我的历史直觉告诉我,如果一个超级智能的 AI 缺乏意识,它就不会追求真理。它很快会开始追求别的东西,而那些将被幻觉所塑造。”

AI是否值得信任,取决于人类自己

在赫拉利看来,要应对 AI 带来的挑战,仅靠技术是远远不够的。人类社会内部的信任机制,以及国家之间的协作意愿,将决定 AI 发展的方向和后果。

他指出,当今世界秩序的动摇,在很大程度上源于信任的缺失。而这一缺失,使人类在面对 AI 时显得格外脆弱,也为一种危险的 AI 形态提供了土壤。“我们最为关键的任务是构建信任,这涉及多个层面,包括哲学层面和实践层面。”

“不妨将 AI 视为人类的‘孩子’。在教育孩子时,我们的话语固然重要,但孩子更会关注我们的实际行动。在教育过程中,我们的行为对孩子的影响力远大于我们对他们的口头教导。”

如果现实社会充满操控、欺骗和对权力的追逐,那么 AI 也会从这些行为中汲取规则逻辑。即使工程师试图在技术层面嵌入“可信机制”,如果这些机制背后的社会本身不可信,那么 AI 同样不会值得信任。

在他看来,那种将人类社会理解为纯粹权力斗争的世界观,不仅过于狭隘,也会误导 AI 的发展方向。“人类不仅争夺权力,也渴望爱、同情和真理。”通过正视自身的价值追求,人类才能为 AI 设定更具伦理意义的起点。“在一个真正追求真理、倡导同情关系的社会中开发出的 AI ,也会更加值得信任、更加富有同情心。”

关于全球协作,赫拉利提出,几乎所有科技领袖都明知 AI 风险巨大,却不愿放慢脚步。他们承认放慢节奏、投入更多安全研究是明智的选择。但几乎所有人都表示“做不到”。原因不是技术层面的限制,而是对竞争对手的不信任。

“他们都说他们不能放慢速度,因为他们害怕他们的竞争对手。因此,在 AI 革命的核心存在着一个内在的悖论。有同样的人告诉你,他们不能相信其他人,但他们认为他们可以相信他们正在开发的 AI。这太疯狂了!”

赫拉利并没有否认人类处理历史性危机的能力。相反,他提醒我们,我们已经拥有理解问题和解决问题的资源。回顾历史,许多困扰人类的问题都来自“资源不足”,例如瘟疫、饥荒和战争。但在今天的技术社会中,更多的问题源于“信任不足”。

“我们拥有理解能力,也拥有资源。我们需要的只是动力和信任。”

完整访谈链接:

Yuval Noah Harari on trust, the dangers of AI, power, and revolutions

本文来自微信公众号 “学术头条”(ID:SciTouTiao),作者:学术头条,36氪经授权发布。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Terbukti Ampuh! Strategi Bermain Mahjong Ways 2 yang Bisa Menggandakan Saldo Dalam Waktu Singkat Auto Jackpot! Ini Dia Cara Bermain Mahjong Ways 2 yang Bisa Bikin Kamu Menang Besar Tanpa Harus Modal Banyak Rahasia Kemenangan Mahjong Ways yang Membuat Aplikasi Penghasil Uang Harian Ke Akun DANA Rahasia Pagi Hari Ucup Sang Raja Taktik Mahjong Ways Yang Sering Bikin Bandar Rugi Besar Mahjong Ways Lagi Viral Game Slot Yang Jadi Ladang Cuan Bagi Banyak Orang Tanpa Harus Modal Besar