凯发k8一触即发News

凯发k8一触即发《人类简史》作者怒怼硅谷:智能≠真理AI正在走偏!|大内亚里沙|

2025-09-20 23:51:25
浏览次数:
返回列表

  凯发国际k8官网✿★✿,凯发k8国际✿★✿,有机耕种✿★✿,凯发娱乐✿★✿,凯发一触即发✿★✿,【新智元导读】AI究竟是工具✿★✿,还是新物种?《人类简史》作者赫拉利警告我们✿★✿:AI并不只是技术革命✿★✿,更可能是继有机生命之后的「无机生命」崛起✿★✿。

  近期✿★✿,历史学家✿★✿、哲学家尤瓦尔·赫拉利(Yuval Noah Harari)✿★✿,做客Possible播客✿★✿。

  作为《人类简史》《未来简史》《今日简史》等畅销书的作者✿★✿,赫拉利与两位主持人就人工智能的发展前景展开了讨论✿★✿,既有共识也存在分歧✿★✿。

  他们都认为构建人类对AI的信任✿★✿、打造真正追求真相的AI至关重要✿★✿,但对实现可能性的判断不尽相同✿★✿。

  节目中✿★✿,三人深入探讨了AI革命的潜在结果✿★✿、全球协作机制以及AI学习方式的不同观点✿★✿,还剖析了智力与意识之间的本质差异——

  他分享了以人类同理心为指导原则的哲学理念✿★✿,认为这将帮助我们避免文明崩塌✿★✿,最终共同缔造更美好的人工智能未来✿★✿。

  在《人类简史》中✿★✿,Harari将「认知革命」视为人类崛起的转折点——七万年前✿★✿,人类开始讲故事✿★✿,构建共享神话✿★✿。在书写与印刷技术中✿★✿,这一能力进一步发展凯发k8一触即发✿★✿。

  而这套系统的原理基本上就是✿★✿:取一些泥土✿★✿,做成泥板✿★✿,然后拿根木头或棍子✿★✿,在泥板上刻下某些符号✿★✿。

  从技术上✿★✿,文字系统本身非常简单✿★✿。但难点在于如何创造出这套代码✿★✿、如何教人们使用它✿★✿,这才是真正困难的部分✿★✿。而正是这件事✿★✿,改变了整个世界✿★✿。

  写作扩展了已经主宰地球的人类——智人的能力✿★✿;至少在某些设想中✿★✿,AI被视为一种新物种的崛起✿★✿,可能取代智人成为地球上的主导生命形式——或者说✿★✿,主导的智能形式✿★✿。

  因此✿★✿,若站在2025年的时间点✿★✿,Harari依然会认为写作比AI更重要✿★✿,尤其因为AI本质上是写作的延伸——只不过是以另一种方式继续演化✿★✿。

  但如果把目光放到未来✿★✿,可以想象这样的情景✿★✿:AI的崛起✿★✿,将成为宇宙尺度上的重大事件大内亚里沙✿★✿,而写作则无法达到这样的影响力✿★✿。

  而现在我们面临的✿★✿,是一次「无机的」或者说「数字化」的革命✿★✿,其变化速度远远快于人类的适应速度✿★✿。

  作为一名历史学者✿★✿,Harari的回答是✿★✿:历史上的问题✿★✿,通常不在于最终的「目的地」大内亚里沙✿★✿,而在于通往那里的「路」✿★✿。

  那些率先进行工业化的国家✿★✿,也几乎都投入了海外甚至周边地区的殖民征服✿★✿。背后的逻辑是✿★✿:要建立可持续的工业社会✿★✿,唯一的方法就是建立帝国✿★✿。

  这正是英国当时所做的事情✿★✿,甚至像比利时这样的小国也是如此✿★✿。随着工业化扩展到世界其他地区✿★✿,这种帝国扩张的逻辑也被复制开来✿★✿。

  如果我们把当下的AI革命比作当年的工业革命✿★✿,那么人类在21世纪应对AI要是只拿了个「C-」(刚及格)✿★✿,那将会有数十亿人因此付出极其惨重的代价✿★✿。

  所有生物之所以能够生存✿★✿,都是因为拥有这些自我纠错机制✿★✿。就像孩子学走路✿★✿,并不是靠父母和老师的指导(他们可以给予一些鼓励)✿★✿,但本质上完全是靠自我纠错✿★✿。

  问题在于✿★✿,AI的发展远比我们的纠错机制快得多✿★✿。等我们终于理解当前的AI影响时✿★✿,技术也许已经完成了多轮更新凯发k8一触即发✿★✿,甚至引发了新的未知风险✿★✿。

  更何况✿★✿,10到15年前的社交媒体革命✿★✿,我们至今仍在艰难应对✿★✿。人类仍未真正理解算法的深层影响✿★✿,更谈不上有效管理或缓解它带来的「后遗症」✿★✿。

  而现在发生的一切✿★✿,几乎没人真正理解✿★✿。因为光是收集数据✿★✿、理清现状✿★✿、判断趋势✿★✿,这些都需要时间——但时间✿★✿,恰恰是我们现在最缺乏的东西✿★✿。

  Harari认为最根本的问题是✿★✿:当还无法确定技术是否值得信任时✿★✿,却又把验证它是否值得信任的任务✿★✿,交给这项技术本身✿★✿,那其实就陷入了闭环✿★✿。

  人类的工作节奏是「有机时间」✿★✿,相较于其他生物已经算快了✿★✿,但在AI的「无机时间」面前✿★✿,人类就显得极其缓慢大内亚里沙✿★✿。

  而在面对AI时格外脆弱✿★✿,这让人类更加脆弱✿★✿,也很可能出现一种极其危险的AI形态✿★✿:这种AI不仅会试图接管世界✿★✿,而且很可能会成功✿★✿。

  所以✿★✿,当我们一边对AI说✿★✿:「不要贪婪✿★✿,不要滥权✿★✿,不要说谎凯发k8一触即发✿★✿,不要操控他人」✿★✿,而我们的现实行为却恰恰是在贪婪✿★✿、欺骗✿★✿、操控彼此时✿★✿,这些「孩子」最终学到的凯发k8一触即发✿★✿,其实就是我们真实的样子✿★✿。

  哪怕某个AI巨头命令工程师✿★✿:「想办法在AI里植入某种机制✿★✿,让它变得值得信赖✿★✿。」但如果这个AI巨头自己不值得信赖✿★✿,他自己都相信这个世界只是一场权力斗争✿★✿,那他就不可能造出真正值得信赖的AI✿★✿。

  好消息是✿★✿:这种世界观不仅危险✿★✿、愤世嫉俗✿★✿,而且是错的✿★✿。现实并不是只有权力✿★✿,并不是所有人类互动都是权力斗争✿★✿。

  权力确实是世界的一部分✿★✿,也确实有些人类互动✿★✿,或者其中的某些方面✿★✿,是权力的较量✿★✿。但这不是全部大内亚里沙✿★✿。

  绝大多数人——除了极少数极端的反社会人格者——内心都真诚地关心爱✿★✿、同情和真理✿★✿。这些动机并不是出于某种玩弄权谋的手段✿★✿。

  如果AI是在真正追求真理✿★✿、珍视同情心的社会中被培养出来的✿★✿,那这样的AI也更有可能是可信的✿★✿、有同理心的✿★✿,以及更值得托付未来的✿★✿。

  Harari看到很多关于AI模拟的研究✿★✿,试图测试它在某种情境下会作何反应✿★✿,评估它的潜在风险✿★✿。

  当然✿★✿,我们可以试图在AI系统中设计各种机制✿★✿,让它们更符合人类的价值观✿★✿,减少它们说谎或操控他人的可能性✿★✿。但归根到底✿★✿,有些事不是在实验室里就能预见的✿★✿,真正的考验只会出现在现实世界里✿★✿。

  所以✿★✿,从定义上讲✿★✿,无论在实验室里如何精心设计✿★✿,一旦AI进入真实世界✿★✿,它就可以开始自行学习✿★✿、自行演化✿★✿。而它学习的第一课✿★✿,往往来自人类的行为✿★✿。

  如果一个社会是由像马斯克或特朗普这样的人主导的✿★✿,那AI就会从他们身上学东西✿★✿。因为这是它能观察到的榜样✿★✿,它自然会模仿✿★✿。

  它不会想✿★✿:「哦✿★✿,我应该服务公众✿★✿。」它更可能得出结论✿★✿:「哦✿★✿,原来只要撒谎就能获得权力✿★✿,那就可以撒谎✿★✿。明白了✿★✿,这才是现实世界的运作方式✿★✿。」

  在这种背景下✿★✿,Harari认为我们现在最应该做的事情✿★✿,就是聚集一群工程师和企业家✿★✿,来做一次真正有说服力的示范——

  比如展示总统或总理✿★✿,可以在只有一小时里✿★✿,认真✿★✿、诚实地倾听AI专家的建议✿★✿,理解AI的潜在影响✿★✿,并用这个小时来作出负责任的决策✿★✿。

  如果你能把这些政治领袖放进房间里✿★✿,让他们和真正先进的AI互动一个小时✿★✿,然后他们出来后说✿★✿:「天哪✿★✿,这东西太可怕了✿★✿!」——

  Reid Hoffman认为✿★✿:虽然AI革命的本质在于AI是自我学习的机器✿★✿,但它的学习路径其实取决于最初的设定——就像所有学习算法一样✿★✿,起点决定了方向✿★✿。

  这正是Reid保持乐观的原因✿★✿:如果把「追求更高维度的意识」设定为AI的核心目标✿★✿,那么这种对真理的追寻就可能成为AI内在的「学习时钟」——就像精准的计时器一样可靠✿★✿。

  一种能觉察✿★✿、能体会痛苦✿★✿、能对存在本身产生疑问的感知状态✿★✿。而在目前为止✿★✿,我们并没有看到任何可信的证据✿★✿,表明AI拥有这种意识✿★✿。至少他没看到✿★✿。

  当然凯发k8一触即发✿★✿,他也不排除未来某一刻✿★✿,某个角落可能真的会诞生第一个具备意识的AI✿★✿。也许现在它就正在诞生✿★✿。但在此之前✿★✿,他仍然保持一种「不可知」的态度✿★✿:不知道✿★✿,也不能假设它已经具备✿★✿。

  硅谷的问题之一✿★✿,就是过分推崇智能凯发k8一触即发✿★✿。部分原因可能是那里的很多人本身就极具智能✿★✿,甚至他们的一生都是建立在智力优势之上✿★✿,自然也会倾向于高估智能的作用✿★✿。

  但从历史直觉出发✿★✿,Harari觉得✿★✿:如果超级智能的AI缺乏意识——无论你事先给它注入多少「价值观」或「对齐机制」——

  它最终都不会真正去追求真理✿★✿。它很可能很快就会开始追逐其它目标✿★✿,而这些目标✿★✿,很可能是由各种妄念和幻觉所驱动的✿★✿。

  首先大内亚里沙✿★✿,他同意Harari的观点✿★✿:高度智能确实可能伴随着高度的妄想✿★✿。智能越高✿★✿,误入歧途的能力也可能越强✿★✿。

  但Harari提出的第二点也很有意思——那就是✿★✿:也许可以把「纯粹的智能」引导到一条追求真理的路径上✿★✿。或许✿★✿,仅靠智能✿★✿,也可以实现对真理的追求✿★✿。

  不是让AI替代制度✿★✿,也不是让技术取代信任✿★✿,而是看它能否成为桥梁✿★✿,帮助我们更透明地沟通✿★✿,更高效地回应社会关切✿★✿,从而逐步找回信任的基础✿★✿。

  现在大多数社交媒体平台的算法✿★✿,比如Facebook或Twitter凯发k8一触即发✿★✿,衡量信息传播的标准只有一个✿★✿:「互动量」✿★✿。谁能引发最多关注✿★✿,谁就被推上热榜✿★✿。

  所以我们看到的往往是那些最能激起情绪的内容在疯传✿★✿。久而久之✿★✿,不信任大内亚里沙✿★✿、仇恨和愤怒就在社会中蔓延✿★✿。

  它不是只看谁喊得最大声✿★✿、谁能激起最多的愤怒✿★✿,而是尝试评估哪些内容真正有助于建设性的对话✿★✿、有助于问题的理解和共识的形成✿★✿。

  如果我们能借助AI和技术的力量✿★✿,推动这种新的算法方向✿★✿,也许真的能为这个碎裂中的世界✿★✿,打开一条重建信任的通道✿★✿。

  也就是说✿★✿,如果你发的内容只受到你「本群体」的人欢迎✿★✿、点赞再多✿★✿,也不会让你上热榜✿★✿。你必须说点什么✿★✿、发个视频✿★✿、做点什么✿★✿,能让「立场不同的人」也愿意点个赞✿★✿,才能让内容被更多人看到✿★✿。

  结果是✿★✿:很快✿★✿,各种网红✿★✿、名人✿★✿、内容创作者就开始尝试说一些能被不同立场人群同时接受的内容✿★✿。他们在试错中意识到——这才是让内容「出圈」的唯一方式✿★✿。

  但不管怎么说✿★✿,这至少是一个很有启发意义的例子✿★✿:通过看起来非常简单的工程设定✿★✿,就可以让一项技术从破坏信任✿★✿,转变为重建信任✿★✿。

搜索