作者:LIRON SHAPIRA. 编译:Cointime.com QDD
布尔弗主义
马克经常沉迷于布尔弗主义。他花了很多时间给不同意他观点的人贴标签、心理分析,而不是专注于他认为他们的具体观点有何错误,以及他的观点为何正确的实质性问题。
在他的文章中,他指责很大一部分人工智能末日论者是“偷运者”,他解释说这意味着“有自身利益的机会主义者,从为人工智能存在风险是一个严重问题辩护中获得经济利益”。他甚至做出这样的概括性陈述:
如果你因担心人工智能而获得薪水或者拿到拨款……你很可能是一个偷运者。
马克有没有想到,可能有一部分人明白致力于人工智能存在风险缓解的重要性,但又没有独立财富?这些特定类型的人通常拥有需要他们拒绝更高薪工作机会的技术技能吗?
我在这里并不是为了提供攻击性的辩护来反驳马克的攻击。我只是指出马克选择了布尔弗式地断言,没有提供任何证据,即从事人工智能安全领域工作的大部分人都是有自身利益的机会主义者。
他对关注人工智能存在风险的人群如此着迷,以至于用这种荒谬的理论困扰了萨姆·哈里斯(Sam Harris),即人工智能存在风险是对抗纳粹的一种替代方式。
也许马克关于人工智能和纳粹的布尔弗主义论断确实准确地描述了某个地方的某个人。我不知道,也不关心。就我个人而言,当我担心一个计算机系统在将任意结果在物理宇宙中的战略行动上的能力超过整个人类时,我对纳粹主义或共产主义并不关心。
马克还声称,人工智能末日论者是“微小的少数”,他们“恐吓”像他这样的人。
他既然知道最近签署的声明上有来自商界和学术界的数百名知名签署人,这是他的一种不真诚的框架,或者最好只是不准确和可悲。
他可能也看到了FLI 6个月人工智能暂停信上的成千上万个知名签署人,以及一些调查结果,比如42%的首席执行官表示,人工智能可能在五到十年内毁灭人类,超过一半的人工智能专家至少给出5%的概率,认为人工智能会导致人类灭绝。他应该很容易停止不准确地诋毁他的对手,而是专注于自己立场的逻辑。
“范畴错误”
让我们从文章中的一段话开始,马克在这段话中从纯逻辑上来看是100%错误的。
马克写道:
我认为人工智能会决定直接杀死人类的想法是一个深刻的范畴错误。人工智能不是一个经过数十亿年演化而被激活参与适者生存的战斗的生物,就像动物和我们一样。它只是数学-代码-由人们构建、由人们拥有、由人们使用、由人们控制的计算机。认为它最终会发展出自己的思维,并决定它有导致它试图杀死我们的动机,这是一种迷信的挥手之词。
马克的论断立即被不同读者注意到了:
对于人工智能风险(或任何AGI相关的事情),最糟糕的论点是“它只是数学”。他究竟认为你的大脑中发生了什么,而不能用数学来描述呢?
——@ravisparikh
说人工智能不会危险,因为它只是数学和代码,就像说老虎不能伤害你,因为它们只是一堆生化反应一样。当然,它只是数学!
——Dwarkesh Patel
认为人工智能会决定直接杀死人类不是范畴错误。下面是一些真正的范畴错误的例子:
l “数字2是蓝色的。”
l “牛津大学的哪栋楼是大学?”
l “相对论在桌子下面。”
正如这些例子所示,范畴错误是一个在逻辑上不一致的命题,既不真实也不错误。但是“人工智能会决定杀死人类”是一个逻辑上一致的主张,最终将被证明是真实还是错误。这就是为什么马克自己继续辩称这是错误的。
如果你认为人工智能不会杀死人不要听马克·安德里森关于人工智能的观点
我们是否应该以一个“他故意准确地使用“范畴错误”这个技术术语的意思”为由而怀疑马克?不:
1. 马克在他的文章中链接了维基百科对这个术语的解释,暗示他理解“范畴错误”这个技术术语的技术含义,并将“人工智能会决定杀死人类”归类为范畴错误。
2. 在他的文章发布后的几周里,马克在各种采访中反复使用了相同的“范畴错误”语言(例如上面的视频片段)。
3. 在发布他的文章一个月后,马克没有撤回这一说法,也没有显示任何在这一点上纠正自己的迹象。
让我们暂停一下,反思一下这种情况:
马克·安德烈森是一位备受尊敬的公共知识分子/思想领袖,他固执地重复一个在简单逻辑上100%错误的论断。
为什么要强调这一点呢?
首先,因为这是一个警示信号,显示我们的话语是多么脆弱和易于利用。它表明没有仲裁者能够吹哨以引发撤回或取消任何进行明显逻辑犯规的参与者。
其次,如果马克没有感到任何压力或动力来纠正他文章中明显的逻辑错误,那么我们很可能在他的作品中发现更多基本错误...
正交论点
马克否认了正交论点,即超级智能人工智能在理论上可以具有任何一组价值和目标。他认为,像无道德追求纸夹最大化的人工智能不可能真实存在。
马克的“论点”中有两个逻辑薄弱的地方:
1. 像制造纸夹这样的目标是“愚蠢的”(引出问题)
2. 拥有似乎具有道德含义的大型语言模型“证明了”这个论点
无人驾驶汽车可以指向任何目的地。核导弹也可以。如果马克想争论AI不能指向任何目标,那种说法“今天的AI表达了它们关心我们关心的价值观”是什么样的论证呢?
马克玩耍的特定版本的AI,gpt-4-0314,并不是唯一存在的AI。(天哪,它甚至不是GPT-4的唯一版本。还有那个令人不安的gpt-4-early。)即使承认马克目睹了一个关心人类道德的特定AI,为什么他说这“证明了”一个涉及所有可能的AI空间的存在主张呢?
在另一次采访中,马克将具有破坏性价值的AI称为“有缺陷”,指出超级智能AI将能够修复自己的“缺陷”:
马克之所以能够对AI注意到其破坏性行为是一个“缺陷”而发笑,是因为他预设正交论点是错误的(引出问题)。他预设没有超级智能AI关心破坏性目标这样的事情。
如果我们不预设正交论点是错误的呢?在这种情况下,很明显,一个意外编程具有破坏性价值的AI不会认为自己有任何需要修复的缺陷。相反,它很可能会将试图“修复”它视为针对其价值完整性的恶意攻击。
但无论正交论点是真还是假(我恰好认为它是真的),我只想强调一个元层次的、话语层次的观点,马克正在用一个逻辑上不充分的问题引申论来代替一个实质性的论证,而人们正让他逍遥法外。
肤浅的心智模型
如果马克只是在逻辑上不完善地表达自己的观点,但他仍然对AI的安全性有一些有见地的东西可以与我们分享,只要我们用不同的问题方式接近,而不直接提到正交论点,那该怎么办?
不幸的是,情况并非如此。马克没有任何一致的心智模型来解释为什么AI是安全的。证据就是这个有趣的视频片段
1. 马克说AI是安全的,因为它不是通过创造人类的演化过程而产生的,所以它没有人类一样的攻击性和生存本能。
2. 但他又说AI是人类的精确镜像。
3. Sam Harris巧妙地揭示了这个矛盾。
4. 马克被这个来自一个不追随者的严肃挑战所震惊,然后转身逃向了涉及性问题的安全。
除了马克的心智模型的肤浅性外,从这段视频中可以得出的另一个结论是,马克在允许他被公开挑战的罕见时刻之后的行为是不恰当的可怜。一个有诚信和能力参与AI风险讨论的人应该承认山姆所指出的明显矛盾,并要么承认这一点,要么提供一个更细致、不矛盾的心智模型解释——而不是试图(不成功地)转移话题和挽回面子。
对噩梦情景的漠视
马克多次批评和嘲笑埃利泽·尤德科夫斯基提出的通过授权具备必要力量的多国政府机构来监管大规模AI模型训练的建议。在马克看来,通过导弹打击来强制执行对不合规的数据中心的规定是(1)噩梦情景,威权主义理想取胜于自由和技术进步,以及(2)在逻辑上不切实际。
好吧。可以理解为什么马克不希望人类在不是绝对必要的情况下妥协于和平和自由的价值观。他可以提出并捍卫这一主张。但是当他转身欢快地对一个不对齐的AI情景的恐怖进行轻描淡写时,他就越过了低质量讨论的界限。
当被问及一个不对齐的AI像病毒一样在数百万个互联网设备上传播的情景时,他说我们有能力通过电磁脉冲轰炸使自己回到互联网时代的前身,这样我们就会安全。
(我们离“范畴错误”还有很长的路要走,多萝西。)
如果马克的备选计划是在我们与超级智能AI精灵的战斗中处于下风的情况下,摧毁互联网相关的医院运营、食品供应链和大部分经济活动,那么他已经承认出于防止不对齐AI情景的利益有必要做出某种程度的牺牲。
埃利泽的建议是一个故意设计成两害相权衡的不良情景,与不对齐的超级智能AI的噩梦相比,它是较轻的。马克对如何处理不对齐的超级智能AI提出的建议是更糟糕的情景,而他对此却表现得好像并不那么糟糕。马克在这方面的讨论质量很低。
愿望式思维并不是一个原则
马克还支持他的合作伙伴马丁·卡萨多以某种众所周知的原则来构建的逻辑薄弱的论断:
如果你有一个任意强大的工具,那实际上不会改变平衡状态。你可以创造出任意糟糕的东西,但你也可以创造出任意好的东西。
好吧,伙计们,如果有人发现一种配方,让任何人在自己的厨房里制造一个500兆吨的核弹?这样一颗炸弹的单次爆炸将永远摧毁人类文明。在这种发现之后,“创造出任意好的东西”来恢复平衡的逻辑必要性是什么?没有。只有一个青少年按下核引信,然后我们地球上的时间就结束了。
当然,我们在核危机中幸存了几十年,但我们无法建造出同样有效的导弹防御系统,因此我们仍然容易受到俄罗斯按下按钮,发射存储的众多洲际弹道导弹中的一枚,其爆炸威力比广岛原子弹导致50%人口死亡的爆炸要大1000倍。
在关乎高风险议题的公共知识分子的低质量言论中,这种情况是不负责任的。如果a16z那种逻辑薄弱的“平衡原则”在AI领域不成立,但我们却像它是真的一样行动,我们都将会死去。
封锁有见地的批评者
Dwarkesh Patel是一位受欢迎的播客主持人,今年早些时候对马克进行了采访,并对马克的AI安全性观点进行了逐条驳斥。Dwarkesh的帖子在Twitter上广受好评和分享。马克对此做出的反应是封锁Dwarkesh。
Albert Wenger是一个以发表深思熟虑见解而闻名的风险投资家,他批评了马克的文章对AI的存在威胁过于轻描淡写。马克对此做出的反应是封锁Albert。
在Twitter上封锁他人是个人自由的一种体现,但当你同时具备以下条件时:
l 你是一位公共知识分子;
l 有人以善意提出有实质性的反驳观点;
l 你可以看到他们的论点在社交媒体上得到了聪明人的广泛支持;
l 你屏蔽了他们;
l 你不与他们的反驳观点进行对话;
l 你进行媒体宣传,并重复你最初的论点,没有任何更新或完善,宛如一切只是一个范畴错误;
那么,你的行为就无法达到公共知识分子所期望的最低讨论标准。
结论
下次当你阅读一位公共知识分子的新文章时,不要仅仅评估你对整体内容的感受,而是要问自己两个独立的问题:
1. 作者是否达到了逻辑论证和讨论礼仪的最基本标准?
2. 你是否同意他们的结论?
如果对于问题1的回答是否定的,希望你能像我在这篇文章中所做的一样,指出这一点,并将其与你对问题2的具体观点分开。
例如,如果你同意马克的结论,即近期AI存在的灭绝风险很低,或者至少低到快速进展的好处超过了风险加权成本,那么可以。但不要让他以低质量的言论代表你的立场。
还有很多公共知识分子,他们对AI安全性的观点与我的观点完全相反,但我对他们的论证质量或讨论礼仪没有任何意见:罗宾·汉森、斯科特·阿龙森和萨姆·阿尔特曼,只是其中的几个。我也没有怀疑他们的品格或动机。我只是不同意他们的观点,并着重于解释为什么我不觉得他们的论证足够有说服力。
所有评论