硅谷首席风险投资家Marc Andreessen经常以关于新技术时代的全局性假设震惊世界。
在他2011年的传奇性博客文章《为什么软件正在吞噬世界》中,Andreessen Horowitz的联合创始人提出了一个当时新颖但现在已经不可否认的论点:即使是最老派的工业公司也将很快将软件置于其核心地位。在2020年,当Covid-19让世界急需口罩和鼻拭子时,他发表了《是时候去建设》,呼吁恢复对可解决紧急问题(如大流行病、气候变化、基础设施破损和住房短缺)的技术的投资。
现在他又发表了一篇7,000字的长文,再次尝试构建叙述的框架;这一次,故事是“人工智能不会摧毁世界,事实上可能拯救世界。”大部分文章都致力于揭示人工智能毁灭的假设,并称赞人工智能几乎是拯救文明的救星。
这当然是可以预见的。Andreessen投资于技术革命,因此没有任何理由不炒作它们。然而,他的文章有两个价值。首先,它明显的盲点是最大的人工智能炒作者思考的有用指南及其偏离的地方。其次,对一些过于歇斯底里的人工智能恐惧进行的批判实际上(在某种程度上)是切中要害的。
所以让我们深入探讨一下。
什么是人工智能,它能成为什么
Andreessen早期就暗示了他的意图,他提供了“人工智能的简要描述”:“将数学和软件代码应用于教导计算机如何理解、综合和生成知识。”
这似乎无伤大雅地与人类思维进行了比较,就像“人工智能”这个词本身一样,这掩盖了人类思维和机器学习当前状态之间的巨大差距。大型语言模型(LLM)是统计推理算法。他们预测一系列事物中的下一个最可能的事物,例如一个句子中的单词。它们产生了看起来非常像人类写作的东西,因为它们已经训练过大量的人类写作,以预测人类将会写什么。
您可能已经注意到,这与您“如何理解、综合和生成知识”根本不相似。与每个人一样,您通过直接与世界互动来学习世界。您对物理对象(例如树和桌子)、抽象概念(例如贫困和伦理)以及其他人的思想和感受进行了概念发展。您已经学会使用语言来谈论和处理这些概念,但是对于您来说,语言只是一种层次,一种分享和完善您对世界的精神图画的方式。对于LLM来说,没有精神图画;语言是唯一的。
当然,LLM最近取得了惊人的能力飞跃,导致微软研究人员声称,OpenAI最新的模型GPT-4包含了“一些”通用智能的火花。而LLM并不是AI研究的唯一途径。不能排除机器最终会开发出更像我们智能的东西——尽管也有很多理由认为它最终会变得比人类更陌生。
然而,对于Andreessen的论点来说,使你认识到AI正朝着完全类人智能的理想版本迈进是至关重要的,因为他接下来要列举这种形式的AI将如何使世界变得更好。
永远不再做出糟糕的决策?
在Andreessen承诺的AI辅助世界中,“每个孩子都将拥有一位AI导师,它具有无限的耐心、无限的同情心、无限的知识和无限的帮助。”每个成年人都将拥有一位“AI助手/教练/导师/训练师/顾问/治疗师”,它“将在所有生活的机会和挑战中存在,最大程度地提高每个人的成果。”将AI教练提供给像首席执行官和政府官员这样有影响力的人“可能是所有增强措施中最重要的”,因为“领导人做出更好的决策的放大效应是巨大的。”
这里有两个关键盲点。首先是假设这些AI小伙伴将是“无限的知识”——这是一个极大的伸展,因为现在LLM经常凭空编造事实,有时甚至在其人类用户指出错误后仍然如此。 (这是因为,如上所述,LLM只是单词的统计模式,没有关于单词背后现实的概念。)
更令人不安的是这种假设,即人类将使用即使是远远优越的AI来做出“更好”的决策。对谁更好呢?一位“无限耐心”和“无限帮助”的AI教练可能会像设计更高效的制造流程或更公正的福利框架一样乐于帮助其人类主人发动种族灭绝。
好吧,您可能会说,但是如果AI辅助工具被编程成不仅仅是最大限度地提高其人类能力,而是将其引导远离社会通病呢?不错——除了Marc Andreessen会坚决反对这个建议。
他的帖子大部分时间都在攻击人们对于AI的大胆猜测之一:AI将传播仇恨言论和虚假信息。但需要明确的是,他并不认为AI不会传播仇恨言论和虚假信息。他仅仅指出社交媒体管制具有诸多问题和困难(没错!),那些相信进行此类管制的人大多在政治左派(同样正确!),因为“AI极可能成为世界上一切的控制层”(呃,好的?)所以无论后果如何,不应对其进行管制。
现在,这是一个人们可以选择采取的立场,但它与人们的AI教练使世界更美好的想法根本不一致——即使它们究竟能够停止胡编乱造而变得有用。如果像Andreessen坚称的那样,将AI编程设定为拥有某些价值观是行不通的,那么AI教练所能做的就只是帮助人类变得更善于创造他们所想的世界,这…你看看你周围的世界吧。
当然,杰出的科学家将提出更出色的生命拯救药物和环境拯救电池化学物质。但是,每个凶残、犯罪、贪婪和操纵性强的阴谋家都将更擅长利用其他人。在历史上,没有一项技术已经改变了人类的基本本性。
Andreessenvs超市自助售货机
Andreessen使用可疑的逻辑方式来应对人们普遍担心AI将导致失业的问题。他的论点是AI与之前的技术进步没有任何区别,而之前的技术进步并没有消灭就业岗位。从长远来看,这无疑是正确的:新技术会摧毁一些工作,最终创造出其他工作。但是他得出这个结论的方式却简单得近乎可笑。
Andreessen首先设置一个草人论点:AI将“夺走我们所有的工作”。就是,真的所有。然后他通过指出所谓的“劳动力数量谬误”来打破这个论点。所谓“劳动力数量谬误”,是“错误认为经济中存在固定数量的劳动力要做的工作,要么由机器完成,要么由人完成——如果由机器完成,那么就没有工作可以让人做。”
我会感到惊讶,如果Andreessen的受众真的相信这种劳动力数量谬误的,但是他还是介绍了生产率增长的概念,好似这是对读者的新启示。他认为,当技术使企业更加生产力时,他们通过降低价格将节省的成本传递给顾客,这将使人们有更多的钱来购买更多的东西,从而增加需求,增加生产,形成美好的自我维持的良性循环。更好的是,因为技术使工人更有生产率,他们的雇主会支付更多的工资,这使得他们有更多的钱可供支配,因此增长会双倍提升。
这个论点有很多问题。当公司变得更有生产力时,除非它们被竞争或监管迫使,否则它们不会将节省的成本传递给顾客。在许多地方和许多行业,特别是在公司越来越大、越来越占主导地位的地方,竞争和监管都很薄弱——想想在本地商店关闭的城镇中的大型商场。 (而且,Andreessen并不会忽视这一点。他的“是时候开始建设了”帖子抨击了“阻碍市场竞争的力量”,如寡头垄断和监管捕获。)
此外,大公司比小公司更有可能拥有实施AI的技术资源,并从中获得实质性的益处——毕竟,在需要大量数据进行分析时,AI最为有用。因此,AI甚至可能减少竞争,使使用它的公司的所有者获得丰厚的利润,却不会降低其顾客的价格。
然后,尽管技术可能使公司更有生产力,但它只有在某些情况下才使个人工人更有生产力(所谓的边际生产力)。在其他情况下,它只是允许公司自动化一部分工作并雇用较少的人员。Daron Acemoglu和Simon Johnson的书《权力与进步》是了解技术如何历史性地影响就业的长篇但宝贵的指南,将这个称为“一般自动化”。
例如,以超市自助收银机为例。这些不会使剩余的收银员更有生产力,也不会帮助超市吸引更多的购物者或销售更多的商品。它们只是允许超市放弃一些员工。许多技术进步可以提高边际生产力,但这本书认为,它们是否这样取决于公司选择如何实施它们。一些用途可以提高工人的能力;另一些,如一般自动化,只是提高整体的底线。如果其工人或法律迫使公司这样做,公司通常只会选择前者。(在我们的播客《愉快的未来》中,可以听到Acemoglu与我讨论这个话题。)
真正令人担忧的关于AI和工作的问题,Andreessen完全忽略了,即尽管许多人会很快失去工作,但由AI创造的新产业和市场中出现的新类型工作会需要更长的时间,并且对许多工人而言,重新学习技能将很难甚至无法实现。而且,这也发生在迄今为止的每次重大技术动荡中。
当富人越来越富
Andreessen想让你相信的另一件事是,AI不会导致“灾难性的不平等”。再次,这有点像草人论点——不平等不一定要灾难性才比今天更糟。奇怪的是,Andreessen似乎在自己的论点中自相矛盾。他说,技术不会导致不平等,因为发明技术的人有动机让尽可能多的人可以使用它。作为“经典例子”,他引用了Elon Musk将特斯拉从豪华品牌变成大众市场汽车的计划——他指出,这使Musk“成为了世界上最富有的人”。
然而,当Musk将特斯拉推向大众化时,许多其他技术也已经普及,但在过去的30年中,美国的收入不平等却缓慢而稳定地上升。这似乎并不像是一个反对技术造成不平等的论点。
好的一面
我们现在来到Andreessen的论述中明智的观点。Andreessen在否认超级智能AI将摧毁人类的观点时是正确的。他将其视为一个长期存在的文化模因——关于人类创造物失控的最新演变,他指出,AI甚至决定杀害我们所有人的想法是一个“类别错误”——它假定AI有自己的思想。相反,他说,AI“是数学-代码-计算机,由人们创建,由人们拥有,被人们使用,由人们控制。”
这是绝对正确的,是对像Eliezer Yudkowsky这样的人对世界末日的警告的一个受欢迎的解药,完全与Andreessen之前声称给每个人一个“AI教练”将自动使世界更好的说法不一样。正如我已经说过的:如果人们建造、拥有、使用和控制AI,他们将按照他们想要的方式使用它,这可能包括将地球烤得干干净净。
这种说法引出了第二个明智的观点。这是Andreessen解决人们会利用AI做坏事的担忧,例如设计生物武器、入侵五角大楼或实施恐怖主义行为。他说这是合法的担忧,但解决方法不是限制AI。
他在一定程度上是正确的。人们可以利用AI做坏事的种类已经是非法的,因为它们是不好的。良好立法的一般原则是瞄准伤害而不是手段。无论是用枪、刀还是AI控制的无人机进行谋杀,它都是谋杀。在聘用方面的种族歧视同样无论是雇主查看你的照片,从简历上的姓名推断你的种族,还是使用包含对有色人种存在无意偏见的筛选算法,都是一样的。而旨在遏制特定技术的立法可能会随着技术变革而过时。
然而,有些造成伤害的手段比其他手段更加有效,需要特别的立法。即使在最自由的美国州,也不是每个人都被允许拥有和携带枪支,更别说更大的武器了。如果由AI控制的无人机谋杀成为一种现象,您可以确信我们将看到更严格的无人机法律。
AI-enabled犯罪可能需要改变的不仅是法律,还包括执法。当局可能需要新的技术来调查这些犯罪,就像他们需要学习追踪在暗网上使用加密货币进行交易的毒品交易商一样。
在某些情况下,解决问题的方法不是新的法律,而是行业采用标准。在美国尤其是,由于政治化的虚假信息定义,很难将散布虚假信息定为犯罪。但是,Andreessen指出,“如果你担心AI会产生虚假人物和虚假视频,答案是构建新的系统,人们可以通过加密签名验证自己和真实内容。”
是的,我认为还需要采取几个进一步步骤。首先,AI公司也应采用共同标准,在AI生成的图像和视频上附加数码签名。(至少已经有一种此类标准,即Content Authenticity Initiative,同时提供了一种验证内容的方法,即使签名被删除也可以验证。)接下来,社交媒体平台、新闻网站等应为任何此类内容标注,这样任何看到它的人都知道它的来源,而不必去搜索它。
Andreessen以前设定过重大技术转变的叙述。在某些方面,他正在再次尝试这样做非常受欢迎。当前有关AI的大多数公众话语都是一种狂热的混合体,既有末日恐慌,又有憧憬乌托邦主义,以至于任何人都很难有清晰的立场。Andreessen的话对许多人都有分量,他打破了一些最明显的错误恐惧,这是好的。
不幸的是,他所做的方式几乎像是他的“软件正在吞噬世界”宣言的自嘲。但除此之外,它有助于揭示末日和炒作之空洞。问题是,正如我之前写过的那样,人们显然很难以其他方式进行思考。
从WIRED获得更多信息
1. 在你的收件箱中获取WIRED标志性档案中的最佳故事
3. 疫情的洗手液激增爆炸性的遗产
4. 科学家让人们服用致幻药——然后抹掉他们的记忆
5. 我让AI chatbot帮我购物,它们都失败了
6. 一场争夺战正在展开,试图破解来自外星人的“测试”信号
7. 比赛正在努力打破王国的眼泪
8. 通过Gear团队对帐篷、雨伞和机器人吸尘器的最佳选择来迎接新季节
Gideon Lichfield是WIRED所有版本的总编辑。1998年,他离开英国,自称对啤酒、酵母提取品和足球不感兴趣,并在墨西哥城、莫斯科和耶路撒冷居住后移居美国。曾担任MIT Technology Review的总编辑。阅读更多。
所有评论