Cointime

扫码下载App
iOS & Android

谷歌 DeepMind CEO Demis Hassabis 深入剖析谷歌人工智能大洗牌,以及计划如何保持竞争力

个人专家

作者:Nilay Patel. 编译:Cointime.com QDD

今天,我与谷歌DeepMind的首席执行官Demis Hassabis进行了对话。DeepMind是谷歌内部的一个新创部门,负责公司全面的人工智能项目。谷歌DeepMind是一个内部合并的结果:谷歌在2014年收购了Demis的DeepMind初创公司,并在母公司Alphabet内部将其作为一个独立公司运营,而谷歌本身则有一个名为Google Brain的AI团队。

多年来,谷歌一直展示其AI演示,但随着ChatGPT的爆炸和微软在搜索领域的新威胁,谷歌和Alphabet的首席执行官桑达尔·皮查伊在今年早些时候决定将DeepMind整合到谷歌内部,从而创建了谷歌DeepMind。

有趣的是,Google Brain和DeepMind并不一定兼容,甚至没有专注于相同的事物:DeepMind以将人工智能应用于游戏和蛋白质折叠模拟而闻名。那个击败世界围棋冠军的AI,AlphaGo,就是由DeepMind开发的。与此同时,Google Brain更专注于众所周知的生成式AI工具集:用于聊天机器人的大型语言模型,Google照片中的编辑功能等等。这是一次文化冲突和一项重大的结构决策,旨在更具竞争力,并更快地推出AI产品。

竞争不仅仅是OpenAI和微软——你可能已经在网络上看到过谷歌工程师最近流传的备忘录,声称谷歌在AI领域没有竞争moat,因为在通用硬件上运行的开源模型正在迅速发展,并赶上了这些巨头所运行的工具。Demis证实了备忘录的真实性,但表示这是谷歌辩论文化的一部分,他不同意备忘录的观点,因为他对谷歌的竞争优势有其他看法。

当然,我们还讨论了AI风险,尤其是人工通用智能(AGI)。Demis并不避讳他的目标是构建AGI,我们讨论了应该制定哪些风险和规定,并在何时制定。最近,Demis与OpenAI的Sam Altman和其他人一起签署了一份关于AI风险的22字声明,简单地写着:“缓解AI带来的灭绝风险应当成为与大规模社会风险(如大流行和核战)并列的全球优先事项。”这听起来很轻松,但现在真的存在这样的风险吗?还是这只是一个分散注意力的手段,目标更具体的问题,比如AI在各种创意行业中取代了大量劳动力?我们还讨论了AI正在创造的新型劳动力——在肯尼亚和印度等国家从事数据分类的低薪工人军团,以训练AI系统。我们刚刚发布了一篇关于这些工人的重要特写报道。我想知道Demis是否认为这些工作将会长久存在,还是只是AI繁荣的暂时副作用。

这一次真正涵盖了Decoder的重点:有关人工智能的重大思想,伴随而来的许多问题,一系列复杂的决策,当然还有其中的一个巨大组织结构决策。我和Demis进行了深入探讨,但我仍然认为我们没有涵盖所有内容,所以我们很快将再次邀请他。

好了,Demis Hassabis,谷歌DeepMind的首席执行官。开始吧。

本文经过轻微编辑以方便阅读。

Demis Hassabis,你是谷歌DeepMind的首席执行官。欢迎来到Decoder。

谢谢邀请。

我认为我们从未有过一个比你更适合做Decoder的嘉宾了。AI领域有一个重大的想法,它带来了挑战和问题,而对于你来说,还有一个庞大的组织结构调整和一系列关键决策。我很高兴你能来。

很高兴能来。

让我们先从谷歌DeepMind本身开始。谷歌DeepMind是谷歌的一个新部分,由谷歌的两个现有部分组成。其中一个是我们在报道谷歌时熟悉的AI团队Google Brain,由杰夫·迪恩(Jeff Dean)负责。另一个是你创办的公司DeepMind。你在2014年将它出售给Alphabet,而你则独立于谷歌之外。它在那个控股公司Alphabet的结构下作为一个独立公司运营,直到现在。我们从一开始就聊起,为什么DeepMind和Google Brain最初是分开的?

正如你提到的,我们实际上是在2010年开始创办DeepMind的,那已经是很久以前了,尤其是在人工智能的时代。那个时候可以说是AI的史前时代了。我和其他创始人来自学术界,了解学术界的动态,当时深度学习等技术刚刚被发明出来。我们非常推崇强化学习。我们能看到GPU和其他硬件正在逐渐成熟,这些都为专注于通用学习系统的研究提供了巨大的机会,同时我们还从神经科学中吸取了一些思想,比如大脑的工作方式。于是我们在2010年将所有这些元素汇集在一起,我们有一个假设,即我们能够迅速取得进展,而我们最初的游戏系统就证明了这一点。然后,在2014年,我们决定与当时的谷歌合作,因为我们能够预见到将需要更多的计算资源。显然,谷歌拥有世界上最多的计算机资源,这是我们能够专注于推动研究进展的明显选择。

所以你被谷歌收购了,然后在某个过程中,谷歌重新调整了自己。他们成立了Alphabet,谷歌成为了Alphabet的一个部门。Alphabet还有其他部门,而DeepMind则独立于其中。这里我想重点关注的是在一开始时,谷歌Brain正在做的事情,也就是大量的LLM研究。我记得六年前,谷歌在Google I/O上展示了LLM技术。然而,DeepMind专注于赢得围棋比赛和蛋白质折叠等完全不同类型的人工智能研究,与谷歌无关。为什么DeepMind不在谷歌内部?为什么它在Alphabet内部?

这是在我们被收购时的一部分协议,我们将致力于推动通用人工智能(AGI)或通常称为AGI的研究,即能够在广泛的认知任务上进行操作,并且基本上具备人类的所有认知能力。

同时,我个人非常热衷于利用人工智能加速科学发现。这也解释了像AlphaFold这样的项目,我相信我们会再次谈到它。但是,从DeepMind成立之初,甚至在DeepMind成立之前,我就认为游戏是开发高效、快速AI算法的理想测试场所或证明场所。你可以生成大量的数据,目标函数非常明确:显然是赢得游戏或最大化得分。在人工智能研究的早期阶段,使用游戏有许多原因,这也是我们取得如此成功并且能够如此快速地取得进展的重要原因,比如AlphaGo,这个程序击败了古老的围棋世界冠军。

对于整个领域来说,这些都是非常重要的证明点,证明了这些通用学习技术是有效的。当然,我们也在深度学习和神经网络方面进行了大量的工作。我想说,我们的特长就是将这些技术与强化学习相结合,使这些系统能够主动解决问题、制定计划,并取得胜利。就差异而言,我们始终有推动研究议程、推进科学进步的任务。这是我们得到的重点关注,也是我所期望的重点关注。而谷歌内部的AI团队,比如Google Brain,他们的任务有些不同,更接近产品,显然更接近谷歌的其他部门,为谷歌注入令人惊叹的人工智能技术。我们还有一个应用部门,将DeepMind的技术引入谷歌产品。但是,我们的文化和任务有很大的不同之处。

从外部看,时间线如下:大家都在长时间地从事这项工作,我们也一直在长时间地讨论它。这是一群像我这样的怪胎记者、一群研究人员的谈资,我们在谷歌的活动中也会讨论这个话题。

然后ChatGPT发布了,甚至都不是作为一个产品。我甚至认为,当它发布时,连Sam [Altman]也不会说它是一个伟大的产品,但它就这样发布了,人们可以使用它。然后大家都惊呆了,微软基于ChatGPT发布了必应(Bing),世界变得颠倒了,谷歌则通过合并DeepMind和Google Brain做出了回应。这就是外部的情况。从内部看是否也是这样?

时间线是正确的,但这些并非直接的结果,从某种意义上说更多是间接的。谷歌和Alphabet一直以这种方式运作。他们让许多花朵绽放,我认为这一直是谷歌从一开始由Larry [Page]和Sergey [Brin]建立的方式。这一方式非常成功,使他们能够有机地创造出令人难以置信的事物,成为如今令人惊叹的公司。在研究方面,我认为这非常适合进行研究,这也是我们在2014年选择谷歌作为合作伙伴的另一个原因。我觉得他们真正理解基础研究和前瞻性研究的意义,他们将促使我们在研究上变得非常有雄心,并使我们能够超越自我。你已经看到了这些成果,对吗?

无论如何衡量,AlphaGo、AlphaFold以及超过20篇《自然》和《科学》论文等等,所有用于交付惊人的前沿研究的正常指标,我们都能够做到。但在某种程度上,ChatGPT、大型模型以及公众对此的反应证实了人工智能进入了一个新时代。顺便说一句,对于我们在前线的所有人,包括OpenAI在内,这种爆发性的反应实际上有点令人惊讶,因为我们和一些其他初创公司(如Anthropic和OpenAI)都拥有这些大型语言模型。它们的能力差不多。

因此,令人惊讶的并不是技术本身,因为我们都理解这一点,而是公众对此的渴望以及由此产生的热议。我认为这表明我们所有人在过去两三年中一直有一种感觉,那就是这些系统现在达到了一种成熟和复杂程度,足以真正摆脱研究阶段和实验室,进入为下一代产品、体验乃至突破提供动力的阶段,比如AlphaFold直接对生物学家有用。因此,对我来说,这只是AI进入了一个新阶段的标志,AI在实际生活中对人们有实际用途,并能够解决那些真正重要的困难现实问题,而不仅仅是一些好玩的游戏或奇趣事物。

当你意识到这种转变时,我认为这就需要你改变对待研究的方式,以及对产品和其他方面的关注程度。而我们所有人都认识到的结论是:现在是精简我们的AI工作并更加专注的时候。显而易见的结论就是进行合并。

我想在这里停顿一下,问一个哲学问题。

当然。

我觉得ChatGPT引发的AI爆炸,实际上是根植于AI能够做一些普通人可以做的事情。我希望你给我写封电子邮件,我希望你给我写个剧本,也许语言模型的输出只有C+级别,但它仍然是我可以做到的。人们可以看到它。我希望你填写这个照片的其余部分。这是人们可以想象做到的事情。也许他们没有这样的技能,但他们可以想象。我们之前看到的所有人工智能演示,甚至包括你们的AlphaFold,你们会说,这将对世界上的所有蛋白质进行建模。

但我不能做到这一点;应该由计算机来完成。即使是微生物学家也可能会想:“太棒了。我非常高兴计算机能够做到这一点,因为我只是在看看这需要我们多少时间,我们绝对做不到。”“我想击败世界冠军的围棋。我做不到。没关系,计算机可以做到。”

现在计算机开始做我可以做的事情,而且这些事情甚至不一定是最复杂的任务。阅读这个网页并向我提供摘要,这就是让人们开始思考的东西。我想知道为什么你认为这个行业没有看到这个转变的到来,因为我们一直非常关注那些人们无法做到的非常困难的事情,而似乎让所有人兴奋的是当计算机开始做人们经常做的事情。

我认为这个分析是正确的。我认为这就解释了为什么大型语言模型真正进入了公众意识,因为这是普通人,普通的“Joe Public”实际上可以理解和交互的事物。当然,语言是人类智能和我们日常生活的核心。我认为这解释了为什么聊天机器人特别火爆,即使我想说的是,AlphaFold实际上在AI领域对世界产生的最明显、最大的积极影响,因为如果你和任何生物学家交谈,现在有一百万个生物学家、研究人员和医学研究人员正在使用AlphaFold。我认为几乎是世界上的每个生物学家都在使用它。每个大型制药公司都在使用它来推进他们的药物发现计划。我有多位诺贝尔奖级别的生物学家和化学家与我交谈,谈论他们如何使用AlphaFold。

因此,一定范围内的全球科学家,他们都知道AlphaFold,它对他们的工作产生了巨大的影响并加速了他们的重要研究工作。但当然,普通人不知道蛋白质是什么,也不知道这些对于药物发现等事物的重要性。然而,对于聊天机器人来说,每个人都可以理解,这是令人难以置信的。让它为你写一首诗或其他每个人都可以理解、处理和衡量的事物。与他们所做或能够做到的相比,这是非常直观的。

似乎产品化的人工智能的关注点在于这些聊天机器人式的界面或这些生成产品,它们将为人们制作东西,这也是风险所集中的地方。但即使是关于风险的讨论也升级了,因为人们现在可以看到,“哦,这些工具可以做事情了。”你是否感受到在开发AlphaFold时有同样程度的审查?似乎没有人认为“哦,AlphaFold会毁灭人类”。

没有,但确实受到了很多审查,不过审查主要集中在一个非常专业的领域。我们咨询了超过30位专家,包括顶级生物学家、生物伦理学家和生物安全专家,实际上,我们与欧洲生物信息学研究所合作,发布了AlphaFold的蛋白质结构数据库,他们还指导我们如何安全地发布这些数据。因此,确实进行了很多审查,而我们咨询的人中绝大多数人的结论是,其益处远远超过了风险。尽管根据他们的反馈,我们对发布哪些结构进行了一些小的调整。所以确实进行了很多审查,但是它只发生在一个非常专业的领域。回到你的第一个问题,关于生成模型,我认为我们正处于一个令人难以置信的新时代的开端,这将在未来五到十年内展开。

这不仅涉及到利用AI推动科学的发展,还涉及到我们可以构建哪些产品来改善人们的日常生活,为数十亿人在他们的日常生活中提供帮助,使他们更加高效和丰富。我认为我们今天在聊天机器人领域所看到的只是冰山一角。AI的类型远远不止生成型AI。生成型AI现在非常流行,但我认为在此之后的下一波浪潮中,规划、深度强化学习、问题解决和推理等能力将再次回归,同时结合当前系统的能力。所以我认为,一两年后,如果我们再次进行对话,我们将讨论完全新类型的产品、体验和服务,具有前所未见的能力。实际上,我对构建这些事物非常兴奋。这也是我非常期待在这个新时代领导谷歌DeepMind并专注于构建这些由人工智能驱动的下一代产品的原因。

让我们继续讨论谷歌DeepMind本身,再进一步。Sundar Pichai找到你,说:“好的,我是Alphabet和谷歌的首席执行官。我可以做出这个决定。我要将DeepMind并入谷歌,将你们与谷歌Brain合并,你将成为首席执行官。”你对这个提示作何反应?

事情并不是那样。实际上,这更多是与各个相关团队的领导人和Sundar之间的一次对话,讨论了我们所见到的拐点,系统的成熟程度,在产品领域可能实现的成果,以及如何改善我们亿万用户的体验,以及这一切所需要的全部因素。这涉及到对重点的改变,对研究方法的改变,对所需资源的整合,例如计算资源。因此,我们讨论了一系列因素作为领导团队,并从中得出结论,包括合并和未来几年的计划以及合并实体的重点应该是什么。

您是否认为在谷歌内担任首席执行官与在Alphabet内担任首席执行官之间存在差异?

现在还为时过早,但我认为情况非常相似,因为虽然DeepMind是Alphabet的一个子公司,但与其他“Alpha Bet”(即谷歌母公司Alphabet)中的其他公司不同,我们已经与许多谷歌产品领域的团队和组织密切整合和合作。我们在DeepMind有一个应用团队,他们的工作是通过与谷歌产品团队合作,将我们的研究成果转化为产品的功能。实际上,过去几年中,我们已经进行了数百次成功的发布,只是在幕后安静地进行。因此,事实上,你每天在谷歌使用的许多服务、设备或系统都会在底层使用一些DeepMind的技术组件。我们已经有了这种整合的结构,而我们以科学进展和游戏进展而闻名,但幕后进行的很多基础工作影响着谷歌的所有部分。

我们与其他“Alpha Bet”(即谷歌母公司Alphabet)中的其他公司不同,他们需要在谷歌之外建立业务并成为独立的企业。这从来不是我们的目标或任务,即使作为一个独立的创业公司,我们也没有这个目标。现在,在谷歌内部,我们在产品服务方面的整合更加紧密,我认为这是一个优势,因为我们可以与其他产品团队进行更深入、更令人兴奋和更有雄心的合作,比我们在谷歌之外能够做到的更多。但我们仍然保持一定的灵活性,选择能够最大程度地推动我们的使命,即创建全球最强大、最通用的AI系统的过程中所优化的流程和系统。

报道称这实际上是一种文化冲突。你现在负责两者。你是如何构建团队的?Google DeepMind在你担任首席执行官下是如何组织的,你如何管理文化整合?

实际上,事实证明文化要比外界报道的要相似得多。最终,整个过程非常顺利和愉快,因为你谈论的是两个世界一流的研究团队,全球最好的人工智能研究机构之一,在双方都拥有不可思议的人才、悠久历史。在我们考虑合并和规划时,我们列出了每个团队的前十个突破性成果。当你把它们全部放在一起看时,这就是过去十年中支撑现代人工智能行业的突破性成果的80-90%。这是一群令人难以置信的人才,两边的团队都相互尊重。在过去的十年中,实际上在项目层面上已经有很多合作。

当然,我们彼此非常了解。我认为这只是一个关注点和协调的问题,涉及到两个团队在各个方面的重点是什么,可能会合作的其他领域,以及可能会有重叠的一些努力需要消除。所以说实话,这些都是相当明显的事情,但在AI旅程的发展过程中,这是很重要的。

你提到的这个东西,“我们将合并这些团队,我们将选择我们要做什么,我们将消除一些重复的努力。”这些都是结构问题。你已经决定了一个结构吗?你认为那个结构将是什么样的?

结构仍在发展中。我们只有几个月的时间。我们希望确保我们没有破坏任何东西,一切都在运行。两个团队都非常高效,进行了非常出色的研究,同时也与非常重要的产品事务紧密联系。所有这些都需要继续。

你一直在说两个团队。你是否将其视为两个团队,还是试图将其打造成一个团队?

不,当然是一个统一的团队。我喜欢称之为“超级团队”,我对此非常兴奋。但显然,我们仍在合并并形成新的文化和新的组合,包括组织结构。这是一个复杂的过程,将这两个大型研究团队合并在一起。但我认为,在夏天结束时,我们将成为一个单一的统一实体,我认为那将非常令人兴奋。我们在进行了几个月的合并后,已经感受到了一些好处和优势,比如两个团队之间的更紧密合作。但这只是开始,我们还有很长的路要走,确保我们合并的方式不会破坏任何事情,而是创造出更大的合作和协作机会。

你要做出很多决策。从你所描述的情况来看,这些决策都很复杂,而且在全球范围内,我们还需要决定如何进行监管。这是另一组非常复杂的决策。你是国际象棋冠军,也是一个制作游戏的人。你制定决策的框架是什么?我怀疑它比我听到的其他框架更加严谨。

是的,我想可能是这样。我认为如果你认真地玩国际象棋——从我童年开始,从四岁起,我就开始认真地玩国际象棋——它对大脑的发展非常有益。在国际象棋中,问题解决和战略规划对于许多事情和决策都非常有用。国际象棋本质上是在对手面前作出决策,这是非常复杂的过程,我认为这是一件很棒的事情。我主张将其作为学校课程的一部分进行教授,因为我认为它是一个非常出色的解决问题和决策能力的训练场所。然而,实际上,我认为更为重要的是采用科学方法。

我接受了博士和博士后的训练,当然,我的专业是神经科学,因此我学习了有关大脑的知识,但它也教会了我如何进行严格的假设检验和假设生成,并根据经验证据进行修正。整个科学方法,以及国际象棋的规划,两者都可以转化为商业领域。当然,你必须明智地将它们转化,不能过于学术化。在现实世界中,商业领域常常存在许多不确定性和隐藏的信息。因此,在国际象棋中,所有的信息都在棋盘上,这些技能不能直接转化,但我认为在正确的方式下,背后的思维方式非常有帮助。

你是如何将这两者结合起来做决策的?

我每天都要做很多决策,现在很难举一个例子。但我倾向于尝试规划并设想未来很多年的计划。所以我告诉你我尝试的方法是,我有一个终极目标。我很擅长想象,这是一种不同的技能,能够设想或想象一个完美的终点状态,无论是组织、产品还是研究。然后,我从终点开始,找出实现这个目标所需的所有步骤,并确定它们的顺序,以使最终结果尽可能可能实现。

所以这有点像国际象棋,对吧?从某种意义上说,你有一些计划,希望能够将对手将死,但实际上你还有很多步骤要走。那么为了提高达到最终目标的可能性,你必须采取哪些逐步改进你的位置的措施?我发现通过从终点回溯到当前状态,进行这种搜索过程非常有用。

让我们将这个方法应用于一些产品上。你说有很多DeepMind的技术应用在谷歌的产品上。我们可以看到的是Bard和搜索生成体验。谷歌照片等产品中也有人工智能的应用,但重点放在LLM的时刻,是Bard和搜索生成体验。它们不可能是最终状态。它们还没有完善。Gemini即将推出,我们可能会改进这两个产品,等等。当你思考这些产品的最终状态时,你看到了什么?

围绕谷歌的人工智能系统不仅仅存在于面向消费者的产品中,还存在于你可能没有意识到的内部。例如,最初,我们的人工智能系统就应用于谷歌数据中心的冷却系统,这些巨大的数据中心实际上将冷却系统的能耗减少了近30%,如果将这个减少的能耗乘以谷歌所有数据中心和计算机的数量,那将是非常巨大的。因此,实际上,有很多在幕后使用人工智能来不断提高这些系统效率的工作。但你说得对,当前的产品并不是最终状态,它们实际上只是途经点。就聊天机器人和这类系统而言,最终它们将成为令人难以置信的通用个人助手,你每天会多次使用它们,以便在日常生活中进行真正有用和有帮助的事情。

从阅读哪些书籍到对可能的现场活动的建议,再到为您预订旅行和计划旅行,以及协助您日常工作。我认为,当前的聊天机器人离实现这一目标还有很长的路要走,我们也知道缺少什么:像规划、推理和记忆这样的功能,我们正在努力开发这些方面的技术。我认为,在未来几年内,与今天的聊天机器人相比,我们可能会看到一种相对微不足道的状态。

我的背景是作为一位报道计算机的人。我认为计算机是一种相对模块化的系统。你看一个手机——它有一个屏幕、一个芯片、一个蜂窝天线之类的东西。我是否应该以这种方式看待人工智能系统?有一个非常具有说服力的人类语言接口LLM,背后可能是真正进行蛋白质折叠的AlphaFold,你是否以这种方式考虑将这些元素结合起来,或者说这是一种不同的进化路径?

实际上,有一个完整的研究分支致力于所谓的工具使用。这个想法是,这些大型语言模型或大型多模型模型,它们在语言方面非常擅长,当然可能还有一些其他能力,比如数学和可能的编码。但当你要求它们做一些专门的事情,比如折叠蛋白质、下国际象棋或类似的任务时,它们实际上会调用一个工具,这个工具可以是另一个人工智能系统,然后提供解决方案或答案给特定问题。然后通过语言或图像等方式将其传递回用户,通过中央大型语言模型系统。所以对用户来说,它可能实际上是看不见的,因为对用户而言,它看起来只是一个具有多种功能的大型人工智能系统,但在内部,实际上可以将人工智能系统拆分为具有专门功能的更小的子系统。

我实际上认为这可能是下一个时代。下一代系统将使用这些能力。你可以将中央系统视为几乎是一个开关语句,你用语言有效地提示它,并将你的查询、问题或其他需求与正确的工具相关联,以解决你的问题或提供解决方案,然后通过自然语言的最佳界面将其传递回给你,以一种非常易于理解的方式。

这个过程使你更接近通用人工智能(AGI),还是它让你达到某个最高状态,然后你需要做其他事情?

我认为这是通向AGI的关键路径,这也是我非常兴奋于这个新角色的另一个原因,也是为什么我希望能够参与更多的产品和事务,因为我实际上认为从现在开始的产品路线图和研究路线图,朝着AGI或人类级别的人工智能的方向非常相互补充。为了构建那些在日常生活中有用的通用助手之类的产品,我们需要在一些关键能力上进行突破,比如规划、记忆和推理,我认为这对我们达到AGI非常重要。所以我实际上认为现在产品和研究之间存在一个非常巧妙的反馈循环,它们可以有效地相互帮助。

我感觉我在节目一开始的时候请了很多汽车公司的首席执行官。我问过他们所有人,“你认为我们什么时候能够拥有自动驾驶汽车?”他们都说五年,而且已经说了五年了,对吧?

是的。

我要问你一个关于AGI的问题,但是我觉得我最近与一些人交谈后,这个数字变小了。你认为我们还需要多少年才能拥有AGI?

关于要实现AGI还需要多少次重大突破,有很多不确定性,这些重大创新性的突破与只是扩大现有解决方案之间的区别很大。这在时间框架上非常依赖于这一点。显然,如果还需要很多突破,那么这些突破会更加困难且需要更长时间。但就目前而言,如果在未来十年左右我们接近AGI或类似AGI,我不会感到惊讶。

在未来十年。好的,我会在10年后再与你对话,看看情况如何。

当然。

但这不是一条直线。你称之为关键路径,但这并不是一条直线。沿途会有突破,可能会打破既定的轨道,将你带向不同的方向,你认为是这样吗?

研究永远不是一条直线。如果是直线,那就不是真正的研究。如果你在开始之前就知道答案,那就不是研究。因此,研究和前沿的蓝天研究总是伴随着不确定性,这就是为什么你无法确切预测时间表的原因。但你可以观察趋势,我们可以看看当今正在进行的项目和想法的质量,看看它们的进展情况。在未来的五到十年里,情况可能会两种走向之一,我们可能会渐近稳定,也可能会遇到当前技术和扩展的障碍。如果发生这种情况,我也不会感到惊讶,我们可能会发现,仅仅扩展现有系统会导致系统性能递减的收益。

实际上,这将意味着我们需要一些新的创新来进一步取得进展。目前,我认为没有人知道我们处于哪种情况下。所以对这个问题的答案是,你必须尽可能地推动两者。既要扩大和完善现有系统和想法的规模和工程,又要大力投资于探索性研究方向,以寻找可能解决当前系统弱点的创新。作为一家拥有丰富资源的大型研究机构,我们可以最大限度地投入这两个方向。从某种意义上说,我对于“我们是否需要更多的突破,还是现有系统可以一直扩展下去?”这个问题持中立态度。我认为这是一个实证问题,应该尽可能地推动两者。然后结果会说明一切。

这是一种真正的紧张关系。当你在Alphabet的DeepMind工作时,你非常专注于研究,然后研究被转移到Google,由Google的工程师将其转化为产品。你可以看到这种关系是如何运作的。现在,你在Google内部。作为一家公司,Google承受着很大的压力要赢得这场竞争。这些都是产品方面的考虑。这些都是“使其真实并在市场上取胜”的问题。有一份流传出来的备忘录,据称是来自Google内部。上面写着,该公司没有moat,开源的人工智能模型或泄漏的模型将在人们的笔记本电脑上运行,并且它们将超越公司,因为开放计算的历史将超越封闭源代码的竞争对手。那个备忘录是真实的吗?

我认为那个备忘录是真实的。我认为Google的工程师经常撰写各种文件,有时会泄漏并在互联网上传播。我认为这只是发生的一种情况,但我不会过于认真对待。这只是一些观点。我认为听听这些观点很有趣,但你必须确定自己的方向。我没有详细阅读过那份具体备忘录,但我不同意其中的结论。我认为开源和发布是显而易见的,我们在DeepMind的历史中已经做了大量的工作。比如AlphaFold就是开源的,对吧?所以我们显然相信开源和支持研究和开放性研究。这是科学讨论的关键,我们一直是其中的重要一环。Google当然也是如此,它发布了transformers等等。我们在这个领域做了很多工作。

我们在这个领域做了大量的工作。但我也认为还需要考虑其他因素。当然有商业方面的考虑,还有关于如何防止非法使用这些非常强大的系统的安全问题。如果坏的行为者能够访问它,怎么办?他们可能并不具备太高的技术能力,因此他们无法自己构建这样的系统,但他们肯定可以重新配置已经存在的系统。对于这些问题我们需要考虑更多,而不仅仅是回答你的问题,看看Google和DeepMind在创造新的创新和突破方面的历史。在过去十多年里,我们做出了许多创新和突破,我愿意押注于我们,我非常有信心,这种情况将在未来的十年内继续发生,就像过去一样。

你认为这就是moat吗:我们发明了大部分的东西,所以我们将会发明大部分的未来东西吗?

我并不将其视为moat,但我是一个非常有竞争力的人。这也可能是我从国际象棋中获得的另一个特质,许多研究人员也是如此。当然,他们从事研究是为了发现知识,最终我们在这里的目标是改善人类的状况。但我们也希望能够成为首个做出这些事情的人,并且以负责任和大胆的方式来完成。我们拥有世界上一些最优秀的研究人员。我认为我们在全球范围内拥有最庞大的优秀研究人员集合,并且具备令人难以置信的业绩记录。未来没有理由为什么这种情况不能继续下去。实际上,我认为我们的新组织和环境可能会有利于产生更多和更快速的突破,超过我们过去所做的突破。

你让我想到了风险和监管问题。我想谈谈这个,但首先我想换个角度。你刚刚提到了需要完成的所有工作,你谈到了深度强化学习,以及它的工作原理。我们与《纽约杂志》合作推出了一篇巨大的封面报道,讲述了实际进行培训和数据标注的任务人员。与人工智能相关的工作涉及许多劳工问题。好莱坞的编剧们正在举行罢工,因为他们不希望ChatGPT撰写大量的剧本。我认为这是合适的。

但是,现在正在出现一种新型的劳动力阶层,全球范围内的一群人坐在电脑前,判断“是,那是一个停车标志。不,那不是一个停车标志。是的,那是可以穿的衣服。不,那不是可以穿的衣服。”这种状态会持续下去吗?这只是一种新的工作类型,需要为这些系统的运作而进行吗?或者这种情况会结束吗?

这很难说。我认为这肯定是一段时间内的现象,与当前系统和当前所需相关。我们一直非常谨慎地表示,对于我们来说,我认为你在文章中引用了我们的一些研究人员,我们非常谨慎地支付了生活工资,对我们进行这种工作的方式和合作伙伴的选择非常负责任。我们也在内部团队中开展这项工作。实际上,我对我们在这方面的负责任表现感到非常自豪。但展望未来,我认为可能会有一些方法,特别是一旦你拥有数百万用户,系统本身就能够自我推动。或者可以想象出AI系统能够实际上进行自我对话或自我评估的能力。

这有点像将语言系统变成一个类似游戏的环境,这正是我们非常擅长并一直在思考的地方,其中强化学习系统的不同版本可以以某种方式相互评分。可能这种评分不如人类评分员准确,但实际上这是一种有用的方法来进行一些基本的评分,然后通过与人类评分员的比对来进行校准,而不是让人类评分员对所有内容进行评分。因此,我认为未来会出现许多创新,可以帮助减少对人类评分员的需求。

但你认为人类评分员始终存在于整个过程中吗?即使在接近通用人工智能(AGI)时,似乎仍然需要有人告诉计算机它的工作是否做得好。

我们以AlphaZero为例,这是我们的通用游戏系统,最终能够自学习任何双人游戏,包括国际象棋和围棋。有趣的是,我们设置了这个系统,让它可以与自身进行数千万次对局。因此,实际上,它建立了自己的知识库。它从随机开始,与自己对弈,自我推动,训练更好的版本,并让这些版本在某种程度上进行小型锦标赛。但最后,你仍然希望将其与人类世界冠军或其他以传统方式构建的外部计算机程序进行测试,以便校准您自己的指标,这些指标告诉您这些系统根据这些目标或指标正在改进。

但在通过外部基准或度量进行校准之前,您并不确定。根据情况而定,人类评分员或人类基准,人类专家通常是校准您的内部测试的最佳选择。并确保您的内部测试实际上与现实相符。这对于研究人员来说是令人兴奋的事情,因为当您将研究成果应用于产品,并且数百万人每天都在使用它时,您会获得现实世界的反馈,而这是不可回避的,对于您构建的任何理论或系统来说,这是最好的测试。

你认为数据标注对于AI系统来说是一项有价值或适当的工作吗?其中有一种看法是:“我要告诉计算机如何理解世界,以便它在未来可能会替代其他人。”这其中存在一种循环,似乎值得进行更多的道德或哲学思考。你有没有花时间考虑这个问题?

是的,我确实考虑过这个问题。我不是以那种方式看待它。我认为评分员所做的是开发周期的一部分,用于使这些系统更安全、更有用,并对每个人更加可靠。所以我认为这是一个关键组成部分。在许多行业中,我们对技术和产品进行安全测试。对于AI系统来说,现在最好的方法就是拥有人类评分员。我认为在未来的几年里,我们需要进行更多的研究。我一直呼吁并且我们正在做的就是为能力建立强大而可靠的评估基准,以便我们知道如果系统通过了这些基准,那么它具有某些属性,它在这些特定方面是安全和可靠的。

而现在,我认为我们在学术界、公民社会和其他地方有很多关于这些测试的好建议,但我认为它们还不够稳健或实用。我认为它们基本上还是理论和哲学的性质,需要使其实用,以便我们可以根据这些测试对我们的系统进行经验性评估,然后这将给我们对系统性能的一些保证。

一旦我们拥有了这些,那么对人类评分员的需求将减少。我只是认为目前需要大量的人类评分员,因为我们还没有这些独立基准。部分原因是我们还没有严格定义这些属性。这实际上几乎属于神经科学、心理学和哲学领域,对于人脑,这些术语甚至都没有得到恰当的定义。

你曾签署过来自AI安全中心的一封信——OpenAI的Sam Altman和其他人也签署了这封信——该信警告人们AI的风险。然而,你们正在推动前进,Google已经进入市场,你必须取得胜利,你曾形容自己是有竞争力的。这其中存在一种紧张:需要通过产品在市场上取胜,但又希望“哦,天哪,请对我们进行监管,因为如果不以某种方式加以控制,原始资本主义将推动我们在AI领域走向悬崖。”你如何平衡这种风险?

这是一种紧张感。这是一种有创造性的紧张感。我们在Google中常说我们想要既大胆又负责任,这正是我们正在努力实现和展示的。因此,大胆部分是勇敢和乐观地看待人工智能可以为世界带来的巨大益处,以及帮助我们应对疾病、气候变化和可持续发展等最大挑战的惊人好处。人工智能在帮助科学家和医学专家解决这些问题方面发挥着重要作用。我们正在努力在所有这些领域进行工作。再次提到AlphaFold,我认为它是其中一个最好的例子,展示了我们在这方面的愿景。所以这就是大胆的部分。而负责任的部分是尽可能地以最周全的方式进行,尽量提前预见可能出现的问题。

尽量预测可能出现的问题,而不是事后。也许这在社交媒体上发生过,这是一个令人难以置信的增长故事。显然,它在世界上产生了很多好处,但随后我们意识到15年后,这些系统也带来了一些意想不到的后果。我希望在人工智能领域开辟一条不同的道路。我认为人工智能是一项深远而重要的强大技术。对于这样一个具有潜在变革能力的技术,我们必须以一种不同的方式去对待。这并不意味着不会犯错误。这是非常新的,任何新事物都无法事先预测一切,但我认为我们可以尽力做到最好。

那么签署那封信的目的就是要指出,我认为这不太可能发生,我不确定时间表,但这是我们应该考虑的问题,特别是在接近通用人工智能(AGI)的时候。目前我们离那还很远。因此,这不是关于现有技术甚至未来几年的问题,但在某个时刻,考虑到技术的快速发展,我们将需要思考这些问题,我们不希望在问题发生前夕才开始思考。我们需要利用现在的时间,未来的五年、十年或其他任何时间,进行研究、分析,并与各种利益相关者,包括公民社会、学术界和政府展开合作,以找出在这些系统迅速发展的同时,确保最大化收益、最小化风险的最佳途径。

这主要包括目前的研究工作,如提出更好的评估和基准,以对这些前沿系统的能力进行严格测试。

你谈到了AI模型的工具使用,你可以要求一个大型语言模型做某些事情,然后它会去请求AlphaFold为你折叠蛋白质。将这些系统结合和整合起来,从历史上看,新的行为会出现,一些无法预测的事情开始发生。你对此感到担忧吗?目前没有严格的测试方法。

是的,确实。我认为这正是我们应该提前研究和思考的内容:随着工具使用的日益复杂化以及可以以不同方式将不同的AI系统结合在一起,出现了新的行为空间。当然,这种新行为可能非常可取并且非常有用,但在错误的人手和不良行为者手中,可能会潜在地造成危害,无论是个人还是国家。

假设美国、欧盟和中国就某个框架达成协议来监管AI,然后朝鲜或伊朗说:“见鬼吧,没有规则。”并将其作为不良行为的AI研究中心。这样会产生怎样的结果?你是否预见到了可能出现这样的世界?

是的,我认为这是一个可能的世界。这就是为什么我一直在与政府进行讨论——主要是英国和美国,但也包括欧盟——我认为无论在未来几年内制定什么样的规章或准则,以及对测试的要求,理想情况下应该是国际性的,需要在这些安全措施上进行国际合作,并达成国际协议,以控制这些系统的部署等等。现在我不知道这有多大可能性,考虑到世界上的地缘政治紧张局势,但这绝对是最理想的状态,如果可能的话,我们应该努力追求这一目标。

如果政府通过一项规定,规定“Google允许做什么,Microsoft允许做什么。你负责,你要负责任。”你会接受对MacBook的某种限制吗,因为AI的威胁太可怕了?这是我担心的问题。实际上,如果你有开源模型,人们会将其用于各种奇怪的事情,我们会要求英特尔限制其芯片的功能吗?我们如何实施这个措施,以使其真正影响到每个人,而不仅仅是说如果Google做了我们不喜欢的事情,我们就把Demis关进监狱。

我认为这些都是当前正在进行辩论的重大问题。我确实对此感到担忧。一方面,开源和加速科学讨论有很多好处,为许多开发人员提供了访问机会,但另一方面,如果有些人利用这种访问权进行不良行为并大肆传播,可能会产生一些负面后果。我认为这是接下来几年需要解决的问题。因为目前来看,这是可以接受的,因为这些系统并不那么复杂、强大,因此风险也不是很大。

但我认为随着系统的能力和通用性增强,访问问题将需要从政府的角度进行思考,他们将如何限制、控制或监测这一点,这将是一个重要的问题。我无法为你提供任何答案,因为我认为这实际上是一个社会问题,需要社会各界的利益相关者共同努力,权衡收益和风险。

你们在AI方面的工作,你说我们还没有达到那个程度,但Google在AI方面的工作肯定会有一些争议,涉及责任问题,模型的能力或限制。Emily Bender、Timnit Gebru和Margaret Mitchell发表的著名的“随机鹦鹉”论文在Google内部引起了很多争议。导致她们离开了。你读过那篇论文,然后想到,“好吧,这是正确的。大型语言模型会对人们撒谎,Google将为此负责”吗?面对所有的审查,你现在是如何思考这个问题的?

是的,大型语言模型,这也是为什么Google非常负责任的原因,我们知道它们会产生幻觉,并且可能不准确。这是需要在未来几年中改进的关键领域之一,例如事实性和基础性,确保它们不传播虚假信息等。这一点我们非常重视。我们有许多改进的想法。我们以前发布的DeepMind的麻雀语言模型就是一个实验,试图提高在这些系统中的事实性和规则遵从性。结果表明,我们可能可以将其提高一个数量级,但有时这可能以语言模型的通顺度或创造力为代价,从而影响其实用性。

因此,这是一个帕累托前沿,如果你在一个方面进行改进,就会在另一个方面降低能力。理想情况下,我们希望在下一阶段和下一代系统中兼顾两者的优点,保持当前系统的创造力、通顺度和趣味性,同时提高其事实性和可靠性。我们在这方面还有很长的路要走。但我可以看到事情在改善,我认为这些系统在未来几年内有理论上没有任何理由无法达到极高水平的准确性和可靠性。

当你使用Google搜索生成体验时,你会相信它所说的吗?

我会的。有时我会双重检查,特别是在科学领域,我遇到过非常有趣的情况,实际上所有这些模型都会出现这种情况,你让它们总结一个研究领域,我认为这将非常有用,如果它们能做到这一点,然后问:“那么,我应该阅读哪些关键论文?”它们会给出听起来非常合理的论文,带有合理的作者列表。但当你仔细研究时,你会发现它们只是该领域最著名的人或两篇不同论文的标题组合在一起。但当然,作为一组词汇,它们非常合理。我认为,这些系统需要理解引用和论文以及作者列表是一个整体,而不是逐字逐句地预测。

有一些有趣的案例,我们需要进行改进。这对我们来说也是一个特别有趣的使用案例,我们希望能够改进和修复-出于我们自己的需求。我希望这些系统能更好地总结“这是关于某种疾病的前五篇论文”或类似的内容,以便快速了解该领域。我认为这将非常有用。

我告诉你,我搜索了我的朋友John Gruber,SGE自信地告诉我他是报纸中使用Mac的先驱,发明了WebKit。我不知道那是从哪里来的。在你将其推广给大众之前,是否存在某种质量水平、真实性水平的要求?

是的,我们一直在思考这个问题,特别是在Google,因为Google对搜索等方面非常严格要求,这是我们每天和每个时刻都依赖的工具,我们希望在可靠性方面达到这样的水平。当然,我们与目前的情况相比,还有很长的路要走,不仅仅是我们,其他任何拥有生成模型的人也是如此。但那是黄金标准。实际上,像工具使用这样的方法可以在这里发挥作用,你可以构建这些系统,使它们自己进行事实检查,甚至可能使用搜索或其他可靠来源进行交叉验证,就像一个好的研究人员会交叉验证事实一样。同时,还要更好地了解这个世界。什么是研究论文?它们是哪些实体?

因此,这些系统需要更好地了解它们处理的媒体。也许还可以赋予这些系统推理和规划的能力,因为这样它们有可能将其自己的输出反馈和批评。再次强调,这是我们在游戏程序中非常有经验的一部分。它们不仅仅输出你在国际象棋或围棋中想到的第一个走法。实际上,你还需要进行一些规划和搜索,然后进行回溯。有时它们会改变主意,转而选择更好的走法。你可以想象,在文字和语言方面也可以使用类似的过程。

还有“模型崩溃”这个概念,我们将在LLM生成的数据上训练LLM,这将形成一个循环。当你谈到事实的交叉验证时,我想到了Google——Google在网络上进行搜索,试图交叉验证一些信息,但也许所有这些信息都是由2023年的LLM产生的幻觉。你如何防范这种情况?

我们正在研究一些非常棒的解决方案。我认为答案是,这也是对Deepfakes的回答,即进行一些加密水印,复杂的水印,不能轻易或完全删除,它可能已经嵌入到生成模型本身中,成为生成过程的一部分。我们希望发布这些解决方案,甚至可能将其提供给第三方作为通用解决方案。但我认为这个行业和领域需要这些类型的解决方案,我们可以使用一些标志来标记生成的媒体,无论是图像、音频还是文本,向用户和未来的AI系统表示这些内容是由AI生成的。我认为这是当前AI面临的非常紧迫的需求,例如Deepfakes和虚假信息等问题。但我实际上认为解决方案正在出现。

前几周我在节目中邀请了微软的首席技术官兼人工智能执行副总裁Kevin Scott。他说了非常类似的话。我答应他我们将在一集节目中专门讨论元数据。所以你也要参加那个节目。如果我了解我的听众,关于元数据的一整小时的内容将成为我们迄今为止最受欢迎的一集。

好的,听起来完美。

Demis,非常感谢你来参加Decoder。我们很快将会再见的。

非常感谢。

评论

所有评论

推荐阅读

  • 贝莱德 BUIDL 规模达 3.75 亿美元,超过富兰克林邓普顿成为最大代币化国债基金

    据 CoinDesk 报道,链上数据显示,贝莱德旗下的 BUIDL 基金上周增长了 7000 万美元,其规模已达 3.75 亿美元,超过富兰克林邓普顿成为规模最大的代币化国债基金。

  • 4月30日晚间要闻速递

    1. BTC跌破61000美元

  • 瑞士公司Backed完成950万美元融资,加速推进资产数字化进程

    总部位于瑞士的Backed完成了一轮950万美元的融资,由Gnosis领衔。一家资产管理公司预测,到本十年末,代币化的现实资产可能会膨胀到10万亿美元的市场规模。Backed表示,该公司将加速推出私人代币化服务,并将资产管理人纳入区块链轨道。代币化可能会带来比传统金融轨道更高的交易效率、更广泛的投资者准入和更低的行政负担。

  • 伦敦加密货币交易所X10获得650万美元融资,计划扩大业务和开发工作。

    总部位于英国伦敦的混合加密货币交易所公司X10获得了650万美元的融资,投资者包括Tioga Capital、Semantic Ventures、Cherry Ventures、Starkware和Cyber fund等,以及来自Revolut的高管和Lido创始人Konstantin Lomashuk等天使投资者。该公司打算利用这笔资金扩大业务和开发工作。X10是一家混合加密货币交易所,提供DeFi缺乏的中心化交易所体验。该交易所还提供多个交易子账户、广泛的高级订单类型、部分清算逻辑、高级API和专业级SDK等功能。

  • 香港金管局:加密资产(尤其稳定币)是2024年工作重点之一

    香港金融管理局香港金融管理局(金管局)官方网站今日发布《二零二三年年报》,当中包括外汇基金的财务报表,及其 《二零二三年可持续发展报告》。 在年报的 2024 年工作重点及前瞻部分中包含加密资产(尤其稳定币),金管局指出有关监管稳定币发行人的公众咨询于 2023 年 12 月至 2024 年 2 月期间进行。 金管局会与政府合作推进有关的立法工作,并会在制定及实施有关监管制度时继续与不同持份者沟通,以及留意市场发展与相关国际讨论。 与此同时,金管局会推行稳定币「沙盒」安排,促进与业界就建议监管制度及要求交换意见,提升非银行金融中介的稳健性、加密资产与金融创新。金管局会以虚拟资产相关产品等为重点,并会在有关过程中参考市场最新发展及国际标准的修订,为促进虚拟资产行业可持续及负责任的发展,金管局会继续与政府及其他监管 机构合作,确保为虚拟资产行业制定稳健、全面及平衡得宜的监管架构。

  • BONKKILLER系貔貅盘骗局,已撤回超3000枚SOL流动性

    SolanaFloor在X平台披露,Solana链上Meme币BONKKILLER是一个貔貅盘(honeypot)骗局,项目方在冻结了用户的代币销售后,已经撤回超过3000枚SOL的流动性。

  • 加密会计师事务所H&T完成1000万美元融资

     加密会计师事务所Harris and Trotter Digital Assets(H&T)完成1000万美元融资,Orbs领投,Re7 Capital和Kingsway Capital参投。 据悉,Harris and Trotter Digital Assets是一家提供全方位服务的会计公司,致力于为大约500名加密货币原生客户提供服务。

  • 流动质押协议MilkyWay筹集 500 万美元融资

    流动质押协议MilkyWay 在由 Binance Labs 和 Polychain Capital 共同领投的种子轮融资中筹集了 500 万美元。 本轮融资的其他投资者包括 Hack VC、Crypto.com Capital 和 LongHash Ventures。

  • 4月30日午间要闻速递

    1.香港证监会:提供受监管的虚拟资产现货ETF产品符合公众利益

  • 香港证监会:提供受监管的虚拟资产现货ETF产品符合公众利益

    香港证监会投资产品部执行董事蔡凤仪表示,在满足本港投资者需求的考虑下,提供受监管的虚拟资产现货ETF产品符合公众利益。此外,证监会对虚拟资产ETF的认可,绝对不等同支持相关虚拟资产或鼓励大众进行相关投资。她表示,虚拟资产本身投机性极大,价格非常波动,提醒公众虚拟资产并不适合所有投资者,只有对其充分了解,而且能承受其风险的人士,才应该考虑相关产品。虚拟资产市场于近年经历了不少动荡,不论是稳定币的崩盘和各种交易平台倒闭、欺诈等事件,均使很多投资者蒙受重大损失。不过同时,越来越多投资者对虚拟资产有需求,并已从不同途径作出相关投资。不少传统的金融机构和中介亦已开始提供虚拟资产投资的相关服务。因此香港证监会自2018年起,引入全面框架以监管广泛虚拟资产相关活动。