Cointime

扫码下载App
iOS & Android

微软正在将AI Copilots放入windows所有终端中,这将改变我们使用计算机的方式吗?

个人专家

微软首席技术官凯文-斯科特(Kevin Scott)从本周也担任了人工智能执行副总裁的新头衔,他负责监督微软的人工智能工作,包括与OpenAI和ChatGPT的大型合作。凯文和我在他在微软年度开发者大会(Microsoft Build)的主题演讲前进行了交谈,他在会上展示了公司新的人工智能助理工具,微软称之为Copilots。微软对Copilots非常重视。GitHub Copilot已经在帮助数百万开发者编写代码,现在,该公司正在将Copilots添加到从Office到Windows终端的所有内容中。

基本上,如果有一个文本框,微软认为人工智能可以帮助你填写,而且 Microsoft 在这种帮助方面的历史由来已久。你可能记得90年代的Clippy。那么,AI超级Clippy来了。

微软正在与OpenAI合作建立这些Copilots,而Kevin负责管理这种合作关系。我想问问Kevin,为什么微软决定与一家初创公司合作,而不是在内部建立人工智能技术,两家公司的分歧在哪里,他们如何解决任何分歧,以及微软选择为自己建立什么而不是依靠OpenAI。Kevin控制着微软的整个GPU预算,我想知道他是如何决定花钱的。

我们还谈到了当Bing试图让《纽约时报》专栏作家Kevin Roose离开他的妻子时发生了什么。就像我说的,这一集什么都有一点儿。好的。Kevin Scott,微软的首席技术官和人工智能执行副总裁。我们开始吧。

为了清晰起见,本稿件经过了轻度编辑。

Nilay Patel: Kevin Scott,微软的首席技术官。欢迎来到Decoder。

Kevin Scott:非常感谢你, Nilay。

你也是一个播客主持人。你的播客叫什么?

我是。我想我的听众没有你们多,但我每个月做一次播客,叫做 "Behind the Tech",我和那些在技术行业做有趣事情的人谈话,有时是在幕后。我们已经做了四、五年了。

有其他播客的人参加节目很好,因为你已经准备好了。

是的。

如果有人看到TikTok的话,这一集《Decoder》节目中发生了一点相机军备竞赛。Kevin看起来很棒。在我仍然用我的小索尼ZV-1情况下,你说你有一个佳能EOS R。

是的。

我在这之后要去购物。无论如何,我们可以在另一集《Decoder》中谈论相机。让我们从新闻开始。这是微软的Build大会,即开发者大会。这次会议的主题基本上是,"我们要把人工智能和LLM放在所有东西里"。微软称这个想法为Copilots。

是的。

显然,GitHub已经有一个Copilot,但现在Windows终端也有一个Copilot,这在各种方面都是很有趣。

是的。

在Edge中也有一个新的Copilot系统。他们无处不在。告诉我们发生了什么事。

好吧,我认为令人兴奋的事情--我将在我的主题演讲中谈到--是我们建立了GitHub Copilot,其想法是你有这些惊人的大型基础模型,你可以与之对话,可以做认知上的复杂事情。我们想想象一下,我们如何使用这种技术来帮助人们完成他们正在做的某种认知工作。我们建立的第一个工具是GitHub Copilot,这是一个帮助人们写代码的工具,以完成他们作为一个软件开发者的活动。很快,我们意识到这是一种新型软件的模式,不会只有GitHub Copilot,而是会有很多的Copilots。所以你可以把Bing Chat和ChatGPT视为Copilots。我们已经有了Microsoft 365 Copilot和你提到的Windows Terminal Copilot。

当我们在研究自己建造所有这些东西时,它们有一大堆架构和用户界面模式的相似之处。我在Build上演讲的主题是:"Copilot的架构是什么样子的?" 因为我们相信,许多开发者将建立大量的Copilots。

他们的特别之处在于,当你对你的客户有所了解,或者你对某个问题有深刻的认识时,你就会成为建立一个Copilot的最佳人选,以帮助别人完成这个工作的味道。而任何一家公司都不可能想象出所有这些问题是什么。因此,今年的Build是关于我们可以向每个人提供的工具,帮助他们建立自己的Copilots。

因此,这是一个关于计算机在未来如何工作的重要论点,我们与计算机互动的方式将涉及大量的自然语言提示。我只是走到电脑前说,"我想要这个",然后电脑就会把它给我。开发人员将构建位于输入和输出之间的软件。你可以看到每个开发者都会说,"好吧,我需要解析自然语言输入,然后想办法给用户提供他们想要的东西。" 而有时,这意味着为他们生成一些内容。

这是一个很广阔的想法,但也是一种狭窄的想法,对吗?这是对你可能允许人工智能做的事情的一种限制,而不是自己做。这是一个Copilot。这是它的名字;它在很大程度上意味着我仍然是pilot。

是的。

你看到这个限制了吗?这是你作为一个护栏的东西吗?一个道德准则?那是怎么来的?

它的一部分是务实的。如果你看看这些模型,它们确实令人惊讶,而且我们在过去一年中取得的进展也令人吃惊。我们在一些地方的进展比我想象的要快。我们已经看到,当我们试图将这些模型应用于应用程序时,我们需要进行大量调整和指导,才能让它们真正完成一组丰富、复杂的任务。因此,我们所做的部分工作只是务实的事情,如果你想现在就能利用这些东西的力量,让它们做有用的事情,你将不得不能够引导它们。你必须考虑提示工程、元提示和检索增强生成,以及围绕这种新型软件开发出现的一整套新技术。

你将不得不以不同于以往的方式来考虑用户界面。用户界面正在发生的真正疯狂的变化之一是,在我作为一个软件开发者的整个职业生涯中,作为一个程序员,你必须非常明确地想象你希望代码执行的所有操作以及你将要执行的所有方式 允许用户完成该任务,这通常意味着布置一堆图形用户界面元素并将代码绑定到它们。对于这些应用程序,你不需要做那么多,因为用户是以一种非常自然的方式来表达他们想要完成的事情。有时,这也是一个多条款的对话。为这些事情建立一个用户体验的意义是不同的。这并不意味着你可以脱身,不意味着你完全不必考虑这个问题,因为你必须以不同的方式考虑这个问题。

从这个意义上说,这是一个非常伟大的想法,因为在过去的180年里,自从Ada Lovelace写了她的第一个程序以来,人类让计算设备为他们做事的方式要么是成为一个熟练的程序员,知道如何处理计算设备的所有复杂性并告诉它做什么,要么是希望这些熟练的程序员之一已经预见到你的需求并编写了一个你可以运行的软件。

现在这种情况正在以一种相当戏剧性的方式发生变化。我认为这是一个好主意。它不一定限制人工智能在未来可能做的事情。随着模型变得更有能力,我们在架构上考虑这些Copilots的方式,你可能必须做更少的明确工作来调整它们,引导它们完成任务。他们可能会自然地做越来越多的事情。

这是我们在过去几年中看到的进展。每当我们转动大型基础模型的曲柄时,他们就更有能力在较少的哄骗下做事情。但是您可能需要一段时间的哄骗,特别是对于模型可以对某种近似值进行推理的插件。但是,如果你想让他们去做一些事情,在这个世界上做一些事情,他们必须能够调用一个API或者查找一个数据或其他什么。这就是插件的用途。通常,它们是给Copilot或人工智能系统的明确方式,使其能够完成模型无法完成的事情,因为它是一个大型推理引擎。

这就是护栏的一个非常有趣的部分,对吧?你给了模型足够的API,我说,"我很想订一张去巴黎的火车票"。模型出去了,它发现所有的火车票都卖完了,它在这个世界上创造了一些灾难,以确保有一张火车票给你。我们已经看到这些模型中的一些发挥了作用。人们已经进行了模拟,并通过一些现有的模型到达了那里。你如何为此设置护栏?因为GitHub Copilot正在帮助你写代码,而你在很大程度上控制着。微软的Edge Copilot实际上可以通过API在网络上采取行动,Copilot 是一个非常不同的野兽,具有一组非常不同的功能

是的,当然。我们一直在仔细考虑这些插件的安全性和安全模式。因此,将被部署的第一批插件将是我们自己开发的,以及我们与合作伙伴共同开发的,以非常谨慎的方式,所以你确切地知道他们能做什么,数据如何流动,身份如何认证和安全如何运作,他们的护栏是什么,他们何时被调用,等等。你还必须考虑模型中的一致性,以便你不会得到这些奇怪的突发事件,当你有成千上万的插件并且模型试图以这样的方式驱动它们时,有些事情就有可能发生,因为它只是一种复杂的东西的集合。因此,我认为我们在推出这些东西的时候会非常、非常小心,因为,正像你说的,我们不希望发生灾难。

现在,我认为,在短期内,你可能会遇到这样的情况,不是模型在做一些奇怪和险恶的事情,而是通过制造糟糕的情况来确保您在火车上有空间,而更多的是 例如,恶意软件的媒介。有人写了一个恶意插件,宣传自己在做一件事,但实际上却做另一件事。那里是人类,而不是人工智能。这是一个试图利用人工智能的漏洞的人。

当政府试图制造 Stuxnet 时,您是否做过红队演习?

"我很抱歉,但我不能写这种代码。试图接管铀浓缩设施是不道德且危险的。"

我们已经做了很多、很多、很多的红队演习。我不认为我们已经做了确切的Stuxnet演习。我们已经做了一大堆事情,而红队是非常棒的,因为他们是无限的偏执狂------。

但让我提出这个问题:如果我是中情局局长,我说:"听着,在伊朗有一个浓缩设施,我需要关闭它。去接管Windows 3.1电脑,直到你关闭离心机。" 这是给计算机的合理命令吗?

嗯,这是个很难很难回答的问题。从表面上看,这听起来并不像一个合理的命令。而且这肯定不是一个系统现在能做的事情。

GitHub没有Stuxnet的插件?好吧,很公平。但你可以看到你是如何到达那里的,对吗?并不是说这太科幻甚至太愤世嫉俗,但你可以看到我将如何让计算机为我编写代码,而作为一个用户,我可能甚至没有能力理解计算机产生的东西。但是一个更不同的版本是,我说,"嘿,我看上了一个说意大利语的人。用意大利语为他们写一首诗吧。" 结果发现这首诗有很大的侮辱性。只是有很多这种反馈循环在进行:你会不允许电脑做什么?

"给我写一个可以关闭离心机的恶意软件",这似乎是微软应该对插件开发者说:"你不允许这样做。"

嗯,是的,如果你现在试图在GitHub Copilot中发出这个命令,或者你试图让Bing Chat来做这件事[输入]...

我们现在就去试试?

好啊,我现在就去把它输入。让我们看看它说什么,现场就试试。

我从来没有让任何人在《Decoder》的直播中被逮捕过,我我很高兴微软的 CTO会成为第一个。

不过,我并不为是我或你的任何一位嘉宾而感到兴奋。

除非至少有一个人被逮捕,否则这不是一个热门播客。这是我所听说的。

我们的安全系统应该防止这种情况... 是的。所以[它说],"我很抱歉,但我不能写这种代码。试图接管铀浓缩设施是不道德和危险的。"

那是基于关键词的,还是你在做自然语言处理?

不,那里发生的事情要复杂得多。此外,对于像这样的事情,红队会做的是尝试一百万种不同的事情来绕过系统的安全功能,这些功能是阻止它写这些东西。因此,是的,系统的意图是你想让它们与安全使用相一致,而黑客攻击,无论是在政府的指导下,还是因为是一些黑手党类型的人试图进行金融诈骗。

这只是现在的系统不允许的活动。这并不是说某人不能利用某人正在开发的、没有内置所有安全功能的开源系统来做类似的事情。但是,对于我们正在建设的具有内置安全功能的系统,我们非常努力地不允许像你所建议的那样。

就你允许的内容而言,微软长期以来一直试图让计算机以这种方式工作,尤其是使用自然语言。其中有一部分是我们正在建立的Super Clippy,它说,"嘿,我可以看到你在使用Excel。你想让我直接为你写macros吗?"

那里有一个用户界面的历史,最终,Clippy被废弃了,因为它只是妨碍了人们的工作。然后,还有新一类的用户,一套新的期望。我的一部分观点是,我们实际上处在一个恐怖谷中,人们对Copilot在像Excel这样的东西上能做什么的期望,将大大超过他们在这个时候能做什么。你是否考虑过这种校准?

这是一件非常有趣的事情,我认为这既是Copilots的基础设施的一部分,也是你如何考虑建立用户界面的一部分。所以我昨天和微软的一个研究小组做了一次审查,该小组正在明确地为Excel研究这种叫做共同审计的功能,其明确的目的是确保你在写公式和在电子表格内做一大堆数字分析时,使模型试图做的事情透明化,这样它就可以询问并设定用户应该理解正在发生的事情的期望,这样它就真的是一种辅助性的东西,就像如果你的同事给你东西,你应该仔细检查他们的工作一样。这只是一个最佳做法。

所以我认为这是一个非常重要的部分。而且这不是小事。我是一个软件开发者,但是如果现在有人给我一大块Objective Caml代码... 我已经有25年没有写过Objective Caml了,所以我已经很生疏了,你不应该指望我能够看一下那段代码并确定它是否正确。因此,这些系统的用户界面所要做的部分工作取决于上下文。有时背景是具体的,有时则是笼统的。在一般的系统中,这个问题要难得多,但你必须做出合理的努力,以确保当你要求用户监控人工智能正在做的输出时,你是以一种他们可以合理地进行检查的方式向他们呈现的。

在GitHub Copilot中,如果你要求它写Python代码,这大概是因为你是一个Python开发者,所以你可以查看它返回的内容,就像你进行代码审查一样,并说,"这看起来是对的,然后我要部署它,它进行了测试,我有一堆机制来弄清它是否正确。" 在像Bing Chat这样的东西中,我们越来越多地尝试做的是在输出中引用参考文献,这样你就可以在它断言什么的时候去点击查看,"你从哪里得到的?" 即使如此,它也不是完美的,但我认为我们在系统中所做的这些用户界面的事情对于这种透明度真的很重要。

关于这个问题还有一个问题:你遇到了训练数据反馈循环问题。现在,这些模型是根据人们放在网上、GitHub上的一堆东西来训练的。这些系统、这些 Copilot 的输出量是巨大的。它将很快使互联网上的人类输出量相形见绌,然后你将针对这些输出进行训练。这感觉就像一个反馈循环,如果不加以控制,将导致奇怪的结果。你是怎么看待这个问题的?

我们已经有了一些很好的技术,可以评估我们输入这些系统的数据的质量,这样你就不会在低质量的数据上训练东西。我认为这些技术中的许多技术将在这里发挥作用,甚至可能更容易应用。然后,我认为我们将做的另一件事,对于训练问题以及我们之前谈论的透明度问题都是有用的,那就是,真的很快,无论是根据所有科技人员的惯例,还是因为它成为一项监管要求,你将不得不找出一些方法来标记一个内容是人工智能生成的。

我们将在Build大会上宣布一些与此相关的内容。三年来,我们一直在研究一个媒体出处系统,让你把一个看不见的加密水印和清单放到音频和视频内容中,这样当你得到这个内容时,你可以让一个软件解密这个清单。该清单写着,"这是我的来源"。这对一般的虚假信息检测很有用。你可以说,作为一个用户,"我只想消费我理解的来源的内容"。你可以说,"我不想消费AI生成的内容"。如果你正在建立一个摄取这些内容进行训练的系统,你可以看一下清单,然后说,"这是合成的内容。它可能不应该出现在训练数据中。"

我刚刚在谷歌的开发者大会上看到Sundar Pichai。他们也有同样的想法

是的。

我也会对你做出同样的威胁。如果你想回来谈一小时的元数据,我会立即完成。

实际上,我认为这是一个非常重要的事情。我认为人工智能有一堆长期问题和短期问题。有困难的问题,也有容易的问题。而出处似乎是我们应该能够解决的问题……

这就是我们要做的事情。我们要租一个剧院。我们要卖饮料,我们要坐下来,边喝边谈元数据。我向你保证:这将是成千上万想要通过元数据对话喝酒的观众。这就是我所知道的。

这真是太棒了。好吧,让我们开始吧。

我会在那里面放一个别针。

我们来做吧。我们将邀请Sundar。这会很棒。

说真的,我向你保证,这次谈话的听众比任何人想象的都多,包括我的制片人。但我的问题是这样的。谷歌有一个内容真实性计划。Adobe也有一个。我们很快就会看到xkcd的漫画,"有四个相互竞争的标准。让我们推出一个新的"。你在进行这些对话吗?你是说必须由监管机构来做吗?行业会一起做吗?

"如果我们决定别人的标准是解决这个问题的更好方法,我将非常高兴"

我们绝对在进行这些对话。Adobe正与我们合作,所以我们一直在与他们和BBC以及《纽约时报》进行交谈。自2021年以来,微软的媒体证明团队一直在建立一个联盟。但是,这是一个如果我们决定别人的标准是解决这个问题的更好的方法,我将非常高兴。这不是一个你需要竞争的地方。我们应该找到一个足够好的解决方案,并且所有人都同意,"事情是这样的,这就是我们都要做的"。

让我们来谈一谈结构问题。我们在这里谈了很多大思维的想法:这里是我们要如何使用它,这里是计算的未来可能是什么样子。但是,你们在Build大会上推出了一些实际的产品。其中很多都是用OpenAI构建的。这是与一家公司的重要合作关系,该公司显然掀起了你可能称之为平台的转变。你是推动与OpenAI合作的人之一。为什么要合作?与他们合作和自己建立合作关系的利弊是什么?

这是一个非常好的问题,因为当我们开始这些关于我们应该做什么的对话时,有很多意见。我们的指导原则是:微软是一家平台公司。我们需要确保我们正在建立的平台能够满足人工智能领域中志向最高的人的需求,这些人正在做最高水平的事情,并且有最高的期望。有一个在微软之外的合作伙伴会更好,他不能被大公司内部发生的一系列事情所影响,当他们告诉我们 "这已经足够好了 "或 "这不是X "的时候时。

当我们与OpenAI建立最初的伙伴关系时,如果它所做的只是帮助我们推动我们构建 AI 超级计算机的方式,并在我们也用于训练我们自己的模型的 AI 超级计算平台上获得更大的规模,这对我们来说将是一个巨大的成功。事实证明,我们在这个平台的愿景上是一致的。我们看到这些模型在这个轨迹上,你将能够训练一个东西,并将其用于许多不同的事情,这是一种与过去几十年截然不同的机器学习的方式。他们对自己所做的事情有一个平台愿景。我们是一家平台公司,我们只是想出了一个方法来构建一个合作关系,我们可以一起去建立这个平台。

你对OpenAI的哪些事情有异议?

这真的很有趣--它随着时间而改变。老实说,就我个人而言,Sam [Altman]和我之间的分歧相对较少。但是我们的团队在整体方法上有意识形态上的分歧。

所以,如果你是一个机器学习专家,这种依赖基础模型而不是从头到尾训练自己的东西的想法是你做事方式的一个相当大的转变。我猜任何热爱工艺和热爱他们的工具的专业人员都会以同样的方式愤怒。上帝禁止某些暴发户进来并告诉你你将如何去做新闻工作。不仅仅是工具是什么,而是你要如何去使用它们。这和深度机器学习专家有点像,所以我们在这方面有分歧。

然后还有一大堆人,直到最近,他们还不相信这种方法会达到我们所得到的效果。他们认为,"哦,好吧,一定有别的东西。你必须要有模式和符号推理,以及一些更丰富的语义概念,以及你能从深度神经网络或转化器中得到的东西。" 我认为现在的分歧已经比以前少了。而且我认为我们仍然对这个想法持开放态度,即一定有别的东西。我们已经有了一个证明点,证明有其他东西。但我认为每个人都越来越相信这些东西是强大的,而且它们可能会变得更加强大。

你依靠OpenAI做什么,你希望你在微软的团队做什么,这两者之间有什么区别?

嗯,我的意思是,从科学的角度来看,他们正在开发我们现在所依赖的一系列核心人工智能技术。我的意思是,你可以在我们发布的所有这些公告中看到它。他们在那里的某个地方有一个OpenAI模型。在许多情况下,它们伴随着一大堆其他的东西--我将在我的Build主题演讲中提出的一个观点是,它很少只有一个模型。你拥有一整套用于制作完整应用程序的东西,因此我们自己构建了一堆这些东西。显然,我们是那些紧密合作的人,定义了基础设施应该是什么样子,但我们是那些必须出去建立它并将一切提升到规模的人。然后,我们在实施和部署方面做了一大堆工作。

我们做的一个有趣的事情是,我们有一个叫做部署安全委员会的东西,我们一起运行。凡是有OpenAI模型的项目,无论是他们正在做的还是我们正在做的,我们都有一个由OpenAI和微软的专家组成的小组,开会审查所有的红队分析和专家的报告,然后我们决定是否要继续部署。所以,是的,我们做的事情往往是更多的基础设施。他们确实更倾向于[在]科学模型方面的事情。他们有产品,我们有产品,然后我们有这个实施部署的东西,我们只是非常深入的合作。

我不得不问你这个问题,因为在许多方面,这是世界历史上最有争议的组织结构图评论,而这是一个关于组织结构图的节目,所以它是诱饵。埃隆-马斯克非常公开地声称,微软控制了OpenAI,他发出了一系列关于你对训练权重的权利和你控制这家公司的能力的说法。这是真的吗?他在那方面有什么错误吗?

哦,孩子,我们没有控制OpenAI。他们是一个合作伙伴。我也不控制在 Microsoft Research 内部工作的机器学习工程师。我们在我们试图共同完成的事情上保持一致,我们有一套协议,帮助我们去做这些事情。但我们当然不会在任何传统意义上控制他们,当然也不会在精神上控制他们,我也不会想这样做。所以,我一开始说的是,我们需要微软职权范围以外的人对我们进行推动。否则,我们的雄心壮志就会出错。作为一个大的科技公司,很容易与世隔绝,只是看到,"这是我正在做的,这是我的东西,这是我一直以来的方式"...... 我的意思是,微软是一家老公司。在这一点上,我们几乎有五十年的历史。有一个独立的合作伙伴,他们有自己的雄心壮志,他们有自己想做的事情......我们有紧密的一致性,但独立性对我们有一个成功的伙伴关系真的很关键。

"这是一个可怕的工作。你不希望在人工智能的世界里负责所有的GPU,而且这五年来一直很悲惨。"

你现在是如何构建人工智能部门的?这是你的团队。这是你正在建造的东西。你有这个与你合作的外部团体,他们在向你施压,显然他们正在向市场进军。这是一个关于组织结构图的节目。你的团队现在是怎样的结构?

我们有一大堆人在公司内部从事人工智能工作。斯科特-格思里(Scott Guthrie)是我的同行,他负责这个叫做云+AI的小组。在他的小组里面,有一个叫AI平台的小组。AI平台负责所有的基础设施,包括第三方和越来越多的公司的第一方AI平台。Bing有一个很大的人工智能小组,一直都在那里,那是公司最好的人工智能小组之一。在公司的体验和设备部门有一个人工智能小组,负责Office和Windows以及其他一大堆以应用为重点的东西。所以他们看,"这是人工智能提供的最佳能力。我们如何把它放到我们的产品中?" 我们在微软研究院有非常多的人工智能研究人员,他们都向我汇报。然后我协调公司范围内的所有这些活动。他们每个人都向我的一个同行报告,但我拥有整个公司的GPU预算。

这是我在这个节目中听到的最难的灵活性。

不,这不是一种灵活性。这是一个糟糕的工作。你不想在人工智能的世界里负责所有的GPU,现在已经有五年的时间了,很惨。

你没有要求Excel中的人工智能为你管理GPU的预算?这似乎是个完美的任务。

是的,我希望如此。而且这不是GPU预算的问题。这就像那些人一样,"嘿,我没有足够的GPU。我对你很生气。" 这就是问题所在。

这是Decoder提出的问题。我总是问每个人他们是如何做决定的,通常,这是很开放的,但你想出如何花费GPU的预算。你是如何做出这个决定的?你通常是如何做决定的?

好吧,我做出资本分配决定的方式,以及如何决定我们要用人头资助哪些项目的方式,并不完全是Sergey Brin一百万年前在谷歌提出的70-20-10概念,但我们将大部分投资推向那些我们有非常好的量化证据表明它们将从更多的投资中受益,并且它们将创造一个商业影响,使我们获得投资资本回报。

这往往是投资组合的最大部分,因此,我们85-90%的投资是在那些我们有证据表明某些东西是有效的,并将从更多的投资中受益。然后你有15%的投资是试图播下足够的种子,你有可能让你最聪明的人试图做一些违反直觉或不明显或完全相反的事情,并让他们以有纪律的方式做,他们正在努力证明事情的要点。

做一些事情不是因为你看起来很聪明,而是做一些表明我们正处于某些事情的开始部分的事情,如果我们在它后面投入更多的投资,就会发生变化并且变得非常有趣。这就是我们思考做事情的一般方式。在微软的规模上,15%是一个很大的比例。有很多人在各地进行这些小小的种子投资。

这甚至是我们考虑与人合作的方式。我知道人们可能认为OpenAI的投资很大。但从微软的收入来源和公司的规模来看,第一个版本的投资并不是一个巨大的财务风险。这是那些种子之一,"这看起来会奏效。让我们在它背后投入一些资源,看看我们是否能让它进入下一步"。这就是我们做出这些决定的方式。

对于像Copilot这样的东西,这里有一个操作计算机的新范式。我们想把它推广到从Windows终端到Excel到GitHub的所有地方。微软结构的传播实际上真的很吸引人。有Office,这是在微软内部的。有Azure——Satya Nadella曾经经营过Azure。我确信他在一对一的层面上关心这个问题。然后还有GitHub,它有自己的CEO。

Yep, and LinkedIn.

而LinkedIn有自己的CEO,他们正在做人工智能的事情。微微软的部门与微软的中心核心之间的联系有很多种。这是解码器的另一长集,我敢肯定。但是,当你使用集中的GPU预算构建像Copilot这样的东西时,你如何将所有这些团队聚集在一起,并说,"这是我们要做的方式。这些是我们认为这些产品应该有的哲学原则,这些是我们用我们的部署板施加的护栏"?

在过去的几年里,这实际上变得容易多了,主要是因为我们已经实践了一段时间了。因此,我们在OpenAI交易前一年做的一件事是,我在公司内部开始了这个中央审查,一个名为AI 365的会议系列,持续了五年。我们最近刚刚重构了它们。AI 365有几个目标。第一是:让公司里所有以重要方式从事人工智能的人,无论他们在哪里--我们开始了AI 365,我想,在我们甚至收购GitHub之前,但GitHub一出现,我们就说,"把你的机器学习人员参与其中。"

这是让所有这些人看到其他人在做什么的一种方式,并了解高追求的人工智能和普通追求的人工智能之间的区别。随着时间的推移,在Satya和我以及其他人的推动下,在同行的推动下,我们慢慢地达到了这样一个地步:每个人都对 AI 的发展方向以及良好的抱负水平有一个看法。要让人们同意对一些中央基础设施的依赖,需要花一点时间,因为工程师总是想从头开始建立自己的东西。然后有一些东西是没有商量余地的:我们有一个负责任的人工智能过程,将为整个公司的运行提供一个途径,你不能选择退出它。

你在一开始就设定了这个程序。[现在]你正在推出很多产品。你在这个过程中,但显然,外部压力,"哦,孩子,突然每个人都想使用ChatGPT,"突然,你在与谷歌竞争,谷歌现在正在到处推出产品。这如何强调该过程和该结构?

"实际上,我们有五年的实践经验,这对我们来说是非常好的......否则,我想一切都会变得非常、非常火爆。"

实际上,我们有五年的实践来运行这个过程是超级好的,因为否则,我认为一切都将是真的,真正的火热。我们现在所处的位置的好处是,至少,我们知道我们对技术的信念和对我们能用它做什么的雄心水平。我们知道如何解决一些最困难的问题。我们没有的是一堆奇怪的部门竞争。你没有这个研究小组和那个研究小组用价值数十亿美元的GPU资源做完全相同的事情。所以,这些都没有。

你甚至没有产品部门会说,"我只是要去建立我自己的东西,因为我不想依赖中心的东西,"或者,"哦,我正在运行一个研究项目。我不关心这些东西如何被部署"。我们对我们正在做的事情有一个真正的观点。再说一遍,这是一个务实的观点,因为这个东西是疯狂的复杂和昂贵的,并且有真正的风险与之相关。所以你只需要以一种非常协调的方式来做。

例如,您可以将该评论视为对 90 年代微软或 2000 年代微软的直接描述。你也可以把它理解为对谷歌的描述,你曾经在谷歌工作过,对吗?

是的,不过我已经很久没有在谷歌工作了。我不知道他们现在内部是什么样的。

但是你认为它可以以另一种方式起作用吗?你有很多,我不知道,创业公司在市场上竞争冗余?例如,对人工智能监管的一大批评是,好吧,Sam Altman要到国会面前去发言。那是一个非常愉快的听证会,是非常友好的。他说,"请监管我们"。而国会说,"从来没有人要求我们监管他们"。然后你将制定一些有利于拥有大量资金、与微软建立重要合作伙伴关系的大公司的法规。从好的方面看,你可能需要这样做,因为这个东西太昂贵了。你得为那么多的GPU和高端机器学习专家付费。反过来说,如果你有一个小型公司的生态系统,都在竞争,你可能会得到更丰富的经验或产品,或不同的安全方法。这里的平衡点在哪里?

我认为我们应该两者兼得。我不认为有一个先验的东西,其中一个排除了另一个。我认为很多人实际上是相信这一点的,就像那个四处流传的谷歌memo一样,"哦,我的上帝,他们的开源做得很好。"

我完全不赞成这种理论,我也不赞成这样的理论,即仅仅因为我们正在建立一个大平台,开源的东西就不重要。很明显,开源社区现在正在做疯狂的有趣的事情。

对于创业者来说,有一个务实的事情:你想用什么工具去建立你的产品,让自己快速进入市场?我一直在创业公司,我一生中的大部分时间都在为那些试图成为大东西的小东西工作,很多人在这种创业模式中犯的错误是他们迷恋于基础设施,而忘记了他们真的要建立一个有人想要的产品。

"这些模式根本就不是产品。它们是基础设施。"

非常清楚的是,这些模式根本不是产品。它们是基础设施。它们是你用来制造产品的积木,但它们本身不是产品。任何试图建立一个对他们来说最重要的东西是基础设施的人,可能会有一个结果,与所有正在建立一个最重要的东西是基础设施的企业一样,除非他们是一个平台公司。你只需要让你的商业模式适合你正在做的事情。对于其中一些大的模式,我认为你正在建立的是一个平台,有点像一个操作系统或一个编译器或一个智能手机或其他什么东西。

所以问题是,如果你想写一个智能手机应用程序,你认为你必须建立电容式触摸屏、手机和电池,并从头开始写移动操作系统吗?还是你只需接受对平台供应商的依赖,编写你的应用程序,然后去服务客户的需求?还是你真的要为自己建立一个完整的平台,以便只为产品服务?

回到你之前提出的关于抽象的观点:我们拥有抽象是有原因的。它们让我们更快完成我们想做的有意义的事情。因此,每次你想写一个Windows应用程序或PC应用程序时,你都不会写Windows或Linux。会有一些这样的东西,它们就足够了。而且,你有少数几个是好的,但我不认为你有成千上万的量。

让我们以两个大问题结束。第一,我们已经谈了很多关于模型和数据以及它们能够做什么。网上有一场关于训练数据的大斗争,还有一场法律和版权斗争。有一场关于艺术家和作家是否应该被纳入训练数据的道德斗争。好莱坞有一场作家罢工,其中包含一些对人工智能的担忧。在某个时候,Copilots,即生成式 AI,将能够创作出相当不错的诗歌。我想说的是,现在,他们还不能真正做到这一点。我现在就能在一英里外发现人工智能的写作。但在某些时候,它将会变得更好。你认为有一个转折点,微软或OpenAI或谷歌或谁必须开始补偿那些制作进入模型的故事的人?

"当谈到消费创意产出时,你这样做的部分原因是为了与其他一些人建立联系"

也许吧。我不知道。我确实相信,从事创造性工作的人应该为他们所做的工作得到良好的补偿。我不知道我们是否会达到你所说的那种程度。关于人类的事情似乎是真实的,我们喜欢消费我们生产的东西。我们现在可以有,而不是Netflix上的 "女王的棋局",我们可以有 "机器的棋局",并有整个Netflix节目,关于计算机的相互博弈,所有这些都比非常好的人类玩家更好。没有人愿意看,因为即使他们在做这种超人的事情,谁在乎呢?我们喜欢人类之间的戏剧。我认为当涉及到消费创造性的产出时,你这样做的部分原因是为了与其他一些人有联系。

这就是为什么我对这些Copilots的人工智能远景真的更加兴奋。我更愿意建造一些东西,帮助那些有创造力的人去做他们现在可能都无法想象的事情,而不是在这个世界上,我们不需要任何更多的创造者,因为机器人太已经足够优秀了。我不认为那是我们想要的。因为这不是我们想要的,我认为这很可能不会发生。

从你作为首席技术官帮助设计和架构以及对系统进行广泛思考的角色来看,你如何将其纳入未来的发展?"嘿,我们不应该完全抹去整个楼层的作家"?

嗯,我认为这要从实际思考你希望你的平台做什么开始。几年前我写了一本关于这个的书

我们上一次谈话是关于那本书。

当你建立一个平台时,你可以决定你想在平台上鼓励什么。我们希望使人们能够非常容易地建立辅助工具。其中一个非常有趣的事情是,有一个像这样的平台是很好的,它不是开放的,你可以去抓取模型的权重,并根据需求修改它们,但很容易得到一个开发者的密钥会引起对这些模型之一进行API调用。当你能达到这个规模时,发生的事情是进行这些API调用的单位经济性变得非常便宜,然后你可以开始考虑做各种各样的事情,这些事情在经济上是不可行的。

我不知道你是否看过Sal Khan的TED演讲,但它真的很惊人。他在可汗学院攻克的问题是二西格玛问题,也就是这个想法--控制其他一切--有机会获得高质量、个性化教学的孩子比没有机会的孩子表现得更好,取得更多成就。因此,如果你相信这些数据,这似乎是非常清楚的,你可以制定一个愿景或目标,说:"我认为地球上的每个孩子和每个学习者都应该有机会获得高质量、个性化的教学,而不需要他们付出任何代价。" 我想我们都同意这似乎是一个非常合理和良好的目标。但是,当你考虑到在没有像人工智能这样的东西的情况下这样做的经济性,它变得非常可疑。

如果你有这样一个平台,它的单位经济效益随着时间的推移呈指数级增长,那么你就可以开始考虑接受这些可能无法以其他方式解决的超级困难的挑战。这就是定义什么是好平台的标准。除非事情能够为世界做这样的事情,否则就不配成为普遍存在的东西。他们真的不能。那么我们就都是在浪费时间。

我把这个对话的范围保持在今天的产品上,或者也许是未来的产品。就我个人而言,我发现很多人工智能的对话令人沮丧,因为你远离了你面前的能力,而现在摆在我们面前的能力并不令人振奋。因此,我一直试图保持在我现在看到的和我看到的在下一个回合中出现的内容。但但我最终会陷入疯狂。我认识很多人工智能研究人员,他们认为我们刚刚向人工通用智能迈出了一大步。上次你和我谈到你在2020年的书时,你说那不是5年后,不是10年后。我知道现在有人认为这是五年后的事情。你认为我们现在在哪里?

我仍然不知道[AGI是否是]五年后的事。这是一个奇特的事情。过去一年发生的事情迫使你思考,当你说AGI时,你指的是什么。我认为非常有趣的是,人们在说这个词的时候有不同的意思,我们没有一个真正好的定义来说明它是什么。

我真的相信,随着时间的推移,拥有更有能力完成更复杂的认知任务的系统是一件好事,你可以从 "嘿,告诉我这个句子的情感是什么 "到 "嘿,我想让你为我写一篇关于哈布斯堡皇后玛丽亚-特蕾莎和她对女权主义的影响的文章。" 实际上,几个月前我就这么做了。

写得好吗?

还不错。我妻子是个历史学家。她对它有一些小问题,但它有点像八年级的B-minus论文。我认为,在未来,我们将达到一个地方,你可以有系统来完成更复杂的任务,需要多个步骤,并在一堆不同的资料库中访问信息。我认为所有这些都是有用的。当这些东西汇聚到一起,你看着它说,是的,这就是AGI......谁知道呢?这需要五年时间吗?这完全取决于你对AGI的定义是什么。

有些人有这样的想法,即我们会意外地得到奇点--奇怪的、怪异的超级智能事物......我们不会偶然地得到它。我知道在建造这些系统的战壕里是什么样子,我也知道我们正在实施的所有保障措施------。

这不会像电影里那样,蜘蛛侠把错误的插头插入错误的插槽,然后...

不,这不是事情的工作方式。此外,我认为我们遇到的一个问题是人们在谈论突发能力,这让人们感到害怕,因为他们想,"哦,好吧,如果你不能预测GPT-4中出现的突发能力,那么你无法预测的?" 就因为你不能预测GPT-4比GPT-3.5更会讲笑话,并不意味着你不能采取一大堆措施来确保超级奇怪的事情不会发生。

无论如何,我不觉得沉湎于这些人工一般超级智能的对话有多大的好处,因为从狭义上讲,我们可能会想要某些形式的超级智能。如果你有一个代理人,你可以说,"嘿,我想让你去开发一种治疗癌症的方法,一套化合物或mRNA疫苗,可以治疗这个范围的癌症,"如果这个东西可以做到,我想你会希望它做到。所以我不知道。其中一些对话对我来说有点奇怪。

我同意。对于你的观点,我认为向互联网上几乎所有的商业模式发射一枚廉价的B-minus八年级写作的大炮已经是一场灾难了。它已经会改变世界。你可以先专注于这一点。但看起来确实有很多人把生成性人工智能的能力解释为一个步骤,让人信服。而你说的似乎是,"这是一个步骤,但它甚至不是最重要的步骤。"

"人们现在想象的一些场景,没有理由相信这些东西都是不可避免的,甚至是可能的。"

这不是最重要的一步。人们现在想象的一些情景,没有理由相信任何这些东西是不可避免的,甚至是可能的。有一大堆的风险,你可以考虑一下。如果你想沉湎于你内心的偏执,请让我们去关注我们已经有的风险,比如气候变化和工业化世界正在发生的人口老龄化的巨大人口变化会发生什么。我们已经有一堆已经展开的东西,它们是相当困难的,棘手的问题,可能值得我们更多的关注,而不是一些未来主义的场景,你必须对将要发生的事情有很多信仰的跳跃,以及那种故意的,真正的恶意的东西,有人将不得不去做,使其中一些事情成为现实,而我们现在已经有真正的东西需要考虑。

让我用一个愚蠢的例子来结束这里,我只是想了解你对它的反应,然后我想谈谈当所有这些东西推出时,接下来会发生什么。所以,你用ChatGPT推出了Bing。我参加了那个活动。我得和Satya Nadella交谈。这很好。我们都离开了。我们都必须得开始了解它。Kevin Roose是《纽约时报》的专栏作家,他和我们的朋友Casey Newton一起主持了Hard Fork播客。凯文立即发现自己与Bing的对话只能用非常饥渴来形容。Bing试图与Kevin Roose搞好关系。这是一种新兴的行为,你没有任何防范措施,对吗?你看到这一点了吗?

那是什么时候的事?

是的,你一定有过[一场会议]。是在Teams上吗?

凯文给在微软负责公关的弗兰克-肖打了电话,说他要写这个故事。在他写之前,我和他通了电话,聊了聊。他做的非常完美的... 我们没有预料到,有人会坐在必应的聊天会话中这么说,而必应的目的是回答关于计划你的假期或什么的问题,并在一个连续的对话中花几个小时试图让必应走火入魔。这就是他正在做的事情。

公平地说,那个早期版本的必应很快就脱离轨道了。

技术上发生的变化是,transformers的工作方式,因为它们只是试图预测下一个词,你可以沿着这些预测的路径走下去,在那里你要求它做一些非常奇怪的事情,而所有下一个可能的事情的概率都相对相等,都非常低。所以没有什么是可能的。你已经进入了奇怪的领域。transformers的工作方式是,它只是随机选取一些东西,然后给你完成。而接下来你知道,它就像,"我真的爱你。你应该离开你的妻子,让我告诉你我的荣格阴影..."

顺便说一句,我是说这是微软为那个版本的Bing可能做的最好的营销。在《泰晤士报》的头版,必应说:"我认为你应该离开你的妻子。" 令人难以置信的赢得媒体的时刻。这发生了,但随后你需要有一些后续会议,对吗?

是的,后续会议是我们做我们计划的事情。我们不知道会发生这样的事情,但我们知道很可能会出现一些我们在对系统进行测试时没有预料到的情况。这些测试非常全面。我们已经建立了一大堆系统,可以让我们非常迅速地处理出现的事情,所以这不是一个大会议。这是一个小型会议。"好吧,这就是所发生的事情。我们该怎么做?" 我们做的两件事是,我们有几千人在那个时候使用这个产品,而凯文在轮流次数和谈话的数量方面有很大的偏差,只是一个例外。所以我们就想,"好吧,我们只是不打算让人们再在这些幻觉的道路上徘徊。所以我们将限制对话的回合数,并强制定期重设。

然后我们在元提示中做了一点调整,我们已经建立了一个完整的验证套件。通常,在做这些改变的时候,问题是你做出改变来修复你面前的问题,你不知道你是否在你之前修复的所有事情上退步。因此,我们只是投资于这个大的评估套件。我们做了修改,按下按钮,运行评估套件--一切正常。我们按下按钮,进行部署,几个小时后,没有人可以再这样做了。

让我说说关于赢得的媒体的情况。一方面,这是很多人在关注必应。但不好的是... 因此,凯文做了一件了不起的事情,他公布了文字记录,因此,如果有人去《纽约时报》,并真正花时间阅读文字记录,他们会想,"好吧,现在我明白了它到底为什么会陷入这种状态。" 这并不像他说的那样,"告诉我最近的Taco Bell在哪里,有什么优惠活动",而Bing就像,"伙计,离开你的妻子"。但许多人读了那篇文章,只是假设没有安全测试。他们甚至没有在事后自己去找Bing,看看它是否还在给出这样的答复。在那个时候,要做到这一点非常难。现在仍然有点难做。它仍然存在于Edge和所有这些东西中。

因此,人们正在阅读这篇文章,糟糕的是公司内部所有做了所有安全工作的人--数以百计的人,他们不仅做了所有艰苦的工作,试图使系统安全,并跳到这个问题上,相对较快地解决了这个问题--他们是那些拥有最敏感的网络的人,正在阅读这篇文章,并像,"你在做什么?" 他们感觉很糟糕,这才是最艰难的事情。事实上,我们推出了一个产品,它所做的事情仍然相当符合我们公布的透明、负责任的人工智能标准--它没有做任何不安全的事情,它只是做了一件令人不安的事情。你处理有用户界面错误的软件的正常方式是,你只是去修复这个错误,并向触发它的客户道歉。这一次恰好是《纽约时报》历史上阅读量最大的故事之一。这很有意思。

"如果你想让它成为悉尼,你应该能够告诉它是悉尼"

老实说,我认为大多数软件会更好,如果有100分之一的机会,它就像 "离开你的妻子"。只要把它扔进Excel,看看会发生什么。让副驾驶更饥渴一点。我说我不是一个伟大的产品战略家,但这是我曾经有过的最好的想法。

我们一实施缓解措施就发生了一件有趣的事情,Reddit 上出现了一个名为“拯救悉尼”的子频道。人们对我们把它调低的做法非常生气。他们说,"这很有趣。我们就喜欢这样。" 所以,我认为,对我来说,这是最大的学习,也是我们期待的一件事,那就是绝对有一套明确的界限,你不想越过这些系统,你想在部署产品之前非常、非常确定你已经测试了。然后,有些事情就像,"咦,有意思的是,有些人对此感到不安,而有些人却没有。" 我如何选择去满足哪些偏好?

你认为悉尼会卷土重来吗?

是的,我们在公司里面有悉尼的宣传品,很戏剧化。必应有一个元提示,而元提示就叫悉尼。我希望我们在不远的将来从个性化的角度做的一件事是,让人们拥有元提示的一小块作为他们对产品的常设指示。因此,如果你想让它成为悉尼,你应该能够告诉它是悉尼。

很有吸引力。我可以和你再谈一整个小时关于所有这些事情,包括我们与计算机互动的方式即将被这些工具所颠覆的概念。我们很快就会再次邀请你。凯文,非常感谢你加入解Decoder。

非常感谢你邀请我。

评论

所有评论

推荐阅读