AGI的多模态、多模型以及Multi-everything的未来

avatar
阅读时长 2 分钟
swyx· 阅读时长 2 分钟

本文作者:swyx;编译:Cointime Freya

GPT-4的FOMO解药,以及对Moravec悖论的沉思

正如传闻所说,以及微软德国公司随后证实的那样,近日,GPT-4在ChatGPT中发布了博文、论文、现场直播和几个短视频:

GPT-4是有史以来第11个最受赞誉的黑客新闻故事,Developer Livestream在20小时内获得了150万次观看(目前在YouTube总排名中排名第五),公告推文获得的点赞数是ChatGPT的4倍,要知道,ChatGPT本身就是2022年最大的故事。

很多屏幕截图和糟糕内容的镜头被到处转发,所以,我认为,就像对ChatGPT所做的执行摘要一样,我应该对GPT-4也做一次回顾,是很有必要的。

GPT-4执行摘要

GPT-4是OpenAI旗舰语言模型的最新版本。它是:

  • 在现有的GPT-3任务方面有明显的改进(这个改进体现在对标准NLP基准测试和SAT/GRE等人类考试上的显著改进,并且指令更好的遵循和更好的世界知识)。
  • 能够胜任新的任务(比如,知识储备的量足够到可以来计算个人税收,并不比Minerva差!)。
  • 能够存储比ChatGPT多8倍的上下文信息(2.5万字的上下文意味着,通过简单地复制粘贴文档就可以解锁更好的人工智能编程,或者粘贴整个维基百科的文章,甚至是比较两篇文章,从而实现来更好地交流)。
  • 使用起来更安全(胡言乱语和不安全内容减少20-30%)。

仅此一项就足以证明它是一个海量版本,但GPT-4也是OpenAI的第一个多模态模型,能够原生理解图像输入与文本。这比现有的OCR和图像转文本(例如BLIP)解决方案要好得多,你必须亲眼目睹才能完全理解,但你必须了解的功能包括:

  • 将网站草图转换为代码;
  • 完整描述Discord应用程序的截图;
  • 总结一篇论文的图像并回答有关数字的问题;
  • 识别照片(冰箱、厨房),提供饮食建议;
  • 解释图像为何有趣(熨衣服,鸡块,备忘录)。

仅此一项就足以证明它是一个海量的版本,但GPT-4也是OpenAI的第一个能够原生理解图像输入与文本的多模态模型。这比现有的OCR和图像转文本(例如BLIP)的解决方案要好得多,可能需要你亲眼目睹才能完全理解我刚才说的那些优点,必须了解的功能包括:

  • 将网站草图转换为代码;
  • 完整描述Discord应用程序的截图;
  • 总结一篇论文的截图并回答有关数据的问题;
  • 识别照片(冰箱、厨房),提供饮食建议;
  • 分析图像为何有趣(熨衣服,鸡块,备忘录)。

现在,获得获得GPT-4文本API访问权限的方式需要满足两点:成为ChatGPT Plus的订阅者(20美元/月),并通过等候名单或贡献OpenAI Eval。目前,多模态视觉API功能是BeMyEyes独有的功能。API定价现在分为提示代币和完成代币,比GPT-3.57高30-60倍。

与以往不同的是,OpenAI以竞争和安全问题为由,拒绝公布GPT-4的任何技术细节。这意味着Small Circle、Big Circle(原文是meme吗?)既没有被证实,也没有被否认,因此,对OpenAI不开放的另一轮批评又开始了:

  • 已知的:GPT-4的训练于2年前开始,到2022年8月结束,GPT-4的数据截止日期是2021年9月。
  • 未知的:数据、计算、硬件、参数或训练过程是如何从GPT-3改变的。

除了技术细节,OpenAI还专注于演示功能(如上所述)、扩展和安全研究(由OpenAI的Alignment Research Center完成),并在一次令人印象深刻的协调发布中,与发布合作伙伴演示用例(在发布当天提供了完整的GPT-4构建示例):

  1. 微软确认Prometheus就是他们的GPT-4代号,这意味着所有Bing/Sydney的用户都是真正的GPT-4用户,还增加了Bing的查询限制。
  2. Duolingo展示了西班牙语和法语的“给我的答案一个解释”和“角色扮演”的新功能(当然GPT-4也可以说许多其他语言)。
  3. Stripe测试了15个用例,包括支持定制、回答文档问题和欺诈检测。
  4. Intercom推出了他们的Fin聊天机器人,它可以减少无根据的答案(包括关于竞争对手的无根据的答案),消除歧义,并将其交给人类代理。

竞争动力学。GPT-4并不是周二发布的唯一一个基础模型,它协调的范围其实超越了OpenAI。谷歌和Anthropic都推出了它们的PaLM API和Claude+模型,Quora Poe是第一个同时发布OpenAI GPT-4和Anthropic的Claude+模型的应用程序。各公司在Pi Day上的发布周期竞争的异常激烈,有点像上个月谷歌与微软进行的特殊活动竞赛,引发了人们对人工智能安全的担忧。

多模态与多模型的人工智能之年

GPT-4的多模态是AGI未来的一个缩影。它没有符合大众的预期——它没有图像输出,并且由于Whisper API的发布,音频在可接受的输入中明显的缺失,但Jim Fan在这里的英雄形象大多是准确的:

然而,就在三天前,微软中国研究院发布了另一种使用Visual ChatGPT的多模态方法,可以实现像GPT-4一样,与图像进行交流。

这是一个多模态项目,更准确地说,这是一个多模型项目,因为,实际上,它的核心是:“trenchcoat中的22个模型”。

这暗示了实现多模态的两种方式——廉价的方式(将模型链接在一起,可能会使用LangChain)和“正确”的方式(训练和嵌入混合模态数据集)。我们有理由相信,多模态训练比单模态训练更有优势。就像在语言模型训练中添加代码语料库可以改善非代码自然语言的结果一样。我们可能会发现,对人工智能进行教学可以提高他们描述它的能力,反之亦然。

但多模型也被证明是有用的。Quora创始人Adam D'Angelo选择在OpenAI GPT-4和Anthropic Claude的支持下推出他的新Poe机器人,前GitHub首席执行官Nat Friedman建立了nat.dev,来帮助比较最大范围内的文本模型的输出:

Eliezer Yudkowsky也评论说,多模型对于模型的提炼很有用,最近斯坦福Alpaca的结果以GPT-3为基础,对Meta的LLaMa进行了微调,以使用缩小25倍的模型获得了类似的结果。

这似乎是一个富有成果的开发领域(如Palm-E、Kosmos-1、ViperGPT等),我预计多模式、多模型的开发将主导研究和工程周期,使我们越来越接近AGI的视域。

AGI = Multi-everything和Moravec悖论

Moravec悖论可以被概括为“计算机发现了人类难以发现的简单的事情,反之亦然”。但是人类能力的进化速度比计算机大约慢10万倍,而计算机从亚人类到超人类的进化并不需要很长时间。这不是一个新鲜的理论。LLM毫不费力地掌握多种语言(跨越最流行的人类语言和编程语言,但也越来越多地使用资源较少的语言的情况)和多学科(GPT-4同时能够成为调酒师、法学院学生、医学生和程序员,尽管英语文学是安全的)。

而这仅仅是我们能想到的两个维度。OpenAI ARC和Meta FAIR测试了人工智能的两面性,我们越来越多地看到,人工智能毫不费力地拥有多重人格——最近,Waluigi效应作为一种正式的速记方法进入了人工智能的讨论范围,Bing的Sydney表现出了令人不安的另类人格,这些人格分别被称为 Venom和Dark Sydney。然而,这只是开始。

人工智能没有义务以我们期望的方式多面化发展。我想起了电影《她》的结局,当Joaquin Pheonix得知Samantha同时爱上了641个人时,这个数字大到让他难以置信,但对于一个多元的人工智能来说,爱一个人只是一种功能。

*本文由CoinTime整理编译,转载请注明来源。

免责声明
任何媒体、网站或商业机构不得将本网站刊登的原创内容用于商业性复制,不得对本网站刊登的内容进行曲解、篡改。 请广大读者切实提高风险意识,警惕各类虚拟代币发行与炒作,站内所有内容仅系市场信息或相关方观点,不构成任何形式投资建议。
关注 Cointime
实时获取最新Web3资讯
评论

所有评论