Cointime

扫码下载App
iOS & Android

人工智能将再一次迎来“凛冬”?

个人专家

原文链接:The Prospect of an AI Winter

本文作者:Erich Grunewald  编译:CoinTime Candice

提要

  • William Eden预测人工智能将进入冬天。他认为,人工智能系统(1)太不可靠,太不可思议,(2)不会变得更好(主要是由于硬件限制),和(3)获利性不高。他说:“我看到的一些事情让我认为我们正处于一个典型的泡沫场景中,还有很多趋势显然无法继续。”
  • 我认为,到2030年,人工智能的冬天将发生5%,我认为全球人工智能年度投资减少超过50%。(我认为,冬天不仅是兴致的降低,而且是资金的减少,才能被视为一个合适的冬天。)
  • 之前有两个冬天,一个是1974年至1980年,另一个是1987年至1993年。造成这些情况的主要因素似乎是未能产生强大的结果,因此人们的期望得不到满足。今天最先进的人工智能系统显示出了令人印象深刻的结果,并被更广泛地采用(尽管我不相信人们对人工智能的崇高期望会得到满足)。
  • 我认为摩尔定律可以持续几十年。但即使没有,还有许多其他领域正在进行改进,使人工智能实验室能够训练更大的模型:产量提高和其他硬件成本降低,互连速度提高和利用率提高,算法进步,也许最重要的是,消费意愿的增加。如果1e35 FLOP足以训练一个变革性的人工智能(此后称为TAI)系统,这似乎是合理的,我认为我们可以在2040年前获得TAI(超过50%的信心),即使在十分保守的假设下也是如此。(长期缺乏TAI并不一定会带来人工智能的冬天;投资者可能不会把赌注押在TAI上,而是押在更普通的产品上。)
  • 可靠性对人工智能系统来说肯定是一个问题,但并不像看起来那么大,因为我们更关注人工智能系统的前沿能力(往往不可靠),而不是长期熟悉的能力(十分可靠)。如果你专注于一项特定的任务,你通常会看到多年来可靠性的大幅快速提高。
  • 我猜测,在大约3到6年后,使用类似GPT-3.5的模型进行推理将与今天的搜索查询一样便宜。我认为,如果ChatGPT和许多其他生成模型还没有盈利,它们将在1到2年内盈利。人们才刚刚开始探索它们的用途,对它们的需求很大(ChatGPT在两个月后达到了1亿月度活跃用户,与Twitter的4.5亿用户相比令人印象深刻)。
  • 如果人工智能的冬天真的发生了,我想一些更可能的原因是:(1)规模化碰壁,(2)基于深度学习的模型无法长期在分布范围外的情况进行概括,(3)人工智能公司消耗了足够好的数据。我认为这不太可能,但如果是这样的话,我会松一口气,因为我们作为一个物种,目前似乎对TAI完全没有准备好。

新的人工智能冬天的前景

从内部看,投机性泡沫是什么样子的?你没有看到它。

或者,我想有些人确实看到了。其中一两个可能是对的,其他一些仍然值得一听。William Eden在Twitter上发了一条长文,解释他为什么不担心先进人工智能的风险,这就是一个例子。他认为,另一个人工智能的冬天即将到来,这支持了他的论点,并提出了以下几点:

  • 人工智能系统并没有那么好。尤其是(Eden认为),它们太不可靠,太难以理解。例如,自动驾驶汽车已经问世十多年了。你可以用缺乏可靠性做的事情并不能获得大部分价值。
  • 人工智能系统不会变得那么好。有些人认为我们可以将当前的架构扩展到AGI。但是,Eden表示,我们可能没有足够的计算能力来达到这个目的。摩尔定律“看起来越来越弱”,性价比也不再呈指数级下降。我们很可能无法在全球范围内获得“超过2个数量级”的计算,而2个数量级可能无法获得TAI。此外,半导体供应链是中心化的、脆弱的,可能会被打乱。
  • 人工智能产品不会那么有利可图。人工智能系统似乎很适合“自动化低成本/风险/重要性的工作”,但这还不足以满足预期。一些应用程序,如网络搜索,低利润率,导致大型ML模型的推理成本过高。

我省略了一些细节,建议在执行之前阅读完整的线程。在执行之前,我还要透露一下:我的日常工作是研究人工智能的治理,所以如果我们即将看到另一个人工智能的冬天,我就要失业了,因为再也没有什么可治理的了。也就是说,我认为人工智能的冬天,虽然不是可能发生的最好情况,但从理论上讲,比一些替代方案要好得多。

曾经的冬天

有一些先例。

人工智能的第一个冬天——传统上是从1974年到1980年——是由Lighthill报告促成的。更根本的原因是人工智能研究人员未能实现他们宏伟的目标。1965年, Herbert Simon曾预测,人工智能系统将能够在20年内完成人类能做的任何工作, Marvin Minsky在1967年写道,“在一代人的时间内,创造‘人工智能’的问题将得到实质性解决”。《纽约时报》报道了Frank Rosenblatt的感知器项目(Rosenblatt的说法由于其奢侈性而引起了其他人工智能研究者的愤怒),“(它)揭示了一个电子计算机的胚胎,它希望它能够行走、说话、看、写、自我繁殖,并意识到自己的存在。据预测,后面的感知器将能够识别人并说出他们的名字,并立即将一种语言的语音翻译成另一种语言中的语音和写作”(Olazaran 1996)。与人类智能还相差很远,甚至没有足够的机器翻译软件(直到2010年代中期,DeepL和谷歌翻译的深度学习升级版发布,才实现了这一点)。

人工智能的第二个冬天——传统上是从1987年到1993年——再次出现在未实现的预期之后。这是一个专家系统和连接主义(在人工智能中,人工神经网络的应用)的时代。但专家系统无法扩展,神经网络学习速度慢,准确率低,而且没有泛化。这不是每美元1e9 FLOP/s的时代;我猜测当时的LISP机器的性价比要比这低6-7个数量级。

维基百科列出了这些冬天背后的一些因素,但对我来说,似乎最重要的是未能真正产生可怕的结果。即使在经济衰退的情况下,即使学术资金枯竭,如果人工智能表现出良好的效果,你仍然会看到对它的大量投资。专家系统确实取得了一些成功,但与我们今天看到的人工智能系统相去甚远,而且没有任何动力,只展现了所有的脆弱性。对我来说,这似乎是一个重要的症结:人工智能系统会满足投资者对它们的期望吗?

摩尔定律与计算的未来

如今的改进意味着扩大规模。如果用于训练人工智能模型的硬件停止改进,那么扩大规模可能是失败的一个原因。

摩尔定律是芯片上的晶体管数量每2年就会翻一番,因此硬件性能每2年就能翻一番(Hobbhahn和Besiroglu 2022)。(Gordon Moore上周去世了,享年94岁,他的定律使他令人永远记住。)人们经常声称,随着晶体管的尺寸接近硅原子极限,摩尔定律会变慢。用Eden的话来说,摩尔定律似乎已经过时了。

我不是半导体或GPU方面的专家,但据我所知,(1)摩尔定律在未来十年内不会失败,(2)即使失败了,硬件性能将继续在晶体管密度增加额外的改进上运行。这不是第一次发生这样的事情:2005年左右,随着Dennard的扩展失败,单线程性能下降,但由于内核数量的增加,晶体管数量不断增加:

随着原子极限的临近,一些可以保持GPU性能的技术包括垂直扩展、先进封装、新的晶体管设计和二维材料以及改进的架构和连接。(需要明确的是,我对这些东西没有详细的了解,我主要是根据链接来源的说法。)TSMC、三星和英特尔都有小于2 nm工艺节点的计划(目前的SOTA是3 nm)。一些公司正在探索更多的解决方案,比如用于加速低精度矩阵乘法的模拟计算。处于指数轨迹上的技术总是没有最前沿的想法,直到它们不存在为止(至少只要有巨大的创新压力,就像半导体一样)。Peter Lee在2016年表示,“预测摩尔定律消亡的人数每两年翻一番。”到2019年底,Metaculus社区给“摩尔定律将在2025年结束” 提供了58%的支持,而现在人们远远给不到这么多。

变革型人工智能即将问世吗

但我们在这里关心的主要问题不是FLOP/s,甚至不是每美元的FLOP/s。而是人工智能实验室能为一个模型投入多少计算。这受到理论峰值性能之外的许多因素的影响,包括硬件成本、能源效率、生产线/芯片产量、利用率和实验室愿意花费的资金。那么,在接下来的几十年里,我们是否会有足够的计算能力来训练TAI?

有很多复杂的尝试来回答这个问题——其中有一个不是,但希望更容易理解。

Daniel Kokotajlo设想了在当前GPU架构上使用1e35 FLOP计算可以做些什么。这是一个很大的计算量——比今天最大的模型训练量多了大约11个数量级(Sevilla等人,2022)。这篇文章给出了一幅令人眼花缭乱的画面,展示了在如此丰富的计算能力下你能做多少事情。现在,我们确实不确定扩展是否会一直有效,而且除了计算之外,还可能遇到其他重要的瓶颈,比如数据。但无论如何,像2022年的1e34到1e36这样的计算似乎足以创建TAI。

接受这个概念,并做出以下假设:

  • 人工智能芯片的性价比似乎每1.5到3.1年翻一番(Hobbhahn和Besiroglu 2022);假设这种情况将持续到2030年,之后随着摩尔定律的失效,翻倍的时间将加倍。
  • ImageNet上的算法进展似乎每4到25个月就能有效地将计算需求减半(Erdil和Besiroglu 2022年);假设变压器的翻倍时间要长50%。
  • ML系统的训练运行支出似乎大约每6到10个月翻一番;假设这种情况将持续到我们达到最高100亿美元。

所有这些给你的是,到2040年达到TAI的概率为50%,到2045年为80%:

当然,这是一个简单的模型。还有一个更复杂、更严格的版本,即Cotra(2020),它给出了约2050的中位数(尽管后来将最佳猜测改为约2040的中位数)。我的简单模型可能出错的原因有很多:

  • Scaling law可能会失效,或随着模型越来越大,扩展可能会变得越来越困难,其速度超过了ML研究人员降低扩展难度的努力。
  • Scaling law可能会继续适用,但用1e35 2022-FLOP训练的模型并不能证明是变革性的。要么需要更多的计算,要么需要新的架构。
  • 1e35FLOP可能比创建TAI所需的数量级多。例如,这个Metaculus问题有一个社区预测,在GWP增长超过30%的第一年之前,最大的训练运行为1e28到1e33 FLOP;将这一范围作为90%的CI插入模型,可以得到一个可怕的2029年的预估中位数。
  • 硬件性价——性能的进展比假设的要慢和/或早,或者比假设的要慢和/或晚。
  • 算法进步的速度可能会减慢或增加,或者潜在变革模型的算法进步的翻倍时间可能比估计的要少或要大。
  • ML研究人员可能会把数据消耗掉,或者可能消耗掉高质量(如书籍、维基百科)甚至低质量(如Reddit)的数据;例如,见Villalobos等人(2022),预测高质量文本数据将在2023年左右耗尽,或者Chinchilla的疯狂影响和那里的讨论。
  • 可能会发生严重的极端地缘政治事件,如美国和中国之间的大国冲突。
  • 越来越强大的人工智能系统可能有助于自动化或以其他方式加快人工智能的发展。
  • 社会阻力和/或严格的监管可能会减少投资和/或阻碍进步。
  • 未知的因素的出现。

尽管如此,我确实认为1e35 2022-FLOP训练运行对TAI来说已经足够了(比如说,50%以上的可能性),而且我确实认为,大致按照这个模型,我们可以在2040年前进行这样的训练运行(也有50%以上的可能)。我这么认为的主要原因之一是,随着人工智能系统变得越来越强大和有用(也越来越危险),激励措施将不断指向人工智能能力的提高,资金将不断流入保持scaling law的努力中。如果TAI即将出现,这表明能力(以及因此带来的商业机会)将不断改善。

你不会在前沿阵地上找到可靠的东西

人工智能系统可能会让人失望的一种方式是,如果事实证明它们长期不可靠,而且在可预见的未来仍然不可靠。Eden写道,“经济的哪些领域可以处理99%的正确解决方案?我的答案是:那些不能创造/获取大部分价值的领域。”人们经常指出,现代人工智能系统,尤其是大型语言模型(以下简称LLM)是不可靠的。(我认为可靠是指“始终如一地做你期望的事情,即不会失败”。)这种观点既有对也有错:

  • 如果只看前沿能力,人工智能系统是非常不可靠的。在任何时候,人工智能系统往往只会在其所能完成的不超过10%的最令人印象深刻的任务中取得部分成功。这些是最受关注的任务,因此系统会显得不可靠。
  • 如果你只看长期以来熟悉的功能,人工智能系统是十分可靠的。对于任何给定的任务,连续几代人工智能系统通常(并不总是)会在这方面变得越来越好。这些任务都是旧消息:我们理所当然地认为人工智能会正确地完成它们。

John McCarthy感叹道:“一旦它起作用,就没有人再称它为人工智能了。”Larry Tesler宣称:“人工智能是尚未完成的事情。”

以随机生成的个位数整数列表的排序为例。两年前,janus在GPT-3上测试了这一点,发现即使有32次提示,GPT-3也只能对5个整数的列表进行10/50次排序,而10个整数的列表则是0/50次。(0-shot, Python-esque提示的效果更好,分别为38/50和2/50)。我使用GPT-3在ChatGPT上测试了同样的测试,对于10个整数的列表,它有5/5的正确率。然后我要求它一次对5个10个整数的列表进行排序,它有4/5的正确率!(注意:我非常确信这一改进并不完全来自ChatGPT,而是来自ChatGPT所建立的GPT-3的更新版本。)

(Eden还提出了问责问题。我同意这是一个问题。现代人工智能系统基本上是不可捉摸的。这就是为什么很难确保它们的安全的原因之一。但我不认为这个缺陷会阻止人工智能系统在除最安全关键领域外的其他领域投入使用,只要公司希望这些系统能为它们赢得市场主导地位和/或盈利。)

自动驾驶

但是,为什么自动驾驶汽车(以下简称AV)仍然不够可靠,无法广泛使用呢?我怀疑,因为驾驶汽车不是一项单一的任务,而是一项复杂的任务,是一组具有不同输入的许多不同子任务。驾驶的整体可靠性在很大程度上取决于这些子任务的性能,其中任何一个子任务的故障都可能导致整体故障。汽车的安全性相对来说至关重要:要被广泛采用,自动驾驶汽车需要能够可靠地执行驾驶汽车所需的所有子任务。由于这些子任务的难度分布可能遵循幂律(或类似的定律),最后10%的任务总是比前90%的任务更难完成,而且在整个系统真正准备好之前,进展看起来“几乎已经达到”好几年了,AV也是如此。我认为这就是Eden的意思,他写道,“解决玩具问题,比如在开阔的沙漠上把车停在一些锥体之间,与让汽车处理涉及许多其他代理和在拥挤街道上导航的不确定情况之间的区别怎么强调都不为过”。

这对于像驾驶这样更复杂的人工智能应用来说似乎是一个严重的障碍。我们想要人工智能完成的是复杂的任务——简单的任务很容易用传统软件实现自动化。我认为这是认为人工智能冬天更有可能的一些理由,但只是一个小理由。

首先,我不认为AV所发生的事情相当于AV的冬天。尽管人们的期望显然没有得到满足,公众的兴趣也明显下降,但我的印象(虽然我找不到这方面的大量数据)是,对AV的投资并没有下降太多,甚至可能根本没有下降(显然,2021 年AV公司获得了超过120亿美元的资金,高于过去十年的年平均水平),此外,关于AV的专利正在稳步上升(无论是绝对数量还是在驾驶技术专利中所占的比例)。无论如何,自动驾驶是存在的;我们确实有“有条件自主”的L3功能,如巡航控制和自动变道,采用率显然每年都在增加。在我看来,AV已经经历了典型的炒作周期,现在正通过稳步、渐进的变化爬上所谓的启蒙坡道。这意味着:似乎,即使对LLM和其他人工智能系统的期望大多没有得到满足,人工智能的冬天仍然不会与以前的冬天相比,因为投资是平稳的,而不是下降的。

第二,现代人工智能系统,特别是LLM,与AV截然不同。同样,汽车是对安全至关重要的机器。当然还有监管。但人们也只是不想坐上一辆不是高度可靠的汽车(高度可靠意味着“比非品牌充电器可靠得多”)。对于LLM来说,没有监管,即使在没有保障措施的情况下(事实上,特别是在没有保障的情况下),人们也会非常积极地使用它们。我认为有很多复杂的任务(1)不是安全关键的(即事故的代价没有那么高),但(2)可以自动化和/或由人工智能系统支持。

成本和盈利能力

我讨论TAI的部分原因是它可能与其他人工智能进步有关,部分原因是,尽管多年来人工智能研究人员试图避免这种预期,但人们现在开始怀疑人工智能实验室将在本世纪创造TAI。投资者大多不押注TAI——据我所知,他们通常希望在不到10年的时间内获得投资回报,如果他们预期AGI在未来10-20年内出现,他们今天会向人工智能公司投入远远超过数亿美元(每次投资)。相反,他们期待——我猜——工具将广泛地加快劳动速度,使普通任务自动化,并使新类型的服务和产品成为可能。

忽略TAI,类似于ChatGPT、Bing/Sydney和/或现代图像生成器的系统会在未来5年左右的时间里盈利吗?我认为,如果他们还没有做到的话,他们将在1-2年内做到。当然,需求是存在的。自从ChatGPT、Bing/Sydney和DALL-E2发布以来,我一直在广泛使用它们,并愿意为所有这些服务支付不菲的费用,我认为这样做是完全合理和自然的(而且我不是唯一这样认为的,据说ChatGPT在发布两个月后月活跃用户达到1亿,尽管这是在引入付费级别之前;相比之下,据报道,推特有约4.5亿)。

Eden写道:“据All-In播客的人估计,ChatGPT查询费用大约是谷歌搜索的10倍。我和分析师谈过,他们仔细估计了3-5倍的价格。在类似商业的搜索中,10%的改进是一个杀手级的应用。3-5倍是不可能的!”

SemiAnalysis的一项预计表明,ChatGPT(在GPT-4发布之前)的硬件运营成本为70万美元/天,这意味着(如果我们假设1300万活跃用户)约0.054美元/用户/天或约1.6美元/用户每月(ChatGPT-Plus的订阅费为20美元/用户/月)。这相当于70万美元×365=每年2.55亿美元的硬件运营成本,这是一个相当大的数字,但公平地说,这些成本可能会超过运营成本、员工工资、营销等10倍左右。OpenAI显然预计2023年的收入将达到2亿美元,到2024年将达到惊人的10亿美元。

与此同时,如前一节所述,推理的硬件成本正在迅速下降:人工智能加速器的性价比每2.1年翻一番(Hobbhahn和Besiroglu 2022)。因此,即使Eden是对的,类似GPT的模型现在的价格是老式搜索引擎的3-5倍,单从硬件性价比趋势来看,这种差异将在3-6年内消失(尽管我假设推理没有算法上的进步,传统搜索查询也不会便宜多少)。当然,未来会有更好的模型出现,但运行成本更高,但今年的模型似乎已经能够从传统的搜索引擎中夺取大量的市场份额,而老式的搜索引擎似乎在质量上有所下降,而不是在提高。

在我看来,在GPT-3或GPT-4等基础模型之上构建产品的人工智能公司很可能被夸大了。例如,Character.AI最近以10亿美元的估值筹集了超过2亿美元,其服务在标准的ChatGPT API之上似乎并没有真正增加多少价值,尤其是现在OpenAI已经增加了系统提示功能。但我认为这些公司可能会让人失望,正是因为它们被其他更普遍的人工智能系统所淘汰,我不认为它们的失败会导致人工智能的冬天。

为什么会有冬天

到目前为止,我所写的一切都是以“任何人工智能的冬天都是由人工智能系统不再变得更有实际用途,并因此有利可图而造成的”为前提的。人工智能不可靠,硬件性价比进展缓慢,推理计算过于昂贵——这些都只在影响人工智能的实用性/盈利能力的范围内才重要。我认为这是迄今为止最可能发生人工智能冬天的方式,但它不是唯一合理的方式;其他可能性包括限制性立法/法规、严重的故障和/或事故、大国冲突和极端的经济衰退。

但如果我们真的在十年内看到人工智能的冬天,我认为最有可能的原因是:

  • 规模会碰壁;超过一定数量的计算/数据/参数,规模化的好处就不再存在。例如,OpenAI用比GPT-4多得多的计算、数据和参数来训练GPT-5,但结果却不是那么令人印象深刻。
  1. 据我所见,到目前为止还没有发生这种情况的迹象。
  • 尽管人工智能在执行分发任务方面越来越好、越来越可靠,但真正的分布外泛化还很遥远。这将在一定程度上证明一些LLM还原论者是正确的。
  1. 我发现目前很难说情况是否如此,可能是因为分布中输入和分布外输入之间的界限往往很模糊。
  2. 我还认为,即使人工智能不会完全推广到分布之外,未来十年也不会有人工智能的冬天,因为分布中的数据涵盖了许多经济上有用的地方。
  • 我们没有高质量的数据(参见Villalobos等人(2022))。
  1. 我对这个问题比较不确定,但我猜测ML工程师会找到解决方法。OpenAI已经在给中低收入国家的工人来标记数据的费用;他们也可以付钱让他们生成数据。或者,你可以从视频和音频数据中生成文本数据。但更可能的是使用合成数据。例如,你可以使用AI生成训练数据(参考Alpaca,它对GPT-3生成的文本进行了微调)。ML的研究人员肯定已经想到了这些东西,只是还没有太多的需求去尝试,因为廉价的文本数据已经很丰富了。

我仍然认为人工智能的冬天看起来真的不太可能。在这一点上,我认为在2030年之前发生人工智能冬天的可能性只有5%,也就是每年全球人工智能投资的减少超过50%的情况。如果你像我一样认为我们作为一个物种对TAI完全没有准备的话,那就继续努力吧。

参考文献:

Cotra, Ajeya. 2020. “Forecasting Tai with Biological Anchors.”

Erdil, Ege, and Tamay Besiroglu. 2022. “Revisiting Algorithmic Progress.” https://epochai.org/blog/revisiting-algorithmic-progress.

Hobbhahn, Marius, and Tamay Besiroglu. 2022. “Trends in Gpu Price-Performance.” https://epochai.org/blog/trends-in-gpu-price-performance.

Odlyzko, Andrew. 2010. “Collective Hallucinations and Inefficient Markets: The British Railway Mania of the 1840s.”

Olazaran, Mikel. 1996. “A Sociological Study of the Official History of the Perceptrons Controversy.” Social Studies of Science 26 (3): 611--59.

Sevilla, Jaime, Lennart Heim, Anson Ho, Tamay Besiroglu, Marius Hobbhahn, and Pablo Villalobos. 2022. “Compute Trends across Three Eras of Machine Learning.” https://epochai.org/blog/compute-trends.

Villalobos, Pablo, Jaime Sevilla, Lennart Heim, Tamay Besiroglu, Marius Hobbhahn, and Anson Ho. 2022. “Will We Run out of Ml Data? Evidence from Projecting Dataset Size Trends.” https://epochai.org/blog/will-we-run-out-of-ml-data-evidence-from-projecting-dataset.

*本文由CoinTime整理编译,转载请注明来源。

评论

所有评论

推荐阅读

  • 以太坊链上DEX昨日交易量超21亿美元

    DeFiLlama 数据显示,以太坊链上 DEX 3 月 28 日交易量为 21.11 亿美元,排名第一。BSC 链上 DEX 日交易量为 13.98 亿美元,排名第二;Solana 链上 DEX 日交易量为 10.97 亿美元,排名第三。

  • 台湾内政部已批准成立加密货币行业协会

    台湾内政部已经批准当地加密货币行业成立行业协会的申请,为筹备成立行业协会而于去年成立的当地加密货币行业工作组表示,工作组现在需要完成所有准备工作,并按照政府要求在6月底前正式成立加密货币行业协会。工作组目前由22家加密货币公司组成,其中包括台湾的主要交易所,如MaiCoin和BitoPro。工作小组指出,已将ACE Exchange从小组中除名,因为这家陷入困境的交易所因其前高管涉嫌不当行为而受到检察官的调查。

  • 灰度ETH信托负溢价率为22.77%

    Coinglass 数据显示,灰度比特币信托基金 ETF(GBTC)溢价率为 0.02%。灰度 ETH 信托负溢价率为 22.77%,ETC 信托负溢价率为 36.58%。

  • 3月29日午间要闻速递

    1.Vitalik:Worldcoin一直在认真对待隐私问题的批评,并将系统所需数据设计得越来越少

  • 3月28日现货比特币ETF净流入达1.79亿美元

    链上数据监测平台Spot on Chain在社交媒体上发文表示,现货比特币ETF3月28日净流入达1.79亿美元,与前一个交易日相比下降26.9%,54个交易日后,累计净流入总额回到121.3亿美元,即上一个全负交易周之前的水平。贝莱德IBIT和灰度GBTC在3月28日的单日流入和流出量都明显放缓。

  • 比特币现货 ETF 昨日总净流入 1.79 亿美元,ETF 净资产比率达 4.25%

    根据 SoSoValue 数据,昨日(美东时间 3 月 28 日)比特币现货 ETF 总净流入 1.79 亿美元。

  • 以太坊铭文ETHS 24H涨幅超95%

    CoinGecko 数据显示,以太坊铭文 ETHS 24H 涨幅 95.9%,现报 7.51 USDT。此前,以太坊创始人 Vitalik 发布最新长文《Ethereum has blobs. Where do we go from here?》。受此消息影响,以太坊铭文价格 ETHS 大涨。

  • 3月29日早间要闻速递

    1.FTX创始人被判25年监禁,返还110亿美元,律师将上诉

  • Vitalik:随着L2交易成本的降低,以太坊没有理由不被广泛采用

    随着以太坊Dencun升级和引入blobs之后,以太坊创始人Vitalik Buterin就以太坊扩展的未来方向分享了自己的见解。Vitalik强调了以太坊扩展的转变,即从基础扩展工作转向集中、渐进的增强。Vitalik还表示,开发者的关注点将转向应用层。以太坊将保持以L2为中心的路线图,应用程序将从L1迁移到L2,以受益于更快、更具成本效益的交易。即将推出的一项升级是数据可用性采样(DAS),旨在将每个插槽的数据空间增加到16 MB。渐进式扩展改进包括逐步增加blob容量、改进数据压缩和EIP-7623(旨在减少最大区块大小)。 Vitalik指出,随着L2交易成本的降低,以太坊没有理由不被广泛采用。

  • Parallel Studios获得3500万美元融资,计划扩大Parallel宇宙影响力并推出AI驱动的Colony游戏

    区块链游戏开发公司Parallel Studios宣布获得了来自多家知名机构和天使投资人的3500万美元融资,其中包括投资管理巨头VanEck、Solana Ventures、Collab + Currency等。这笔融资将用于扩大用户规模、推出新游戏、在全球市场进行付费广告等。此外,该公司还计划在未来几个月内在Epic Games Store和Steam上推出游戏,并在Solana上推出基于AI的Colony游戏。