【比推每日新闻精选】以太坊完成Fusaka升级,正式进入一年两次硬分叉节奏;贝莱德年度展望:美国债务增长将推动加密货币上涨;康涅狄格州命令 Kalshi、Robinhood、Crypto.com 停止体育博彩业务

比推Published on 2025-12-04Last updated on 2025-12-04

比推小编每日为您精选的Web3新闻:

以太坊完成Fusaka升级,正式进入一年两次硬分叉节奏】

比推消息,以太坊第 17 次重大升级“Fusaka”已在主网 epoch 411392(北京时间周四凌晨约 5:50)正式激活,距离 5 月的 Pectra 升级仅约 7 个月。此次升级不仅带来多项 UX 与扩容改进,还标志以太坊正式进入“一年两次硬分叉”的加速开发节奏。

Consensys 表示,以太坊研究人员未来将以每年两次升级为目标。自 2022 年合并(The Merge)以来,以太坊通常每年只进行一次重大更新,分别为 Shapella(2023)、Dencun(2024)和 Pectra(2025)。

Fusaka 引入了多项关键技术变更,包括影响数据可用性与定价的新采样技术“PeerDAS”。此次升级共包含 9 项核心 EIP 和 4 项配套 EIP,按部分统计标准来看,是以太坊迄今规模最大的升级之一。

贝莱德年度展望:美国债务增长将推动加密货币上涨】

比推消息,贝莱德公布了其展望。撇开对美国债券及全球最大经济体的悲观判断不谈,这份报告本质上勾勒出一条机构加速采用加密货币的乐观路线图。

报告指出,美国联邦债务将突破 38 万亿美元,市场脆弱性加剧,传统对冲工具逐渐失效。在这种环境下,华尔街巨头将更快转向数字资产作为替代投资。贝莱德全球市场开发主管萨马拉·科恩表示,稳定币已“脱离小众”,正成为传统金融与数字流动性之间的关键桥梁。

【康涅狄格州命令 KalshiRobinhoodCrypto.com 停止体育博彩业务】

比推消息,据 CoinDesk 报道,康涅狄格州向体育赛事合约领域发起法律攻势,于周三向三家主要预测市场运营商——Robinhood、Kalshi 和 Crypto.com 发出停止侵权通知。该州消费者保护部门指控这些公司从事无牌照的体育博彩。

根据州政府通知,这些公司被特此命令立即停止并终止向康涅狄格州居民宣传、提供、推广或以任何方式提供合约或其他形式的无牌照线上博彩。

Robinhood 周三对此辩称,表示公司受到美国联邦政府监管。

Tom Lee再度增持价值1.5亿美元的以太坊】

比推消息,据Solid Intel披露,Tom Lee再度增持价值1.5亿美元的以太坊。

【美财长贝森特或兼任哈塞特当前职务】

比推消息,据知情人士透露,特朗普的幕僚和盟友正在讨论一项人事安排:若特朗普任命哈塞特为下一任美联储主席,现任财政部长贝森特或将同时出任白宫国家经济委员会主任。此举将使贝森特全面统筹特朗普政府的经济政策,整合财政部与白宫经济事务的监管权。相关安排尚未最终敲定。一名白宫官员表示,在总统正式宣布前,任何人选变动都属猜测。财政部代表未回应置评请求。

【贝莱德CEO承认此前反对比特币和加密货币是错误的】

比推消息,贝莱德 CEO Larry Fink 今日在纽约时报 DealBook 峰会上承认此前反对比特币和加密货币是错误的。

主持人问及“你曾在 2017 年称加密货币是洗钱和盗贼的工具,现在贝莱德却拥有规模最大的比特币现货 ETF,发生了什么?” Larry Fink 对此回应,我有鲜明的观点但这并不意味着我不会错,在不断自我检验以及每年会见成千上万客户和政府领袖后,我的思考过程得以不断演变,观点也发生了巨大转变,现在贝莱德积极拥抱比特币。


Twitter:https://twitter.com/BitpushNewsCN

比推 TG 交流群:https://t.me/BitPushCommunity

比推 TG 订阅: https://t.me/bitpush

说明: 比推所有文章只代表作者观点,不构成投资建议

Related Reads

a16z: AI's 'Amnesia', Can Continuous Learning Cure It?

The article "a16z: AI's 'Amnesia' – Can Continual Learning Cure It?" explores the limitations of current large language models (LLMs), which, like the protagonist in the film *Memento*, are trapped in a perpetual present—unable to form new memories after training. While methods like in-context learning (ICL), retrieval-augmented generation (RAG), and external scaffolding (e.g., chat history, prompts) provide temporary solutions, they fail to enable true internalization of new knowledge. The authors argue that compression—the core of learning during training—is halted at deployment, preventing models from generalizing, discovering novel solutions (e.g., mathematical proofs), or handling adversarial scenarios. The piece introduces *continual learning* as a critical research direction to address this, categorizing approaches into three paths: 1. **Context**: Scaling external memory via longer context windows, multi-agent systems, and smarter retrieval. 2. **Modules**: Using pluggable adapters or external memory layers for specialization without full retraining. 3. **Weights**: Enabling parameter updates through sparse training, test-time training, meta-learning, distillation, and reinforcement learning from feedback. Challenges include catastrophic forgetting, safety risks, and auditability, but overcoming these could unlock models that learn iteratively from experience. The conclusion emphasizes that while context-based methods are effective, true breakthroughs require models to compress new information into weights post-deployment, moving from mere retrieval to genuine learning.

marsbit2h ago

a16z: AI's 'Amnesia', Can Continuous Learning Cure It?

marsbit2h ago

Trading

Spot
Futures

Hot Articles

Discussions

Welcome to the HTX Community. Here, you can stay informed about the latest platform developments and gain access to professional market insights. Users' opinions on the price of ETH (ETH) are presented below.

活动图片