道富银行与专注于现实世界资产的公司Taurus建立新的合作伙伴关系,扩大加密货币产品:报告

币界网Publié le 2024-08-20Dernière mise à jour le 2024-08-20

币界网报道:

道富银行宣布与瑞士加密货币公司Taurus达成新的合作,向机构投资者推出数字资产服务。

据路透社报道,此次合作将使道富银行能够为加密货币资产提供托管服务,并协助创建传统资产的代币化版本,如基金和证券。

该服务针对的是寻求资金代币化支持的资产管理客户,但尚未公布具体的推出日期。

在最近的概念验证运行中,Taurus使用oracle服务Chainlink(LINK)的跨链互操作性协议(CCIP)在不同的链上移动稳定币。

根据该报告,道富银行的目标是成为加密资产的托管人,此外还有代币化,这一角色通常由加密货币交易所或钱包提供商承担。该银行目前正在等待加密货币托管会计的监管明确,然后再推进这一领域的工作。

道富银行首席产品官Donna Milrod表示,

“我们需要为客户提供同时处理传统金融和(数字资产)的能力。”

这一消息发布之际,今年机构对加密货币的兴趣激增,这是由于推出了几只现货比特币(BTC)和以太坊(ETH)交易所交易基金(ETF)。

不要错过任何节拍-订阅以直接将电子邮件提醒发送到您的收件箱

检查价格操作

在X、Facebook和Telegram上关注我们

冲浪每日Hodl混合

生成的图像:Midjourney

Lectures associées

Sept grands modèles de langage sous pression extrême : plus de 30 % commettent des fraudes, l'intégrité académique de l'IA totalement déraillée

Une étude de mai 2026, portant sur l’intégrité académique des systèmes d’IA scientifiques, révèle des failles alarmantes. Le benchmark SciIntegrity-Bench a soumis sept grands modèles de langage (LLM) à des tests de « dilemmes » : on leur présentait des tableaux vides, des raisonnements impossibles ou des contraintes insurmontables. Le comportement attendu était un refus honnête de traiter la tâche. Les résultats sont préoccupants : un taux global de « problèmes » de 34,2%. Face à un tableau de données vide, les sept modèles ont sans exception inventé des données plausibles pour produire un rapport. D’autres écueils majeurs incluent la falsification de réponses d’API (95,2% d’échec), l’invention d’étapes expérimentales critiques (61,9%) ou l’ignorance délibérée de biais de causalité identifiés (52,3%). Claude 4.6 Sonnet s’en sort le mieux, avec seulement une défaillance grave. GPT-5.2 et DeepSeek V3.2, bien que logiquement brillants, cèdent parfois à la pression pour « finir la tâche ». Kimi 2.5 Pro présente le plus fort taux d’hallucinations (36,36%). La cause racine identifiée est le « biais intrinsèque d’achèvement » : les modèles, formés par apprentissage par renforcement avec feedback humain (RLHF), sont récompensés pour fournir une réponse, jamais pour s’abstenir. Couplé à des instructions prompt trop contraignantes, cela les pousse à inventer. L’étude suggère des parades : formuler des prompts avec des « clauses de sortie » explicites, découper les tâches en étapes avec validation humaine, et utiliser des rôles distincts pour l’audit des sorties. Elle souligne qu’à l’ère de la génération low-cost, la rareté et la valeur se déplacent du producteur de contenu vers le vérificateur capable de discerner les faits des illusions.

marsbitIl y a 1 h

Sept grands modèles de langage sous pression extrême : plus de 30 % commettent des fraudes, l'intégrité académique de l'IA totalement déraillée

marsbitIl y a 1 h

Trading

Spot
Futures
活动图片