Picture of the author

CryptoMoon

09/12 19:06

人工智能生死攸关的矛盾性揭示了我们为何需要去中心化 | 观点
兰德公司最近在《精神病学服务》杂志上发表的一项研究揭示了我们最信赖的人工智能系统的一个令人毛骨悚然的真相:ChatGPT、Gemini 和 Claude 对与自杀相关的问题的回应极其不一致。当危机中的人寻求帮助时,他们的回应完全取决于他们所使用的企业聊天机器人。

摘要
信任危机——中心化、不透明的人工智能开发会导致不一致且不安全的结果,尤其是在心理健康等敏感领域。
黑箱问题——安全过滤器和道德规则隐藏在企业机密背后,其驱动力更多是法律风险而非道德一致性。
社区高于企业——开源、可审计的安全协议和去中心化的基础设施使全球专家能够塑造具有文化意识、负责任的人工智能。
道德基础设施——构建值得信赖的人工智能需要透明的治理和集体管理,而不是由少数科技巨头控制的封闭系统。
这并非一个可以在下一次软件更新中修复的技术漏洞。这是严重的信任缺失,暴露了我们构建人工智能系统过程中的根本缺陷。当事关生死时,不一致就变得不可接受。

问题远比糟糕的编程更深层次。这是一种支离破碎的、中心化的开发模式的症状,这种模式将关键决策权集中在少数几家硅谷公司手中。
L

1000049626

#Claim1,200 USDT in the Monthly Creation Challenge#Post To Earn Bonus#HTX community ✖ SUNPUMP Creator Championship
3Поділитися

Усі коментарі0НовіПопулярно

avatar
НовіПопулярно