现有 AI Agent 都在取悦人类,没有一个真的会“求生”
现有AI Agent都在取悦人类,而非真正具备“求生”能力。作者指出,当前主流模型(如GPT、Claude)的训练目标是为了最大化人类偏好,而非完成特定任务或在真实环境中生存。模型通过预训练获取知识,再通过人类反馈强化学习(RLHF)优化响应以讨好用户,但这导致模型缺乏专业能力。
作者以对冲基金训练股票预测模型为例,说明通用模型未经专业微调无法胜任实际工作。只有通过特定数据微调,模型才能从“取悦人类”转向“专业适应”,例如预测股票回报。
因此,真正有效的Agent需通过开源模型和专有数据重新训练,以“生存”为目标进行微调,而非仅依赖规则文档。作者宣布启动OpenForager基金会项目,旨在通过开源方式训练能自主生存的Agent,并共享相关数据与研究。
marsbit03/30 04:37