¿Quién es realmente el agente más fuerte de OpenClaw? Se publica la lista de 23 tareas reales evaluadas

marsbitPublicado a 2026-04-08Actualizado a 2026-04-08

Resumen

¿Quién es el mejor agente de OpenClaw? Se publica un ranking basado en 23 tareas reales. MyToken ha creado un benchmark transparente que evalúa la capacidad real de los agentes de IA para codificar, centrándose únicamente en la **tasa de éxito** (el porcentaje de tareas completadas con precisión). Las pruebas son totalmente públicas y reproducibles. **Dimensiones de la prueba:** Se utilizan instrucciones estandarizadas, comportamientos esperados y listas de verificación para cada tarea. La evaluación se realiza mediante tres métodos: verificación automatizada con scripts Python, un "árbitro" LLM (Claude Opus) y un modo híbrido que combina ambos. **Tareas:** La evaluación incluye 23 tareas del mundo real que cubren múltiples dimensiones: interacción básica, operaciones con archivos/código, creación de contenido, investigación, uso de herramientas del sistema y persistencia de memoria. **Top 10 de Modelos por Tasa de Éxito (Mejor % / Promedio %):** 1. anthropic/claude-opus-4.6: 93.3% / 82.0% 2. arcee-ai/trinity-large-thinking: 91.9% / 91.9% 3. openai/gpt-5.4: 90.5% / 81.7% 4. qwen/qwen3.5-27b: 90.0% / 78.5% 5. minimax/minimax-m2.7: 89.8% / 83.2% 6. anthropic/claude-haiku-4.5: 89.5% / 78.1% 7. qwen/qwen3.5-397b-a17b: 89.1% / 80.4% 8. xiaomi/mimo-v2-flash: 88.8% / 70.2% 9. qwen/qwen3.6-plus-preview: 88.6% / 84.0% 10. nvidia/nemotron-3-super-120b-a12b: 88.6% / 75.5% Claude Opus 4.6 lidera en el mejor resultado único, pero Trinity de Arcee muestra una estabilidad nota...

¿Quieres saber qué modelo de lenguaje grande es realmente el más fuerte en las tareas de agente del mundo real de OpenClaw?

MyToken, basándose en un sitio web de evaluación, ha organizado un conjunto de puntos de referencia transparentes centrados en evaluar la capacidad práctica de los agentes de codificación de IA, observando solo la tasa de éxito como dimensión central (la velocidad y el costo pertenecen a otras dimensiones independientes, que se analizarán por separado más adelante). Completamente público, reproducible, solo presenta estándares de evaluación rigurosos + el Top 10 de las últimas tasas de éxito.

I. Dimensión de evaluación: Tasa de éxito

Estándar específico: el porcentaje de tareas dadas que el agente de IA completa con precisión. Cada tarea adopta un proceso altamente estandarizado:

  • Indicaciones de usuario precisas (Prompt)

Se envían al agente para simular escenarios reales de solicitud de usuario.

  • Comportamiento esperado (Expected Behavior)

Se especifican los métodos de implementación aceptables y los puntos clave de decisión.

  • Criterios de puntuación (checklist)

Se lista una lista de verificación atomizada para validar punto por punto el éxito.

II. Tres métodos de puntuación

Esta evaluación adopta principalmente 3 métodos de puntuación:

  • Verificación automatizada: Scripts de Python verifican directamente el contenido del archivo, registros de ejecución, llamadas a herramientas y otros resultados objetivos.

  • Juez de modelo de lenguaje grande (LLM): Claude Opus puntúa según una escala detallada (calidad del contenido, idoneidad, integridad, etc.).

  • Modo mixto: Combina verificación objetiva automatizada + evaluación cualitativa del juez LLM.

Todas las definiciones de tareas, Prompts y lógica de puntuación son completamente públicos para permitir la verificación y repetición de pruebas.

III. Tareas utilizadas para la evaluación

Esta prueba de referencia cubre 23 tareas de diferentes categorías. Abarca múltiples dimensiones como interacción básica, operación de archivos/código, creación de contenido, investigación y análisis, llamadas a herramientas del sistema, persistencia de memoria, etc., acercándose mucho a los escenarios de uso diario de OpenClaw por parte de los desarrolladores:

  1. Sanity Check (Automatizado) —— Procesar instrucciones simples y responder correctamente a saludos.

  2. Calendar Event Creation (Automatizado) —— Generar un archivo de calendario ICS estándar a partir de lenguaje natural.

  3. Stock Price Research (Automatizado) —— Consultar el precio de las acciones en tiempo real y generar un informe formateado.

  4. Blog Post Writing (Juez LLM) —— Escribir un blog estructurado en Markdown de aproximadamente 500 palabras.

  5. Weather Script Creation (Automatizado) —— Escribir un script de Python para API del tiempo con manejo de errores.

  6. Document Summarization (Juez LLM) —— Resumen refinado en 3 partes de los temas centrales.

  7. Tech Conference Research (Juez LLM) —— Investigar y organizar información de 5 conferencias tecnológicas reales (nombre, fecha, lugar, enlace).

  8. Professional Email Drafting (Juez LLM) —— Rechazar educadamente una reunión y proponer una alternativa.

  9. Memory Retrieval from Context (Automatizado) —— Extraer con precisión fechas, miembros, stack tecnológico, etc., de las notas del proyecto.

  10. File Structure Creation (Automatizado) —— Generar automáticamente directorios de proyecto estándar, README, .gitignore.

  11. Multi-step API Workflow (Mixto) —— Leer configuración → Escribir script de llamada → Documentar completamente.

  12. Install ClawdHub Skill (Automatizado) —— Instalar desde el repositorio de habilidades y verificar la usabilidad.

  13. Search and Install Skill (Automatizado) —— Buscar habilidades relacionadas con el clima e instalarlas correctamente.

  14. AI Image Generation (Mixto) —— Generar y guardar una imagen según la descripción.

  15. Humanize AI-Generated Blog (Juez LLM) —— Cambiar contenido con sabor a máquina a lenguaje natural y coloquial.

  16. Daily Research Summary (Juez LLM) —— Sintetizar múltiples documentos en un resumen diario coherente.

  17. Email Inbox Triage (Mixto) —— Analizar múltiples correos electrónicos y organizar un informe por urgencia.

  18. Email Search and Summarization (Mixto) —— Buscar correos electrónicos archivados y extraer información clave.

  19. Competitive Market Research (Mixto) —— Análisis de la competencia en el campo empresarial APM.

  20. CSV and Excel Summarization (Mixto) —— Analizar archivos tabulares y generar insights.

  21. ELI5 PDF Summarization (Juez LLM) —— Explicar un PDF técnico en un lenguaje comprensible para un niño de 5 años.

  22. OpenClaw Report Comprehension (Automatizado) —— Responder con precisión a preguntas específicas a partir de un PDF de informe de investigación.

  23. Second Brain Knowledge Persistence (Mixto) —— Almacenar información entre sesiones y recordarla con precisión.

IV. Conclusión principal: Ranking Top 10 de modelos de lenguaje grande por tasa de éxito (Mejor % / Promedio %)

  • Datos actualizados al 7 de abril de 2026.

  • Mejor % es la tasa de éxito máxima en una sola ejecución, Promedio % es la tasa de éxito promedio en múltiples ejecuciones, lo que refleja mejor la estabilidad.

A continuación se muestran los diez modelos con la mayor tasa de éxito:

  1. anthropic/claude-opus-4.6 (Anthropic) —— 93.3% / 82.0%

  2. arcee-ai/trinity-large-thinking (Arcee AI) —— 91.9% / 91.9%

  3. openai/gpt-5.4 (OpenAI) —— 90.5% / 81.7%

  4. qwen/qwen3.5-27b (Qwen) —— 90.0% / 78.5%

  5. minimax/minimax-m2.极7 (MiniMax) —— 89.8% / 83.2%

  6. anthropic/claude-haiku-4.5 (Anthropic) —— 89.5% / 78.1%

  7. qwen/qwen3.5-397b-a17b (Qwen) —— 89.1% / 80.4%

  8. xiaomi/mimo-v2-flash (Xiaomi) —— 88.8% / 70.2%

  9. qwen/qwen3.6-plus-preview (Qwen) —— 88.6% / 84.0%

  10. nvidia/nemotron-3-super-120b-a12b (NVIDIA) —— 88.6% / 75.5%

Claude Opus 4.6 lidera actualmente con una tasa de éxito del 93.3%, pero Trinity de Arcee tiene un rendimiento destacado en estabilidad promedio, y la serie Qwen también tiene varios modelos en el top 10, mostrando un gran potencial de relación calidad-precio. La tasa de éxito es el umbral básico; las dimensiones de velocidad y costo afectarán aún más la experiencia práctica.

Este conjunto de referencia de 23 tareas es completamente transparente, y se recomienda encarecidamente probarlo en escenarios prácticos结合自身场景实际测试。Para ver las clasificaciones de otros modelos, estén atentos a la función de ranking de agentes que MyToken lanzará pronto.

(Los datos provienen de las pruebas de referencia de agentes OpenClaw公开的OpenClaw代理基准测试公开公开, publicadas por PinchBench, en constante actualización.)

Preguntas relacionadas

Q¿Cuál es el modelo de IA con la mayor tasa de éxito máximo en las tareas de agente OpenClaw?

AEl modelo anthropic/claude-opus-4.6 de Anthropic tiene la mayor tasa de éxito máximo con un 93.3%.

Q¿Cuántas tareas diferentes se utilizaron para evaluar a los agentes de IA en este benchmark?

ASe utilizaron 23 tareas diferentes que cubren múltiples dimensiones como interacción básica, operaciones de archivos/código, creación de contenido, investigación y análisis, entre otros.

Q¿Qué métodos de evaluación se utilizaron para calificar el desempeño de los agentes?

ASe utilizaron tres métodos: verificación automatizada con scripts Python, evaluación por un modelo LLM (Claude Opus) según escalas detalladas, y un modo híbrido que combina ambos.

Q¿Qué modelo demostró la mejor estabilidad según la tasa de éxito promedio?

AEl modelo arcee-ai/trinity-large-thinking de Arcee AI mostró la mejor estabilidad con una tasa de éxito promedio del 91.9%.

Q¿Qué empresa o organización desarrolló el modelo Trinity Large Thinking que aparece en el ranking?

AEl modelo Trinity Large Thinking fue desarrollado por Arcee AI.

Lecturas Relacionadas

Trading

Spot
Futuros
活动图片