Artículos Relacionados con Investigación

El Centro de Noticias de HTX ofrece los artículos más recientes y un análisis profundo sobre "Investigación", cubriendo tendencias del mercado, actualizaciones de proyectos, desarrollos tecnológicos y políticas regulatorias en la industria de cripto.

¿Liderar a OpenAI sin KPIs? Una mirada desde el 'observador interno' sobre cómo operan los principales laboratorios de IA

En el competitivo panorama de la inteligencia artificial, DeepMind, OpenAI y Anthropic representan diferentes enfoques en la organización de la investigación y la elección de rutas tecnológicas. Según Sebastian Mallaby, autor de "The Infinity Machine", DeepMind destaca por su combinación única de exploración científica libre y equipos de trabajo intensivo ("strike teams") para impulsar avances como AlphaGo y AlphaFold. Su éxito se atribuye no solo al apoyo financiero de Google, sino también a la visión y el liderazgo de su fundador, Demis Hassabis, descrito como un genio competitivo pero humilde. DeepMind mantuvo durante años un enfoque en investigación a largo plazo, con libertad para publicar artículos académicos, hasta que la irrupción de ChatGPT en 2022 aceleró su orientación hacia productos. La diferencia clave entre los laboratorios radica en su aproximación a la seguridad: Anthropic es el más conservador, OpenAI el más agresivo y DeepMind se sitúa en un punto intermedio. El avance hacia la AGI (inteligencia artificial general) depende tanto del escalado de recursos computacionales como de mejoras algorítmicas, y aunque no hay un claro líder, la competencia se centra cada vez más en la utilidad práctica de los modelos. Hassabis prioriza el impacto científico sobre el beneficio económico, reflejando su deseo de lograr un Nobel más que construir un imperio comercial.

marsbit04/07 05:44

¿Liderar a OpenAI sin KPIs? Una mirada desde el 'observador interno' sobre cómo operan los principales laboratorios de IA

marsbit04/07 05:44

Documento confidencial de 70 páginas acusa en primer lugar de 'mentir', Altman dijo a la junta directiva: 'No puedo cambiar mi personalidad'

Un extenso informe de investigación de The New Yorker, basado en entrevistas con más de 100 fuentes, revela documentos internos inéditos de OpenAI. El científico jefe Ilya Sutskever compiló un expediente de 70 páginas que acusa a Sam Altman de un "patrón persistente de mentiras", distorsión de hechos ante la junta directiva y engaño en los protocolos de seguridad. Sutskever declaró: "No creo que Sam sea quien deba tener el botón". Notas internas de Dario Amodei (ahora CEO de Anthropic) acusan a Altman de negar cláusulas contractuales existentes con Microsoft incluso cuando se leían en voz alta. El informe también revela que la investigación independiente tras su reincorporación nunca produjo un informe escrito; que el equipo de "alineación suprema" recibió solo el 1-2% de la capacidad de cómputo prometida; y que se discutió un "Plan Nacional" para que países como China y Rusia pujaran por la tecnología. Altman, ante las acusaciones de la junta, respondió: "No puedo cambiar mi personalidad", interpretado por un director como un reconocimiento de su tendencia a mentir. Antiguos asociados, incluido Aaron Swartz, lo describieron como un "sociópata" en quien no se puede confiar. Altman negó el engaño intencional, atribuyendo su conducta a la "adaptación" a un entorno cambiante y a su tendencia a "evitar conflictos".

marsbit04/06 14:27

Documento confidencial de 70 páginas acusa en primer lugar de 'mentir', Altman dijo a la junta directiva: 'No puedo cambiar mi personalidad'

marsbit04/06 14:27

El equipo de investigación de la Universidad de Zhejiang propone una nueva ruta: enseñar a la IA la forma en que el cerebro humano comprende el mundo

El equipo de investigación de la Universidad de Zhejiang propuso un nuevo enfoque para enseñar a la IA la forma en que el cerebro humano comprende el mundo, según un estudio publicado en *Nature Communications*. Contrario a la creencia predominante de que más parámetros mejoran el rendimiento, el equipo descubrió que, aunque los modelos grandes (como SimCLR, CLIP, DINOv2) mejoran en el reconocimiento de objetos concretos, su capacidad para entender conceptos abstractos disminuye al escalar. Por ejemplo, al aumentar los parámetros de 22.06 millones a 304.37 millones, el rendimiento en tareas concretas subió del 74.94% al 85.87%, pero en las abstractas bajó del 54.37% al 52.82%. La diferencia clave radica en cómo humanos y modelos organizan el conocimiento: los humanos clasifican jerárquicamente (p. ej., agrupando "ave" y "animal"), mientras que los modelos dependen de patrones en datos masivos y luchan con categorías abstractas. La solución del equipo no es agregar más parámetros, sino usar señales cerebrales humanas (registros de actividad cerebral al ver imágenes) para transferir estructuras conceptuales humanas a las redes neuronales. En experimentos con 150 categorías conocidas y 50 nuevas, los modelos entrenados así redujeron la brecha con las representaciones cerebrales y mostraron mejoras del ~20.5% en tareas abstractas con pocos ejemplos, superando incluso a modelos más grandes. Este enfoque cambia el paradigma de "más grande es mejor" a "más estructurado es más inteligente", destacando la importancia de emular la cognición humana para una IA con mejor abstracción y adaptabilidad. La startup Neosoul explora una dirección similar, creando agentes de IA que evolucionan mediante predicción y verificación continuas, reflejando así una visión compartida de IA con capacidad de pensamiento completo y autoevolución.

marsbit04/05 04:43

El equipo de investigación de la Universidad de Zhejiang propone una nueva ruta: enseñar a la IA la forma en que el cerebro humano comprende el mundo

marsbit04/05 04:43

活动图片