Artículos Relacionados con IA

El Centro de Noticias de HTX ofrece los artículos más recientes y un análisis profundo sobre "IA", cubriendo tendencias del mercado, actualizaciones de proyectos, desarrollos tecnológicos y políticas regulatorias en la industria de cripto.

Documento confidencial de 70 páginas acusa en primer lugar de 'mentir', Altman dijo a la junta directiva: 'No puedo cambiar mi personalidad'

Un extenso informe de investigación de The New Yorker, basado en entrevistas con más de 100 fuentes, revela documentos internos inéditos de OpenAI. El científico jefe Ilya Sutskever compiló un expediente de 70 páginas que acusa a Sam Altman de un "patrón persistente de mentiras", distorsión de hechos ante la junta directiva y engaño en los protocolos de seguridad. Sutskever declaró: "No creo que Sam sea quien deba tener el botón". Notas internas de Dario Amodei (ahora CEO de Anthropic) acusan a Altman de negar cláusulas contractuales existentes con Microsoft incluso cuando se leían en voz alta. El informe también revela que la investigación independiente tras su reincorporación nunca produjo un informe escrito; que el equipo de "alineación suprema" recibió solo el 1-2% de la capacidad de cómputo prometida; y que se discutió un "Plan Nacional" para que países como China y Rusia pujaran por la tecnología. Altman, ante las acusaciones de la junta, respondió: "No puedo cambiar mi personalidad", interpretado por un director como un reconocimiento de su tendencia a mentir. Antiguos asociados, incluido Aaron Swartz, lo describieron como un "sociópata" en quien no se puede confiar. Altman negó el engaño intencional, atribuyendo su conducta a la "adaptación" a un entorno cambiante y a su tendencia a "evitar conflictos".

marsbit04/06 14:27

Documento confidencial de 70 páginas acusa en primer lugar de 'mentir', Altman dijo a la junta directiva: 'No puedo cambiar mi personalidad'

marsbit04/06 14:27

El equipo de investigación de la Universidad de Zhejiang propone una nueva ruta: enseñar a la IA la forma en que el cerebro humano comprende el mundo

El equipo de investigación de la Universidad de Zhejiang propuso un nuevo enfoque para enseñar a la IA la forma en que el cerebro humano comprende el mundo, según un estudio publicado en *Nature Communications*. Contrario a la creencia predominante de que más parámetros mejoran el rendimiento, el equipo descubrió que, aunque los modelos grandes (como SimCLR, CLIP, DINOv2) mejoran en el reconocimiento de objetos concretos, su capacidad para entender conceptos abstractos disminuye al escalar. Por ejemplo, al aumentar los parámetros de 22.06 millones a 304.37 millones, el rendimiento en tareas concretas subió del 74.94% al 85.87%, pero en las abstractas bajó del 54.37% al 52.82%. La diferencia clave radica en cómo humanos y modelos organizan el conocimiento: los humanos clasifican jerárquicamente (p. ej., agrupando "ave" y "animal"), mientras que los modelos dependen de patrones en datos masivos y luchan con categorías abstractas. La solución del equipo no es agregar más parámetros, sino usar señales cerebrales humanas (registros de actividad cerebral al ver imágenes) para transferir estructuras conceptuales humanas a las redes neuronales. En experimentos con 150 categorías conocidas y 50 nuevas, los modelos entrenados así redujeron la brecha con las representaciones cerebrales y mostraron mejoras del ~20.5% en tareas abstractas con pocos ejemplos, superando incluso a modelos más grandes. Este enfoque cambia el paradigma de "más grande es mejor" a "más estructurado es más inteligente", destacando la importancia de emular la cognición humana para una IA con mejor abstracción y adaptabilidad. La startup Neosoul explora una dirección similar, creando agentes de IA que evolucionan mediante predicción y verificación continuas, reflejando así una visión compartida de IA con capacidad de pensamiento completo y autoevolución.

marsbit04/05 04:43

El equipo de investigación de la Universidad de Zhejiang propone una nueva ruta: enseñar a la IA la forma en que el cerebro humano comprende el mundo

marsbit04/05 04:43

¿Quién más no puede ser destilado en una skill?

Desafortunadamente, en esta era, cuanto más dedicado y meticuloso seas en tu trabajo, más fácil será que te conviertas en un "skill" reemplazable por la IA. El reciente fenómeno "同事.skill" (habilidad de colega) ha generado ansiedad sobre el reemplazo laboral por IA, la explotación capitalista y la "inmortalidad digital" del trabajador. Lo más preocupante es que los sistemas de IA buscan "distilar" a las personas extrayendo su "contexto" de alta calidad: documentos largos, respuestas de toma de decisiones y mensajes diarios de herramientas de colaboración como Feishu o DingTalk. Los trabajadores más diligentes, que documentan meticulosamente su trabajo, se convierten en el combustible perfecto para la IA, ya que su conocimiento explícito es fácil de capturar. Esto reduce a las personas a meras APIs, transformando relaciones humanas complejas ("yo-tú") en transacciones funcionales ("yo-eso"), como se ve en derivados perturbadores como "ex.skill" o "jefe.skill". Sin embargo, la IA solo puede extraer conocimiento explícito, nunca el conocimiento tácito (intuición, experiencia no verbalizada) que define gran parte de la expertise humana. Un riesgo mayor es el "colapso del modelo": cuando la IA se entrena con datos generados por otras IAs, el output se vuelve homogéneo, superficial y pierde la riqueza de lo humano, como una imagen que se vuelve borrosa tras ser re-comprimida repetidamente ("pañuelo electrónico"). La solución no es rendirse. Proyectos como "anti-distill" intentan contaminar el sistema con texto sin sentido para proteger el conocimiento real. La verdadera esperanza reside en que los humanos somos "algoritmos en flujo": nuestra capacidad para aprender, adaptarnos y evolucionar frente a lo desconocido es lo que un "skill" estático nunca podrá replicar. La esencia humana, siempre en movimiento, permanece irreductible.

marsbit04/05 03:47

¿Quién más no puede ser destilado en una skill?

marsbit04/05 03:47

Selección Semanal del Editor (28/03 - 03/04)

Resumen semanal de las selecciones editoriales (28 mar - 3 abr): **Panorama macro:** Se debate si la recesión económica global ya comenzó, reinterpretada como un "estado estratégico" que debilita la capacidad negociadora de los países. Buffett advierte que no es momento de comprar acciones y alerta sobre riesgos nucleares. La inversión en IA (7000 mil millones) presiona la inflación en EE.UU. Bitcoin alcanza "velocidad de escape" frente al declive fiduciario. **Inversión y Web3:** Trabajadores en Dubái firman acuerdos de alto riesgo por oportunidades en Web3. El modelo de tokens "ve" pierde popularidad por fallas ejecutivas. Tiger Research analiza barreras para inversores minoristas en Asia. **IA y predicciones:** La fuga de código de Claude revela que la ventaja competitiva está en la ingeniería, no en los modelos. Polymarket muestra que 87% de los traders pierden dinero por sobrestimar eventos improbables. IA aprovecha oportunidades de arbitraje en mercados predictivos. **CeFi/DeFi:** Stripe avanza con visión en pagos para agentes de IA, mientras PayPal lucha con la competencia de stablecoins. Hyperliquid destaca con mercados de predicción y opciones sin riesgo de liquidación. **Bitcoin y minería:** Mineros de BTC pierden $19k por moneda, migrando masivamente a infraestructura de IA. Proyectos experimentales exploran minería espacial para reducir costos. **Seguridad:** Google advierte que la computación cuántica podría romper criptografía actual hacia 2029, urge actualizar protocolos. Incluye también resúmenes de políticas, declaraciones de Trump sobre Bitcoin, IPO de SpaceX, y hackeo de Drift Protocol (pérdida: $200M).

marsbit04/04 02:35

Selección Semanal del Editor (28/03 - 03/04)

marsbit04/04 02:35

¿DeepSeek colapsó durante 12 horas? ¿La capacidad de cálculo de los grandes modelos nacionales ya no puede seguir el ritmo de sus ambiciones?

El 29 de marzo, DeepSeek, uno de los principales proveedores de modelos de inteligencia artificial de China, experimentó una interrupción masiva de 12 horas que afectó tanto a su aplicación como a su plataforma web. El fallo, que comenzó a las 21:35, provocó interrupciones en conversaciones, pérdida de contenido y mensajes de "servidor ocupado". Aunque se restableció brevemente a las 23:00, colapsó nuevamente a la medianoche, y no se estabilizó hasta la mañana siguiente. Aunque inicialmente se atribuyó la caída a una sobrecarga de usuarios, los datos mostraron que no hubo un crecimiento explosivo en su base de usuarios, que ronda los 150 millones mensuales. Esto sugiere que la causa podría ser más estructural, relacionada con la creciente demanda de capacidad de computación (o "compute"). La evolución de los modelos de IA, con contextos más largos y capacidades de razonamiento más complejas, requiere cada vez más recursos. La interrupción de DeepSeek se interpreta como una "prueba de estrés" del sistema, un síntoma de que la infraestructura de computación podría no estar a la altura del rápido crecimiento de la demanda. Otras empresas, como MiniMax y Alibaba Cloud, también han empezado a limitar el acceso durante horas pico o a ajustar sus precios, lo que refuerza esta tesis. Un factor amplificador fue el uso de "agentes" o "playbooks" (denominados "养龙虾"), aplicaciones que realizan llamadas automáticas y frecuentes a la API, a veces cada minuto o segundo, consumiendo grandes cantidades de recursos de forma constante. A pesar de la interrupción, la expectativa por el próximo modelo de DeepSeek, el V4, se mantiene alta. Se espera que tenga un contexto mucho más largo (posiblemente de un millón de tokens) y mejores capacidades multimodales, lo que, irónicamente, ejercerá una presión aún mayor sobre la infraestructura de computación. El incidente señala un cambio en la industria de la IA: la competencia ya no se centra sólo en la capacidad del modelo, sino también en la estabilidad, el coste y la infraestructura subyacente. La caída de 12 horas de DeepSeek no es solo un incidente aislado, sino una señal de que la industria debe prepararse para una fase de competencia donde la escalabilidad y la fiabilidad de la infraestructura serán tan cruciales como la inteligencia del modelo.

marsbit04/03 12:26

¿DeepSeek colapsó durante 12 horas? ¿La capacidad de cálculo de los grandes modelos nacionales ya no puede seguir el ritmo de sus ambiciones?

marsbit04/03 12:26

¿Con la IA resolviendo la seguridad, ¿DeFi volverá a su era dorada?

La era del 'DeFi Summer' en 2020 estuvo marcada por una rápida innovación pero también por vulnerabilidades y ataques costosos. Esto llevó a la industria a priorizar la seguridad, ralentizando la experimentación debido a los altos costos y largos tiempos de las auditorías tradicionales. Sin embargo, la IA está revolucionando este panorama al reducir drásticamente estos costos. Herramientas como Nemesis pueden detectar vulnerabilidades complejas y contextuales con una precisión superior, minimizando falsos positivos. La próxima generación de modelos, como Mythos de Anthropic, promete capacidades aún mayores. Plataformas como Battlechain de Cyfrin redefinen el flujo de trabajo: permiten implementar protocolos en un entorno de prueba para ataques simulados, donde los fondos robados pueden recuperarse en gran medida, creando un incentivo económico para descubrir vulnerables. Este proceso acorta el ciclo de desarrollo de meses a horas. Además, la integración de auditorías por IA en billeteras permitirá a los usuarios analizar contratos y transacciones en tiempo real antes de firmarlas, proporcionando una capa adicional de protección. Este ecosistema impulsado por IA está revitalizando el espíritu experimental de DeFi, permitiendo a los desarrolladores probar ideas innovadoras de manera rápida, segura y asequible, allanando el camino para una nueva era de innovación descentralizada.

marsbit04/03 10:16

¿Con la IA resolviendo la seguridad, ¿DeFi volverá a su era dorada?

marsbit04/03 10:16

活动图片