Artículos Relacionados con Anthropic

El Centro de Noticias de HTX ofrece los artículos más recientes y un análisis profundo sobre "Anthropic", cubriendo tendencias del mercado, actualizaciones de proyectos, desarrollos tecnológicos y políticas regulatorias en la industria de cripto.

El fundador de Netflix fue al lugar que más teme

El cofundador de Netflix, Reed Hastings, anuncia su salida total de la empresa tras casi 30 años, justo cuando la compañía reporta su mejor desempeño financiero: ingresos de $12.25 mil millones en Q1 2026 (+16%) y ganancias netas de $5.28 mil millones (+83%). Aunque Netflix afirma que su decisión no implica desacuerdos, Hastings ya se había unido en 2025 a la junta directiva de Anthropic, empresa de IA, y ha expresado abiertamente que la inteligencia artificial es la mayor amenaza para Netflix. Hastings, quien estudió IA en Stanford hace 40 años, inicialmente veía la IA como una herramienta creativa, pero su postura cambió radicalmente. En 2025 donó $50 millones para investigar el impacto de la IA en la sociedad y advirtió: "Lucharemos por la supervivencia y prosperidad humana". Su preocupación central es que la IA generative, como el modelo Seedance 2.0 de ByteDance, pueda reducir drásticamente el costo y la barrera de entrada para la creación de contenido, haciendo que contenido gratuito en plataformas como YouTube sea tan atractivo que desafíe el modelo de suscripción de Netflix. Aunque Netflix está adoptando IA para optimizar producciones (como la reciente compra de InterPositive por $600 millones), Hastings parece estar "protegiéndose": mantiene sus acciones de Netflix mientras se integra en el epicentro de la tecnología que podría disruptirla. Su salida coincide con el momento cumbre de Netflix, pero también con la aceleración imparable de la IA generative. El veredicto final sobre si su temor era profético o excesivo, dependerá de cuándo la IA logre producir contenido que realmente captive al público masivo.

marsbit04/17 07:52

El fundador de Netflix fue al lugar que más teme

marsbit04/17 07:52

¿Claude reduce su inteligencia deliberadamente? ¿Los modelos ahora también "adaptan su servicio según la persona"?

Anthropic ha reducido deliberadamente la capacidad de Claude, su modelo de IA, según un análisis de datos de AMD. Desde mediados de febrero, el pensamiento del modelo se ha vuelto más superficial: la longitud media de sus razonamientos cayó un 67-73%, y ahora lee menos archivos antes de editar código. Los desarrolladores han notado que el modelo es más lento, perezoso y propenso a errores. La causa es la función "adaptive thinking", introducida para ajustar la profundidad del pensamiento según la complejidad de la tarea, lo que en la práctica actúa como un mecanismo de restricción para reducir costes de computación. Anthropic confirmó que es una "optimización intencionada", no un error, y sugirió a los usuarios que ajusten manualmente el esfuerzo a "high" para mejor rendimiento. Este hecho evidencia una tendencia preocupante: la capacidad de los modelos de IA se está estratificando. Los clientes empresariales que pagan precios premium (hasta 12.000 dólares/mes) reciben una versión más potente, mientras que los usuarios individuales obtienen una versión limitada para controlar costes. Este caso no es aislado; OpenAI y Google han implementado prácticas similares. El sector entra en una fase de comercialización donde la inteligencia artificial ya no es un mito de progreso普惠 constante, sino un recurso que se estratifica según la capacidad de pago del usuario.

marsbit04/14 10:37

¿Claude reduce su inteligencia deliberadamente? ¿Los modelos ahora también "adaptan su servicio según la persona"?

marsbit04/14 10:37

活动图片