Recientemente, Apple obtuvo oficialmente amplios permisos de acceso al modelo Gemini de Google, con el objetivo de acelerar la construcción de su inteligencia artificial ligera para dispositivos mediante avanzadas técnicas de destilación de datos.
Según informes relacionados, Apple actualmente tiene acceso completo al modelo Gemini dentro de sus centros de datos. El núcleo de este movimiento estratégico radica en utilizar las respuestas de alta calidad generadas por Gemini y los registros de su cadena de pensamiento lógico como datos de entrenamiento para "alimentar" los modelos pequeños desarrollados por Apple. Esta ruta de "destilación de modelos", donde un modelo grande guía el entrenamiento de uno pequeño, permite que las versiones ligeras mantengan una computación eficiente mientras poseen una capacidad de procesamiento lógico similar a la de los mejores modelos grandes.
Aunque Gemini fue diseñado inicialmente para chatbots y aplicaciones empresariales, lo cual difiere en lógica de producto de la planificación profunda a nivel de sistema de Siri por parte de Apple, esta colaboración llena significativamente el vacío de Apple en la obtención de datos sintéticos de alta calidad. Al mismo tiempo, Apple no ha abandonado su camino de desarrollo propio; su equipo Apple Foundation Models está avanzando simultáneamente en el desarrollo interno de modelos base. Se espera que estas nuevas funciones de IA, que incorporan tecnología de destilación, se presenten en la próxima Conferencia Mundial de Desarrolladores de Apple (WWDC) en junio.
Esta colaboración marca un cambio en la industria de la IA, pasando de una competencia basada puramente en capacidad de cálculo a una competencia en estrategias de entrenamiento más eficientes. La decisión de Apple de "pagar por los datos", absorbiendo las capacidades de los modelos más avanzados para fortalecer su ventaja en el cálculo del lado del dispositivo, no solo refleja el juego y equilibrio entre los modelos grandes generales y la IA privada en el dispositivo por parte de los gigantes tecnológicos, sino que también augura que los dispositivos futuros tendrán una mayor capacidad de razonamiento local y procesamiento de tareas complejas, impulsando aún más el proceso de democratización de la IA.






