Récemment, Apple a officiellement obtenu un accès étendu au modèle Gemini de Google, visant à accélérer la construction de son intelligence artificielle légère sur appareil grâce à une technologie avancée de distillation de données.
Selon des rapports, Apple dispose actuellement d'un accès complet au modèle Gemini dans ses centres de données. Cette action stratégique consiste essentiellement à utiliser les réponses de haute qualité générées par Gemini et les enregistrements de sa chaîne de raisonnement logique comme données d'entraînement pour "nourrir" les petits modèles développés par Apple. Cette voie de "distillation de modèle", où un grand modèle guide l'entraînement d'un petit modèle, permet à la version légère de posséder des capacités de traitement logique proches des grands modèles de pointe tout en maintenant une efficacité de calcul.
Bien que Gemini ait été initialement conçu pour les chatbots et les applications d'entreprise, ce qui diffère de la planification systémique profonde de Siri par Apple, cette collaboration comble significativement le manque d'Apple en matière d'acquisition de données synthétiques de haute qualité. Parallèlement, Apple n'a pas abandonné sa voie de développement autonome ; son équipe Apple Foundation Models progresse simultanément dans le développement de modèles fondamentaux. Il est prévu que ces nouvelles fonctions d'IA, intégrant la technologie de distillation, seront dévoilées lors de la prochaine conférence mondiale des développeurs Apple (WWDC) en juin.
Cette collaboration marque le passage de l'industrie de l'IA d'une simple concurrence en matière de puissance de calcul à une concurrence sur des stratégies d'entraînement plus efficaces. Le choix d'Apple de "payer pour les données", en absorbant les capacités des modèles de pointe pour renforcer l'avantage de calcul en périphérie, reflète non seulement les jeux et l'équilibre entre les grands modèles généraux et l'IA privée en périphérie chez les géants technologiques, mais annonce également que les futurs appareils en périphérie posséderont des capacités de raisonnement local et de traitement de tâches complexes plus fortes, favorisant davantage le processus de démocratisation de l'IA.






