Google DeepMind a lancé Lyria 3 Pro le 25 mars. Seulement six semaines après la sortie de la version précédente, Lyria 3, cette mise à jour a un objectif central : étendre la durée de génération de 30 secondes à 3 minutes, tout en permettant au modèle de véritablement comprendre la structure interne d'une chanson.
Cette progression n'est pas une simple itération mineure. Trente secondes suffisent pour générer des effets sonores d'ambiance, mais pas pour écrire une chanson — pas de parties, pas de transitions, pas de crescendo. La nouvelle capacité de « perception de la structure » de Lyria 3 Pro permet aux utilisateurs de spécifier dans l'invite (prompt) l'introduction, les couplets, le refrain, le pont ; le modèle organise ensuite l'enchaînement des parties et les variations dynamiques en conséquence. Il s'agit d'une étape clé pour les outils de musique IA, qui passent du statut de « générateur » à celui d'« outil de création ».
Suno et Udio le font depuis un an
Pour être franc, Suno et Udio possédaient déjà cette capacité début 2025 ; ces deux outils offrent une durée de génération plus longue et un contrôle de la structure plus flexible. Le fait que Google rattrape son retard à ce stade signifie qu'il entre véritablement en mode compétition dans la piste de la musique IA — s'appuyant sur la puissance de distribution de l'écosystème Gemini, la couverture utilisateur de Lyria 3 Pro sera bien plus large que celle de tout outil de musique IA indépendant.
L'ouverture simultanée de Vertex AI est un autre signal : Google ne veut pas se contenter de créer des outils pour les consommateurs, il souhaite également intégrer Lyria dans les flux de travail des entreprises.
Ce qu'il est possible de faire concrètement
La saisie prend en charge le texte, les images et les vidéos, le modèle adapte automatiquement le style musical en fonction de l'émotion du contenu. Le contenu généré inclut la voix, les paroles et les instruments, et couvre de multiples langues. Toutes les sorties intègrent automatiquement un filigrane SynthID, indiquant l'origine IA — c'est une pratique constante de DeepMind en matière de traçabilité du contenu.
Qui peut l'utiliser, et comment
Les utilisateurs payants de l'application Gemini peuvent désormais l'utiliser. Offre échelonnée : AI Plus environ 10 chansons par jour, Pro environ 20, Ultra environ 50. Les utilisateurs gratuits restent sur la version Lyria 3 limitée à 30 secondes.
Les langues prises en charge incluent l'anglais, le japonais, le coréen, l'hindi, l'espagnol, le portugais, l'allemand, le français, etc. Réservé aux utilisateurs de 18 ans et plus. Chemin d'accès : App Gemini → Créer de la musique → Choisir le mode « Thinking » ou « Pro ».
Les développeurs peuvent y accéder via Google AI Studio et l'API Gemini ; Vertex AI est en préversion publique, destinée aux scénarios de génération à la demande de niveau entreprise. L'intégration a déjà commencé dans Google Vids et son outil de production musicale ProducerAI. La prise en charge de la version entreprise de Workspace est prévue dans les prochains jours.
La question des droits d'auteur reste en suspens
Google indique que l'utilisation des données d'entraînement respecte les accords conclus avec les artistes, mais sans divulguer les sources spécifiques ni l'étendue des autorisations. Ceci s'inscrit dans le même contexte que les poursuites judiciaires pour droits d'auteur auxquelles sont confrontés Suno et Udio — les controverses juridiques autour des données d'entraînement pour la musique IA n'ont pas encore de conclusion définitive, la déclaration de Google est davantage une prise de position qu'une réponse complète.
Lyria 3 Pro est actuellement en cours de déploiement progressif auprès des utilisateurs, des retards pouvant survenir dans certaines régions.







