Google DeepMind lanzó Lyria 3 Pro el 25 de marzo. A solo seis semanas del lanzamiento de la versión anterior, Lyria 3, la mejora central esta vez tiene un solo objetivo: extender la duración de generación de 30 segundos a 3 minutos, mientras hace que el modelo comprenda verdaderamente la estructura interna de una canción.
Este salto no es una iteración menor. 30 segundos son suficientes para generar efectos de sonido de fondo, pero no para componer una canción: sin secciones, sin transiciones, sin clímax. La nueva capacidad de "percepción estructural" de Lyria 3 Pro permite a los usuarios especificar en el prompt la introducción, la estrofa, el estribillo y el puente, y el modelo organiza la transición entre secciones y los cambios dinámicos en consecuencia. Este es un paso clave para que las herramientas de IA musical pasen de ser "generadores" a "herramientas de creación".
Suno y Udio ya lo llevan haciendo un año
Francamente, Suno y Udio ya tenían esta capacidad a principios de 2025; ambos pueden generar duraciones más largas y su control estructural es más flexible. Que Google se ponga al día en este momento representa su transición a un estado de competencia real en la carrera de la IA musical: respaldado por la capacidad de distribución del ecosistema Gemini, la cobertura de usuarios de Lyria 3 Pro será mucho mayor que la de cualquier herramienta de IA musical independiente.
La apertura simultánea de Vertex AI es otra señal: Google no solo quiere hacer herramientas para consumidores, sino también integrar Lyria en los flujos de trabajo empresariales.
Qué se puede hacer concretamente
La entrada admite texto, imágenes y video; el modelo coincide automáticamente con el estilo musical según la emoción del contenido. El contenido generado incluye voces, letras e instrumentos, y cubre múltiples idiomas. Todas las salidas incorporan automáticamente la marca de agua SynthID, indicando el origen de la IA: esta es la práctica constante de DeepMind en cuanto a la trazabilidad de contenido.
Quién puede usarlo y cómo
Los usuarios de pago de la aplicación Gemini ya pueden usarlo. Se organiza por niveles de suscripción: AI Plus unas 10 canciones al día, Pro unas 20, Ultra unas 50. Los usuarios gratuitos siguen limitados a la versión de 30 segundos de Lyria 3.
Los idiomas admitidos incluyen inglés, japonés, coreano, hindi, español, portugués, alemán, francés, etc., y está limitado a usuarios mayores de 18 años. Ruta de operación: App Gemini → Crear Música → seleccionar modo "Pensar" o "Pro".
Los desarrolladores pueden acceder a través de Google AI Studio y la API de Gemini; Vertex AI ya está en vista previa pública, orientada a escenarios de generación empresarial bajo demanda. Google Vids y su herramienta de producción musical ProducerAI ya han comenzado a integrarlo. Se espera que la compatibilidad con la versión empresarial de Workspace esté disponible en unos días.
El problema de los derechos de autor sigue sin resolverse
Google afirma que el uso de los datos de entrenamiento sigue los acuerdos relevantes con los artistas, pero no ha revelado las fuentes específicas ni el alcance de la autorización. Esto se enmarca en el mismo contexto que las demandas por derechos de autor que enfrentan Suno y Udio: la controversia legal sobre los datos de entrenamiento de IA musical aún no tiene una resolución clara en la industria; la declaración de Google es más una postura que una respuesta completa.
Lyria 3 Pro se está lanzando gradualmente a los usuarios; puede haber retrasos en algunas regiones.







