Un nouveau travail du lauréat du prix Turing Sutton : en utilisant une formule de 1967 pour résoudre une grande lacune de l'apprentissage par renforcement en flux continu

marsbitPublié le 2026-05-10Dernière mise à jour le 2026-05-10

Résumé

En 2024, une équipe de l'Université d'Alberta a identifié le "stream barrier", l'incapacité de l'apprentissage par renforcement profond à apprendre en flux continu (taille de lot de 1, sans mémoire de relecture), provoquant l'instabilité de l'entraînement. Une nouvelle étude, menée par Arsalan Sharifnassab (Openmind) et Mohamed Elsayed, A. Rupam Mahmood et Richard S. Sutton (Alberta), propose une solution radicale : le défaut ne vient pas du manque de données, mais du mauvais réglage du pas d'apprentissage. Ils introduisent les "Intentional Updates" (mises à jour intentionnelles). Au lieu de spécifier combien les paramètres doivent bouger, on spécifie de combien doit changer la sortie de la fonction (par exemple, réduire l'erreur de prédiction de 5%). Le pas d'apprentissage est alors calculé rétroactivement pour atteindre cet objectif. Cette idée s'inspire de l'algorithme NLMS de 1967. Les chercheurs l'étendent à l'apprentissage par renforcement profond, créant des algorithmes comme Intentional TD(λ) pour l'évaluation, Intentional Q(λ) pour le contrôle discret, et Intentional Policy Gradient pour le contrôle continu. Les résultats sur des benchmarks (MuJoCo, Atari) montrent que ces méthodes, en mode flux pur, égalent ou approchent les performances d'algorithmes de référence comme SAC ou DQN qui utilisent de grandes mémoires de relecture, tout en étant jusqu'à 140 fois plus économes en calcul. Bien que plus robuste et nécessitant moins de réglages, la méthode présente enco...

Fin 2024, un article intitulé "Streaming Deep Reinforcement Learning Finally Works" (arXiv:2410.14606) a suscité un large débat dans la communauté scientifique. Ses auteurs, de l'équipe de Mahmood à l'Université de l'Alberta, ont consacré de nombreuses pages à décrire une réalité embarrassante : l'apprentissage par renforcement, une méthode qui par nature devrait être capable d'« apprendre en marchant », est presque incapable de le faire à l'ère des réseaux de neurones profonds. Dès qu'on retire le tampon de relecture (replay buffer) ou qu'on fixe la taille du lot (batch size) à 1, l'entraînement s'effondre. Ils appellent ce phénomène la « barrière du flux » (stream barrier).

L'article proposait la série d'algorithmes StreamX, qui, grâce à un réglage minutieux des hyperparamètres, une initialisation parcimonieuse et diverses astuces de stabilisation, franchissaient à peine ce mur.

Pourtant, moins d'un an et demi plus tard, un membre du même groupe de recherche, en collaboration avec des chercheurs de l'institut Openmind, propose une réponse radicalement différente : la racine de la barrière du flux n'est pas « pas assez de données », mais « l'unité choisie pour le pas d'apprentissage (step size) est erronée ».

Titre de l'article : Intentional Updates for Streaming Reinforcement Learning

Adresse de l'article : https://arxiv.org/pdf/2604.19033v1

Dépôt de code : https://github.com/sharifnassab/Intentional_RL

Un coup d'accélérateur, un trou de quelle taille

Imaginez que vous appreniez à garer une voiture. L'instructeur vous dit d'« appuyer sur l'accélérateur pendant 0,1 seconde » à chaque fois. Le problème est qu'en appuyant pendant la même durée de 0,1 seconde, la distance parcourue par la voiture peut varier énormément selon que vous êtes en montée, en descente, à vide ou en charge. Parfois, il manque un centimètre pour se garer parfaitement, d'autres fois, il manque 30 centimètres et vous rentrez directement dans le mur.

C'est précisément ce que fait le pas d'apprentissage traditionnel en descente de gradient : il spécifie de combien les paramètres doivent bouger à chaque fois, mais ne contrôle pas du tout de combien la sortie de la fonction change réellement. En entraînement par lots, lorsque les erreurs de centaines ou milliers d'échantillons sont moyennées, les cas extrêmes sont dilués et le problème n'est pas flagrant. Mais en environnement « flux continu », chaque étape ne dispose que d'un seul échantillon, il n'y a pas de moyenne. Dès que la direction du gradient est instable, l'amplitude de la mise à jour devient erratique — aujourd'hui, avancer de 30 cm, demain, reculer de 50 cm — et le processus d'apprentissage s'effondre dans des oscillations violentes.

Ce phénomène de « sur- et sous-ajustement » (overshooting and undershooting) est particulièrement grave en apprentissage par renforcement, car le gradient à chaque pas de temps varie non seulement en amplitude, mais aussi en direction de manière très rapide.

Redéfinir « combien un pas doit accomplir »

Dans un article récemment publié par Arsalan Sharifnassab de l'institut Openmind et Mohamed Elsayed, A. Rupam Mahmood et Richard Sutton de l'Université de l'Alberta, les chercheurs proposent une approche différente : plutôt que de spécifier combien les paramètres doivent bouger, il vaut mieux spécifier directement de combien la sortie de la fonction doit changer.

Cette idée ne sort pas de nulle part. En 1967, les chercheurs japonais Nagumo et Noda, dans leur article « A learning method for system identification », avaient déjà proposé l'algorithme « Normalized Least Mean Squares » (NLMS) dans le domaine du filtrage adaptatif ; essentiellement, il utilise aussi le changement de sortie souhaité pour déduire le pas d'apprentissage, et non l'inverse. Cependant, cet algorithme ne s'appliquait qu'à des scénarios linéaires simples.

Les chercheurs ont étendu cette idée à l'apprentissage par renforcement profond. Ils l'appellent « mises à jour intentionnelles » (Intentional Updates) : avant chaque mise à jour, définir clairement « ce que je souhaite accomplir avec cette étape », puis en déduire la taille du pas nécessaire.

Pour l'apprentissage de la valeur (c'est-à-dire la prédiction de la récompense future), leur intention est définie comme suit : après chaque mise à jour, l'erreur de prédiction de la valeur de l'état courant doit être réduite d'une proportion fixe — par exemple de 5 %, ni plus ni moins. Pour l'apprentissage de la politique (c'est-à-dire l'optimisation des actions décisionnelles), leur intention est définie comme suit : la probabilité de sélection de l'action courante ne doit changer que d'une quantité « modérée » à chaque étape.

Pour reprendre la métaphore de la conduite : c'est comme si le conducteur décidait avant chaque manœuvre « je veux faire avancer la voiture de 20 cm », puis calculait automatiquement à quelle profondeur appuyer sur l'accélérateur en fonction des conditions de la route (pente, charge), au lieu d'appuyer toujours de la même profondeur et de s'en remettre au hasard.

Le lauréat du prix Turing et son puzzle

L'un des signataires de l'article est Richard S. Sutton — lauréat du prix Turing 2024, largement considéré comme le « père de l'apprentissage par renforcement moderne ».

La stature de Sutton dans le monde académique est comparable à celle de Feynman en physique : il a non seulement proposé l'apprentissage par différence temporelle (TD learning) et le gradient de politique (policy gradient), deux cadres fondamentaux de l'apprentissage par renforcement moderne, mais il a aussi co-écrit avec Andrew Barto le manuel le plus faisant autorité dans ce domaine, « Reinforcement Learning: An Introduction » (maintenant dans sa deuxième édition, accessible gratuitement en ligne). Il a partagé le prix Turing 2024 avec Barto, le jury ayant salué leurs travaux pour « avoir jeté les bases conceptuelles et algorithmiques de l'apprentissage par renforcement ».

Après avoir reçu le prix, Sutton n'a pas choisi de prendre sa retraite, mais a investi la dotation dans l'institut Openmind qu'il a fondé, dédié au financement de jeunes chercheurs souhaitant explorer des problèmes fondamentaux « dans un environnement non soumis aux pressions commerciales ». Ce nouvel article est issu de cette institution à but non lucratif.

Et le premier auteur, Sharifnassab, venait juste de publier le cadre MetaOptimize à ICML 2025, étudiant comment ajuster automatiquement en ligne le taux d'apprentissage. Les deux sujets sont très cohérents : comment rendre le pas d'apprentissage lui-même plus intelligent.

Détails de l'algorithme : plus simple qu'imaginé

La dérivation mathématique des « mises à jour intentionnelles » n'est pas complexe, sa formule centrale peut se décrire en une phrase : le pas d'apprentissage est égal à la « quantité de changement de sortie souhaitée » divisée par « l'influence réelle de la direction du gradient sur la sortie ».

Dans l'apprentissage de la valeur, cette « influence réelle » est la norme du vecteur gradient (mesurant en quelque sorte à quel point la région des paramètres est « raide ») : plus la pente est forte, plus le pas est petit ; plus elle est douce, plus le pas est grand, garantissant ainsi que l'impact de chaque mise à jour sur la fonction de valeur reste constant.

Dans l'apprentissage de la politique, la « quantité de changement souhaitée » est définie comme proportionnelle à la fonction d'avantage : de combien l'action courante est meilleure que la moyenne, la politique bougera d'autant dans cette direction — avec une moyenne mobile pour normaliser l'échelle, assurant qu'à long terme l'amplitude des changements de politique reste stable dans une plage interprétable.

Les chercheurs ont également combiné cette idée centrale avec deux pratiques d'ingénierie : la mise à l'échelle diagonale de style RMSProp (pour gérer les différences d'échelle entre dimensions des paramètres) et les traces d'éligibilité (eligibility traces, aidant à propager le signal de récompense vers les pas de temps passés).

Finalement, trois algorithmes complets sont formés : Intentional TD (λ) pour la prédiction de valeur, Intentional Q (λ) pour le contrôle d'actions discrètes, et Intentional Policy Gradient pour le contrôle continu.

Résultats expérimentaux : égaler SAC même sans GPU

L'article évalue cette approche sur plusieurs benchmarks standards, et les résultats sont impressionnants.

Sur les tâches de contrôle continu MuJoCo (incluant des robots de simulation complexes comme Ant, Humanoid, HalfCheetah), la nouvelle méthode Intentional AC, en configuration flux continu (taille de lot = 1, sans tampon de relecture), atteint des performances finales qui se rapprochent voire rivalisent à plusieurs reprises avec SAC — un algorithme utilisant un grand tampon de relecture par lots et considéré comme l'étalon-or actuel pour ces tâches. En termes de calcul, le nombre d'opérations en virgule flottante requises pour une mise à jour d'Intentional AC n'est qu'environ 1/140 de celui d'une mise à jour de SAC.

Sur les jeux d'actions discrètes Atari et MinAtar, Intentional Q-learning performe de manière comparable au DQN utilisant un tampon de relecture, et parvient à exécuter toutes les tâches avec le même jeu d'hyperparamètres, sans avoir besoin de les ajuster une par une.

Les chercheurs ont également vérifié spécifiquement si « l'intention » était réellement réalisée : ils ont mesuré le rapport entre le changement réel et le changement attendu. Dans une configuration simplifiée avec les traces d'éligibilité désactivées, l'écart-type de ce rapport n'était que de 0,016 à 0,029, et le 99e centile était toujours inférieur à 1,07 ; signifiant que la grande majorité du temps, la mise à jour a bien fait « exactement ce qui était convenu ».

De plus, une série d'expériences d'ablation montre que retirer la normalisation RMSProp ou le terme σ entraîne une baisse de performance mais la méthode reste compétitive, et que cette « mise à l'échelle intentionnelle » elle-même est le contributeur principal, les autres composants étant des auxiliaires.

Il reste des problèmes

Le cadre des « mises à jour intentionnelles » montre également un avantage notable en robustesse. Lorsque les chercheurs retirent une à une les diverses astuces de stabilisation dont dépend la méthode StreamX (initialisation parcimonieuse, mise à l'échelle des récompenses, normalisation des entrées, LayerNorm), la dégradation des performances d'Intentional AC est nettement moindre que celle du StreamAC original, indiquant que la mise à l'échelle intentionnelle réduit à la racine la dépendance aux « béquilles » externes.

Mais l'article reconnaît aussi un problème non entièrement résolu : dans l'apprentissage de la politique, la taille du pas dépend de l'action échantillonnée courante, ce qui peut implicitement attribuer des « poids » différents aux différentes actions, et potentiellement altérer la direction attendue du gradient de politique. Dans les tâches Humanoid et HumanoidStandup, en mesurant la similarité cosinus de la direction attendue de la mise à jour, les chercheurs ont constaté que ce biais était proche de 0,96 pendant les phases d'apprentissage critiques (presque aucun impact) ; mais dans Ant-v4, l'alignement descendait à une médiane de 0,63, montrant que le problème ne peut pas toujours être ignoré.

Les auteurs indiquent que les recherches futures devraient chercher des stratégies de sélection de pas indépendantes de l'action, afin que « l'intention » reste non biaisée en espérance. C'est un travail clair laissé aux successeurs dans cette direction.

Conclusion : permettre à l'IA d'apprendre en agissant, comme les humains

Le paradigme d'entraînement dominant actuel des grands modèles repose sur la digestion par lots de masses de données : nourrir tous les textes et codes d'Internet, itérer de manière répétée, pour finalement voir émerger des capacités impressionnantes. Cette voie s'est avérée efficace, mais elle est fondamentalement « apprendre d'abord, utiliser ensuite » : une fois l'entraînement terminé, le modèle est figé, incapable de se mettre à jour continuellement à partir de chaque interaction ultérieure.

Ce que recherche l'apprentissage par renforcement en flux continu, c'est un mode d'apprentissage radicalement différent : ne pas dépendre de masses de relectures, ne pas dépendre d'immenses grappes de GPU, transformer immédiatement chaque expérience en mise à jour des paramètres, de manière continue, économique et adaptative. Cela se rapproche davantage de la manière dont les humains et les animaux apprennent réellement.

De la percée préliminaire d'Elsayed et al. en 2024 « ça fonctionne enfin », au principe de « mise à jour intentionnelle » proposé dans cet article, l'apprentissage par renforcement profond en flux continu mûrit à une vitesse surprenante. Il ne remplacera pas les grands modèles entraînés par lots, mais pour les robots nécessitant une adaptation en ligne à long terme, les dispositifs de périphérie (edge devices), et tout scénario d'application ne pouvant supporter des tampons de relecture massifs et des grappes de GPU, cette voie devient de plus en plus convaincante.

La taille du pas n'est pas juste un hyperparamètre, c'est l'engagement de l'IA sur « combien elle veut accomplir » à chaque étape. Quand cet engagement devient enfin contrôlable, l'apprentissage lui-même se stabilise.

Cet article provient du compte WeChat officiel « Machine Heart » (ID:almosthuman2014), auteur : 关注RL的 (Qui s'intéresse au RL)

Questions liées

QQuel est le principal obstacle identifié dans l'apprentissage par renforcement en streaming avant l'étude mentionnée, et comment est-il désigné ?

ALe principal obstacle identifié est l'incapacité de l'apprentissage par renforcement profond à fonctionner efficacement en mode 'en ligne', où les données arrivent une par une sans tampon de relecture. Ce problème est désigné sous le nom de 'stream barrier' (barrière du streaming).

QQuelle idée centrale les chercheurs proposent-ils pour surmonter la 'barrière du streaming' dans l'apprentissage par renforcement ?

ALes chercheurs proposent de changer l'approche pour déterminer le pas d'apprentissage. Au lieu de fixer la taille du déplacement des paramètres, ils suggèrent de spécifier directement de combien la sortie de la fonction (par exemple, la prédiction de valeur) doit changer, puis de calculer le pas nécessaire pour atteindre cet objectif. Cette méthode est appelée 'Intentional Updates' (mises à jour intentionnelles).

QQuelle est l'origine historique du concept clé utilisé dans la méthode des 'Intentional Updates' ?

ALe concept clé trouve son origine dans l'algorithme 'Normalized Least Mean Squares' (NLMS) proposé par les chercheurs japonais Nagumo et Noda en 1967 dans le domaine du filtrage adaptatif. Cet algorithme utilisait déjà l'idée d'adapter le pas d'apprentissage en fonction du changement de sortie souhaité.

QQuels sont les trois algorithmes complets développés à partir du principe des 'Intentional Updates' ?

ALes trois algorithmes complets développés sont : Intentional TD(λ) pour l'apprentissage de la valeur, Intentional Q(λ) pour le contrôle d'actions discrètes, et Intentional Policy Gradient pour le contrôle continu.

QD'après l'article, quel avantage majeur la méthode 'Intentional AC' présente-t-elle par rapport à l'algorithme SAC en termes de ressources de calcul ?

AL'avantage majeur est une réduction drastique des besoins en calcul. Chaque mise à jour de l'algorithme Intentional AC nécessite environ 140 fois moins d'opérations à virgule flottante qu'une mise à jour de l'algorithme SAC, tout en obtenant des performances comparables en mode streaming.

Lectures associées

Ce PDG de la Finance Choisit Solana Plutôt Que Bitcoin — Voici Pourquoi

Le PDG du secteur financier Raoul Pal a exprimé une préférence nette pour Solana par rapport au Bitcoin, lors de l'événement Consensus 2026. Sa position ne relève pas d'une simple comparaison d'actifs mais d'une conviction sur l'avenir de la cryptographie à l'ère de l'intelligence artificielle. Il estime que l'industrie se dirige vers une phase dominée par les réseaux à haute vitesse et faible coût, mieux adaptés aux activités de masse, plutôt que par le rôle de réserve de valeur du Bitcoin. Selon lui, Solana, avec son débit élevé et ses faibles frais de transaction, est idéal pour les microtransactions entre machines, les activités basées sur l'IA et les interactions DeFi rapides. Pal prédit par ailleurs que d'ici cinq ans, les agents IA représenteront 60% des utilisateurs de la finance décentralisée (DeFi), surpassant les utilisateurs humains. Cette vision d'un futur où les transactions fréquentes et automatisées seront cruciales explique son choix en faveur de Solana pour capturer les opportunités de croissance. Bien qu'il soit improbable que Solana surpasse Bitcoin en termes de taille à court terme, cette perspective s'inscrit dans un thème majeur de la conférence, centré sur la convergence entre l'IA, la DeFi et l'infrastructure institutionnelle. D'autres intervenants, comme Arthur Hayes, ont également souligné la nature distincte de la cryptographie par rapport aux systèmes traditionnels.

bitcoinistIl y a 1 h

Ce PDG de la Finance Choisit Solana Plutôt Que Bitcoin — Voici Pourquoi

bitcoinistIl y a 1 h

GensynAI : Ne laissez pas l'IA répéter les erreurs d'Internet

Au cours des derniers mois, l'essor de l'IA a attiré de nombreux talents de la cryptographie. Une question centrale émerge : la blockchain peut-elle faire partie de l'infrastructure de l'IA ? Gensyn se distingue en s'attaquant non pas aux applications, mais au cœur du développement de l'IA : **l'entraînement des modèles**. Le projet vise à organiser les ressources GPU mondiales dispersées en un réseau ouvert d'entraînement d'IA. Les développeurs peuvent soumettre des tâches, les nœuds fournissent la puissance de calcul, et le réseau vérifie les résultats avant de distribuer les incitations. L'enjeu dépasse la simple décentralisation : il s'agit de contrer la **concentration croissante des ressources de calcul** entre les mains de quelques géants, qui deviennent un goulot d'étranglement pour l'innovation. Gensyn propose ainsi une nouvelle façon d'organiser les ressources. Premièrement, il opère au niveau de l'infrastructure fondamentale, la couche la plus exigeante techniquement et en ressources. Deuxièmement, il offre un modèle de collaboration plus ouvert, permettant une meilleure utilisation des GPU inactifs et une réduction potentielle des coûts. Troisièmement, sa technologie de vérification probabiliste des résultats et de coordination des nœuds constitue un véritable avantage technique. Enfin, il répond à une demande réelle et croissante du marché, évitant le piège des récits sans utilité pratique. En somme, Gensyn incite la convergence entre la cryptographie (expertise en coordination et incitations mondiales) et l'IA (besoins massifs en ressources). Son ambition est de transformer l'entraînement de l'IA en un système plus ouvert et accessible, au-delà du contrôle exclusif des grands acteurs, posant les bases d'une infrastructure essentielle pour l'ère de l'IA.

marsbitIl y a 2 h

GensynAI : Ne laissez pas l'IA répéter les erreurs d'Internet

marsbitIl y a 2 h

Pourquoi la Chine se développe-t-elle si rapidement en IA ? La réponse se cache dans les laboratoires

L'auteur, après une visite dans des laboratoires d'IA chinois de premier plan, explore les raisons du développement rapide de l'IA en Chine. Il constate que l'écosystème chinois se distingue de celui des États-Unis par son approche organisationnelle : moins de concepts, plus de modèles concrets ; moins d'importance accordée aux vedettes individuelles, plus au travail d'équipe ; et une forte préférence pour maîtriser en interne la pile technologique plutôt que de dépendre de services externes. La culture de travail, valorisant l'humilité, l'exécution et l'ingénierie rapide, est bien adaptée à la construction de grands modèles de langage. Une grande partie des contributeurs clés sont des étudiants, intégrés directement aux équipes, apportant un regard neuf et une forte capacité d'adaptation. L'accent est mis sur l'amélioration itérative et l'optimisation plutôt que sur la recherche "de 0 à 1". Les scientifiques chinois se montrent très concentrés sur la construction technique, moins sur les débats philosophiques ou économiques autour de l'IA. L'écosystème industriel présente également des différences : une demande précoce en IA (ressemblant plus au marché du cloud qu'au SaaS), une forte influence des modèles comme Claude sur les développeurs, et une mentalité répandue de "contrôle technologique" poussant de nombreuses grandes entreprises (plateformes, hardware) à développer leurs propres modèles fondateurs, souvent en open source par pragmatisme. Le soutien gouvernemental existe mais est décentralisé, l'industrie des données est moins mature qu'en Occident, et l'accès aux puces Nvidia est une contrainte majeure. L'auteur conclut que la Chine développe sa propre voie, marquée par une culture de construction, un esprit d'écosystème collaboratif et un pragmatisme profond. Cette approche, différente de la course aux sommets menée par le capital et les "stars" aux États-Unis, fait de la compétition mondiale en IA une rivalité de capacités organisationnelles, d'écosystèmes développeurs et d'exécution industrielle. Il exprime un souhait pour une écologie open source mondiale florissante, tout en notant les défis géopolitiques actuels.

marsbitIl y a 3 h

Pourquoi la Chine se développe-t-elle si rapidement en IA ? La réponse se cache dans les laboratoires

marsbitIl y a 3 h

3 ans, 5 fois la valeur, la renaissance d'une verrerie centenaire

D'après CRU, la demande de fibre optique pour les centres de données IA a augmenté de 75,9 % sur un an, et l'écart entre l'offre et la demande s'est creusé de 6 % à 15 %. Les prix des fibres ont plus que triplé en quelques mois, révélant une capacité de production insuffisante. Cela explique les investissements massifs de NVIDIA chez Corning, ainsi que chez Lumentum et Coherent, pour un total de 45 milliards de dollars, visant à sécuriser la chaîne d'approvisionnement optique (lasers, puces photoniques, fibres). Corning, une entreprise de verrerie fondée en 1851, a vu son cours de bourse multiplié par plus de 3 en un an, atteignant une capitalisation de 160 milliards de dollars. Cette renaissance est portée par les infrastructures IA. La fibre optique est devenue le « nerf » des centres de données IA, avec une consommation 5 à 10 fois supérieure aux serveurs traditionnels. La transition du cuivre vers la lumière (interconnexions optiques, CPO) est nécessaire pour les débits élevés (au-delà de 800G) et pour réduire la consommation d'énergie. Corning se distingue par sa technologie de fibres spécialisées à très faible atténuation et haute densité, cruciales pour l'IA. Son activité "Enterprise" (centres de données), désormais plus de 40% de ses revenus en communication optique, connaît une croissance explosive, soutenue par des contrats pluriannuels avec Meta, NVIDIA et d'autres géants. Bien que ne détenant pas la plus grande part de marché mondiale de la fibre, Corning tire parti de décennies de R&D et d'un savoir-faire matériel de pointe, notamment dans le domaine émergent du CPO (Co-Packaged Optics). La pénurie et la hausse des prix profitent à tout le secteur, comme en témoignent les résultats des concurrents chinois. Le rythme de déploiement du CPO par NVIDIA et l'identité des autres grands clients non divulgués de Corning sont des catalyseurs clés pour son avenir. Des technologies disruptives comme la fibre à cœur creux pourraient également remodeler le paysage à plus long terme. Après une forte appréciation boursière, l'exécution des commandes et le respect des délais seront désormais plus importants que le récit de croissance lui-même.

marsbitIl y a 4 h

3 ans, 5 fois la valeur, la renaissance d'une verrerie centenaire

marsbitIl y a 4 h

Trading

Spot
Futures
活动图片