Google s'inquiète vraiment, met à jour en pleine nuit l'agent Deep Research, prenant en charge MCP et les graphiques natifs

marsbitPublié le 2026-04-22Dernière mise à jour le 2026-04-22

Résumé

Google a annoncé une mise à jour majeure de ses agents de recherche autonomes Deep Research, basés sur le modèle Gemini 3.1 Pro. Deux versions sont proposées : une standard pour la rapidité et Deep Research Max pour une analyse approfondie en arrière-plan. Les nouvelles fonctionnalités incluent le support du Model Context Protocol (MCP) pour connecter des sources de données privées et tierces, ainsi que la génération native de graphiques et d'infographies dans les rapports. Ces agents sont accessibles via une API payante et visent principalement les entreprises, notamment dans la finance, pour automatiser la recherche et l'analyse de données. Google les présente comme la même infrastructure utilisée en interne, évoluant rapidement depuis son lancement initial en 2024.

Par | AI Lettres

Google s'inquiète vraiment.

Juste avant, des informations sont arrivées, indiquant que le cofondateur de Google, Sergey Brin, a relancé le "mode fondateur", supervisant personnellement et formant une "équipe d'assaut" d'élite, s'efforçant de rattraper Anthropic et d'autres concurrents sur des capacités clés comme la programmation IA et les agents autonomes de Gemini.

Ensuite, Google a annoncé tard dans la nuit une mise à jour majeure, lançant une nouvelle génération d'agents de recherche autonomes basés sur le modèle Gemini 3.1 Pro : Deep Research et Deep Research Max.

Non seulement les capacités de raisonnement sous-jacentes du modèle ont été renforcées, mais l'agent de recherche autonome est également poussé vers une évolution de niveau entreprise et de plateforme de développement, via l'ouverture d'API, le support des données privées, les tâches asynchrones en arrière-plan, etc., tentant de prendre l'initiative dans ce scénario à haute valeur qu'est l'"outil de recherche/analyse IA", pour répondre à la concurrence d'OpenAI (Hermes), Perplexity et autres.

Ces deux agents permettent pour la première fois aux développeurs, via un seul appel API, de fusionner les données du réseau ouvert avec les informations propriétaires des entreprises, et de générer nativement des graphiques et des infographies dans les rapports de recherche, tout en pouvant se connecter à n'importe quelle source de données tierce via le Model Context Protocol (MCP).

Ces deux agents sont désormais disponibles en version d'aperçu public via les forfaits payants de l'API Gemini, accessibles via l'API Interactions que Google a lancée pour la première fois en décembre 2025.

Oui, ces nouveaux agents ne sont actuellement utilisables que via l'API, les utilisateurs ordinaires de l'application Gemini n'y ont pas accès, même s'ils sont abonnés payants. Voyant les nouvelles de la mise à jour mais ne pouvant pas l'utiliser, certains utilisateurs se plaignent avec amertume : "Google, pour une raison quelconque, continue de punir nous, les utilisateurs abonnés Pro de l'application Gemini..."

Le PDG de Google, Sundar Pichai, est également descendu personnellement sur X pour faire sa promotion : "Quand vous avez besoin de vitesse et d'efficacité, utilisez Deep Research ; quand vous recherchez la collecte et la synthèse de contexte de la plus haute qualité, utilisez la version Max — elle atteint des scores de 93,3 % sur DeepSearchQA et 54,6 % sur HLE grâce à un calcul étendu au moment des tests."

Il y a 18 mois, l'objectif de Google Deep Research était d'aider les étudiants à éviter d'être submergés par une multitude d'onglets de navigateur. Aujourd'hui, Google espère qu'il pourra remplacer le travail de recherche de base des analystes juniors en banque d'investissement.

L'écart entre ces deux objectifs — et la capacité de cette technologie à réellement combler cet écart — déterminera si l'agent de recherche autonome deviendra un produit transformateur dans le domaine des logiciels d'entreprise, ou simplement une autre démonstration d'IA brillante dans les benchmarks mais décevante en réunion.

Deux versions, adaptées à différentes charges de travail

La version standard Deep Research a une latence plus faible et un coût plus bas, adaptée aux scénarios où la vitesse prime.

Deep Research Max priorise la profondeur plutôt que la vitesse. Cet agent effectue un raisonnement approfondi, une recherche et une itération via un calcul étendu au moment des tests (extended test-time compute), pour finalement générer un rapport.

Google note que les flux de travail asynchrones en arrière-plan sont son scénario d'utilisation idéal, par exemple via une tâche planifiée (cron job) exécutée la nuit, livrant le lendemain matin un rapport complet de due diligence à l'équipe d'analystes.

Dans ses propres benchmarks, Deep Research Max a réalisé des progrès significatifs dans les tâches de récupération et de raisonnement. L'agent est capable d'obtenir des informations à partir de plus de sources que les versions précédentes, et de capturer des nuances subtiles que les anciens modèles négligeaient facilement.

Google a également fourni une comparaison avec les concurrents.

Cependant, la comparaison avec GPT-5.4 d'OpenAI et Opus 4.6 d'Anthropic n'est pas tout à fait équitable. GPT-5.4 excelle dans la recherche autonome sur le web, mais n'est pas spécialement optimisé pour la recherche approfondie. Pour cela, OpenAI fournit son propre agent DR, qui est passé à GPT-5.2 et non GPT-5.4 après la mise à jour de février. Le modèle de recherche le plus puissant d'OpenAI est en fait GPT-5.4 Pro, mais Google ne l'a visiblement pas inclus dans le champ de comparaison.

Selon les données d'OpenAI, GPT-5.4 Pro peut atteindre un score maximum de 89,3 % sur le benchmark de recherche d'agents BrowseComp, tandis que GPT-5.4 obtient 82,7 %.

Sur la base de son propre rapport, Opus 4.6 d'Anthropic obtient un score sur BrowseComp supérieur à celui présenté par Google, spécifiquement 84 %. Ce score a été obtenu avec la fonction de raisonnement désactivée, le modèle performant mieux que le paramètre de raisonnement intensif utilisé par Google dans les benchmarks API.

Ces écarts proviennent probablement de différences dans les méthodes de test — que le modèle soit évalué via l'API brute ou encapsulé dans la propre chaîne d'outils de chaque laboratoire. Les données de Google ne sont pas nécessairement erronées, mais méritent une interprétation prudente. Quoi qu'il en soit, leur mode de présentation manque de transparence suffisante.

Support MCP

La fonctionnalité la plus impactante de cette version est peut-être l'ajout du support du Model Context Protocol (MCP). Cette fonction transforme Deep Research d'un outil de recherche web puissant en quelque chose de plus proche d'un "analyste de données universel".

MCP est une norme ouverte émergente pour connecter les modèles d'IA à des sources de données externes. Il permet à Deep Research d'interroger en toute sécurité des bases de données privées, des bibliothèques de documents internes et des services de données tiers spécialisés — tout au long du processus, les informations sensibles ne quittent pas leur environnement d'origine.

En pratique, cela signifie qu'un fonds de couverture peut simultanément pointer Deep Research vers sa base de données interne de flux de transactions et son terminal de données financières, puis demander à l'agent de combiner les deux avec des informations publiques provenant du web pour générer des insights synthétiques.

Google a révélé qu'il travaille activement avec des entreprises comme FactSet, S&P et PitchBook pour concevoir conjointement leurs serveurs MCP, indiquant clairement que Google cherche une intégration profonde avec les fournisseurs de données sur lesquels s'appuient quotidiennement Wall Street et le secteur financier au sens large.

Selon l'article de blog rédigé par les chefs de produit de Google DeepMind, Lukas Haas et Srinivas Tadepalli, l'objectif est "permettre aux clients communs d'intégrer leurs produits de données financières dans des flux de travail pilotés par Deep Research, et en exploitant son univers massif de données, de collecter du contexte à la vitesse de l'éclair, réalisant ainsi un bond en avant en matière de productivité."

Cette fonctionnalité répond directement à l'un des points douloureux les plus tenaces de l'adoption de l'IA par les entreprises : l'énorme écart entre les informations que le modèle peut trouver sur l'internet ouvert et les informations réellement nécessaires à la prise de décision de l'organisation. Auparavant, combler cet écart nécessitait un important travail d'ingénierie sur mesure.

Le support MCP, combiné aux capacités de navigation autonome et de raisonnement de Deep Research, simplifie la majeure partie de cette complexité en une simple configuration. Les développeurs peuvent maintenant faire en sorte que Deep Research utilise simultanément la recherche Google, des serveurs MCP distants, le contexte URL, l'exécution de code et la recherche de fichiers — ou désactiver complètement l'accès au web et effectuer des recherches uniquement sur des données personnalisées.

Le système prend également en charge les entrées multimodales, y compris les PDF, CSV, images, audio et vidéo, à utiliser comme contexte (grounding context).

Graphiques natifs

La deuxième fonctionnalité majeure est la génération native de graphiques et d'infographies.

Les versions précédentes de Deep Research ne pouvaient générer que des rapports en texte brut. Si l'utilisateur avait besoin de visualisations, il devait exporter les données et créer lui-même les graphiques. Cette lacune affaiblissait considérablement le positionnement "d'automatisation de bout en bout".

Désormais, la nouvelle génération d'agents peut intégrer nativement dans les rapports des graphiques et des infographies de haute qualité, rendant dynamiquement des ensembles de données complexes en HTML ou dans le format Nano Banana de Google, les intégrant directement dans la narration analytique.

Pour les utilisateurs entreprises — en particulier dans les secteurs financiers et de conseil qui ont besoin de produire des résultats directement livrables aux parties prenantes — cette fonctionnalité transforme Deep Research d'un outil "d'accélération de la phase de recherche" en un outil capable de générer un produit d'analyse proche du produit final.

De plus, combinée à la nouvelle fonction de planification collaborative (permettant aux utilisateurs de examiner, guider et optimiser le plan de recherche de l'agent avant l'exécution), ainsi qu'à la sortie en flux continu en temps réel des étapes de raisonnement intermédiaires, le nouveau système offre aux développeurs un contrôle granulaire sur la portée de l'enquête, tout en maintenant un haut degré de transparence requis par les industries réglementées.

Deep Research devient une partie de l'"infrastructure" que Google fournit aux entreprises

L'article de blog officiel de Google indique clairement que lorsque les développeurs utilisent l'agent Deep Research pour construire, ils appellent "la même infrastructure de recherche autonome qui alimente plusieurs produits populaires de Google (comme l'application Gemini, NotebookLM, Google Search et Google Finance)". Cela suggère que les agents fournis via l'API ne sont pas des versions simplifiées de la version interne de Google, mais le même système, offrant des services à l'échelle de la plateforme.

Ce processus d'évolution a été extrêmement rapide.

Google a lancé Deep Research pour la première fois dans l'application Gemini en décembre 2024, en tant que fonctionnalité B2C, alors propulsé par Gemini 1.5 Pro. Google l'a décrit comme un assistant de recherche IA personnel, capable de synthétiser les informations du web en quelques minutes, aidant les utilisateurs à économiser des heures de travail.

En mars 2025, Google a mis à niveau Deep Research en utilisant Gemini 2.0 Flash Thinking Experimental et l'a ouvert à l'essai pour tous. Ensuite, il est passé à Gemini 2.5 Pro Experimental, Google rapportant que les évaluateurs le préféraient à plus de 2 contre 1 par rapport aux concurrents.

Décembre 2025 a été un tournant important, Google lançant l'API Interactions, fournissant pour la première fois Deep Research de manière programmatique, propulsé par Gemini 3 Pro, et publiant simultanément le benchmark open source DeepSearchQA.

Le modèle sous-jacent qui pilote cette amélioration est Gemini 3.1 Pro, publié le 19 février 2026. Il a réalisé un bond en avant significatif dans les capacités de raisonnement de base : sur le benchmark ARC-AGI-2 évaluant la capacité des modèles à résoudre de nouveaux modes logiques, 3.1 Pro a obtenu un score de 77,1 %, plus du double de celui de Gemini 3 Pro.

Questions liées

QQu'est-ce que Google a annoncé lors de sa mise à jour récente concernant ses agents de recherche intelligents ?

AGoogle a annoncé le lancement de deux nouveaux agents de recherche autonomes, Deep Research et Deep Research Max, basés sur le modèle Gemini 3.1 Pro. Ces agents permettent aux développeurs de fusionner des données publiques avec des informations privées via une seule API, de générer des graphiques natifs et de se connecter à des sources de données tierces via le Model Context Protocol (MCP).

QQuelle est la différence entre Deep Research et Deep Research Max ?

ADeep Research est optimisé pour la vitesse et a une latence plus faible, idéal pour les scénarios nécessitant une réponse rapide. Deep Research Max privilégie la profondeur de l'analyse en utilisant un calcul étendu (extended test-time compute) pour des rapports plus détaillés, adapté aux workflows asynchrones comme les tâches planifiées nocturnes.

QQu'est-ce que le Model Context Protocol (MCP) et pourquoi est-il important pour Deep Research ?

ALe Model Context Protocol (MCP) est un standard ouvert qui permet à Deep Research de se connecter de manière sécurisée à des sources de données externes, comme des bases de données privées, des documents internes ou des services de données tiers. Cela transforme l'agent en un outil d'analyse de données universel, sans que les informations sensibles ne quittent leur environnement d'origine.

QComment les nouveaux agents Deep Research génèrent-ils des visualisations de données ?

ALes nouveaux agents Deep Research peuvent générer nativement des graphiques et des infographies de haute qualité directement intégrés dans les rapports, au format HTML ou Nano Banana de Google. Cela élimine le besoin d'exporter les données pour créer des visualisations séparément.

QQuels sont les avantages de Deep Research pour les entreprises selon Google ?

ADeep Research offre aux entreprises une infrastructure de recherche autonome évolutive, permettant une intégration facile avec des données privées et des sources tierces via MCP, une génération de rapports avec visualisations natives, et une automatisation des tâches de recherche complexes, comme les analyses financières ou les études de marché.

Lectures associées

Fondateur d'IOSG : Le dilemme du prisonnier le plus dangereux de l'histoire de la DeFi

Fondateur d'IOSG : Le dilemme du prisonnier le plus dangereux de l'histoire de la DeFi Un passif douteux de 230 millions d'USD reste non résolu. Aave Collector détient plus de 200 millions d'actifs liquides et LayerZero vient de lever 120 millions – les deux parties ont pleinement la capacité de rembourser. Aave a perdu 8,45 milliards de TVL en moins de deux jours, et l'ensemble de la DeFi a vu 13,2 milliards s'évaporer. Ce chiffre continue d'augmenter chaque jour. Aucune partie ne s'est engagée à assumer la responsabilité des actifs volés. Ils sont dans un jeu de博弈 (jeu stratégique), pendant que toute la DeFi saigne. Où est passée l'esprit de la DeFi de 2020 ? Lors de la crise de MakerDAO en mars 2020, la communauté s'était mobilisée avec fierté et responsabilité. Aujourd'hui, le silence règne. Les investisseurs retirent leurs fonds, non par panique, mais pour voter avec leurs pieds : si personne ne se lève pour régler un problème de 260 millions, pourquoi laisser son argent ici ? Ces capitaux, une fois partis, ne reviendront jamais. Ce n'est pas seulement l'affaire d'Aave. Spark, MakerDAO et tous les protocoles DeFi sur Ethereum devraient coordonner leurs efforts. L'effondrement de la confiance n'a pas de frontières ; si la situation est mal gérée, le TVL de toute la DeFi sera revalorisé à la baisse. Le temps est crucial. Aave pourrait s'engager à couvrir les pertes pour arrêter la panique. Une déclaration de soutien de Vitalik Buterin suffirait. Chaque heure de silence supplémentaire entraîne une fuite permanente des capitaux. Un appel est lancé pour une communication publique et urgente de la part des principaux acteurs. Le silence est la pire des options.

marsbitIl y a 2 h

Fondateur d'IOSG : Le dilemme du prisonnier le plus dangereux de l'histoire de la DeFi

marsbitIl y a 2 h

Trading

Spot
Futures

Articles tendance

Comment acheter NIGHT

Bienvenue sur HTX.com ! Nous vous permettons d'acheter Midnight (NIGHT) de manière simple et pratique. Suivez notre guide étape par étape pour commencer votre parcours crypto.Étape 1 : Création de votre compte HTXUtilisez votre adresse e-mail ou votre numéro de téléphone pour ouvrir un compte sur HTX gratuitement. L'inscription se fait en toute simplicité et débloque toutes les fonctionnalités.Créer mon compteÉtape 2 : Choix du mode de paiement (rubrique Acheter des cryptosCarte de crédit/débit : utilisez votre carte Visa ou Mastercard pour acheter instantanément Midnight (NIGHT).Solde :utilisez les fonds du solde de votre compte HTX pour trader en toute simplicité.Prestataire tiers :pour accroître la commodité d'utilisation, nous avons ajouté des modes de paiement populaires tels que Google Pay et Apple Pay.P2P :tradez directement avec d'autres utilisateurs sur HTX.OTC (de gré à gré) : nous offrons des services personnalisés et des taux de change compétitifs aux traders.Étape 3 : stockage de vos Midnight (NIGHT)Après avoir acheté vos Midnight (NIGHT), stockez-les sur votre compte HTX. Vous pouvez également les envoyer ailleurs via un transfert sur la blockchain ou les utiliser pour trader d'autres cryptos.Étape 4 : tradez des Midnight (NIGHT)Tradez facilement Midnight (NIGHT) sur le marché Spot de HTX. Il vous suffit d'accéder à votre compte, de sélectionner la paire de trading, d'exécuter vos trades et de les suivre en temps réel. Nous offrons une expérience conviviale aux débutants comme aux traders chevronnés.

490 vues totalesPublié le 2025.12.08Mis à jour le 2025.12.08

Comment acheter NIGHT

Discussions

Bienvenue dans la Communauté HTX. Ici, vous pouvez vous tenir informé(e) des derniers développements de la plateforme et accéder à des analyses de marché professionnelles. Les opinions des utilisateurs sur le prix de NIGHT (NIGHT) sont présentées ci-dessous.

活动图片