Auteur : Jesse
Ceci est la dernière réflexion de l'analyste indépendant @farzyness, qui compte 360 000 abonnés. Il investit dans Tesla depuis 2012 et a fait partie de l'équipe de direction de Tesla de 2017 à 2021.
Une seule personne possède une entreprise de batteries, une entreprise d'IA et une entreprise de fusées, et elles se nourrissent toutes les unes des autres.
Je réfléchis à cela depuis des mois, et honnêtement, je ne vois vraiment pas comment Musk peut perdre. Ce n'est pas du point de vue d'un "fanboy", mais d'un point de vue structurel. La relation triangulaire Tesla-xAI-SpaceX évolue vers quelque chose de sans précédent : un monstre industriel, synergique, générateur de trésorerie. Bien que cela semble alambiqué, c'est une description très précise.
Laissez-moi décomposer ce qui se passe réellement ici, car je pense que la plupart des gens observent ces entreprises de manière isolée, alors que l'essentiel réside dans leurs connexions.
1. Le point de départ de la roue : L'Énergie
Tesla fabrique des batteries, et en quantités massives. Ils ont déployé 46,7 gigawattheures (GWh) de stockage d'énergie en 2025, soit une augmentation de 48,7 % en glissement annuel. Leur usine de 50 GWh en construction à Houston entrera en service cette année. La capacité totale planifiée est de 133 GWh par an. La marge brute de cette activité est de 31,4 %, contre seulement 16,1 % pour l'automobile. Cette activité de stockage "ennuyeuse" génère presque deux fois plus de profit par dollar de revenu que les voitures.
Pourquoi est-ce important ? Parce que xAI vient d'acheter pour 375 millions de dollars de Megapacks Tesla pour alimenter Colossus, la plus grande installation d'entraînement d'IA au monde. 336 Megapacks sont déjà déployés. Ces batteries fournissent une alimentation de secours et une capacité de réponse à la demande pour ce système de 555 000 GPU, consommant plus d'un gigawatt (assez pour alimenter 750 000 foyers).
2. Se libérer de Nvidia : L'autonomie des puces
Tesla ne se contente pas de vendre des batteries, elle développe également ses propres puces IA.
Actuellement, Nvidia monopolise le matériel d'entraînement de l'IA, contrôlant environ 80 % du marché. Tous les grands laboratoires d'IA (OpenAI, Google, Anthropic, Meta) se battent pour obtenir des quotas de Nvidia. Le H100 et maintenant les puces Blackwell sont le goulot d'étranglement de toute l'industrie. Le pouvoir de fixation des prix de Jensen Huang est ce dont rêvent la plupart des monopolistes.
Si vous êtes Musk et que vous voulez construire le plus grand système d'IA au monde, que faites-vous ? Vous ne pouvez pas dépendre éternellement de Nvidia. C'est un point de défaillance, un levier entre les mains des autres, surtout lorsque vous prévoyez d'alimenter des centaines de millions de robots dans les 10 à 20 prochaines années.
Soit dit en passant, le plan de Musk pour Tesla est le suivant : fabriquer autant de robots que d'humains.
La puce AI5 de Tesla sera lancée entre fin cette année et 2027. Musk affirme qu'elle sera la puce d'inférence la plus puissante au monde, notamment en termes de coût par calcul. En d'autres termes, elle sera extrêmement efficace.
Un contrat de fondé de pouvoir de 16,5 milliards de dollars a été signé avec Samsung pour la puce AI6. Le point clé est le suivant : Musk a déclaré que l'AI6 était conçue pour "les robots Optimus et les centres de données". Cela signifie que les produits Tesla et xAI partageront la même puce.
Nvidia domine actuellement l'"entraînement", mais l'"inférence" est le point de profit à long terme. L'entraînement n'a lieu qu'une fois, mais chaque fois que quelqu'un utilise un modèle, une inférence est générée. Si vous faites fonctionner des millions de voitures Tesla, des millions de robots Optimus et des milliards de requêtes Grok, l'inférence est là où se trouve la véritable demande de calcul.
En construisant leur propre puce d'inférence, Tesla et xAI se "découplent" pendant que Nvidia se concentre sur l'entraînement. C'est comme contourner un front fortifié pour le prendre de flanc.
3. L'informatique IA spatiale
Musk a évoqué "l'informatique IA basée dans l'espace" dans la feuille de route de Tesla Dojo 3. Ils ont relancé le projet Dojo 3 précisément pour cette vision. Faites le calcul, et cette idée qui semble folle devient logique.
Si vous voulez déployer 1 térawatt de puissance de calcul IA dans l'espace chaque année (c'est l'ordre de grandeur de l'infrastructure IA mondiale), selon Musk, au coût actuel des puces, vous auriez besoin de plus d'argent qu'il n'en existe. Le Nvidia H100 coûte entre 25 000 et 40 000 dollars, ce n'est tout simplement pas économiquement viable.
Mais si vous possédez des puces extrêmement peu coûteuses, conçues spécifiquement pour l'inférence, produites en masse et extrêmement économes en énergie, le modèle mathématique change. L'objectif de Tesla est de fabriquer des puces IA avec "le silicium au coût le plus bas". C'est la clé pour réaliser l'informatique spatiale à grande échelle.
Sans puces bon marché, l'IA spatiale est un fantasme ; avec des puces bon marché, elle devient une évidence.
StarCloud, soutenu par Nvidia, a formé son premier modèle IA dans l'espace en décembre dernier. Cela prouve que le concept est faisable. Ainsi, l'accent n'est plus mis sur la validation de l'hypothèse, mais sur la création d'un environnement permettant un déploiement à grande échelle.
Imaginez : SpaceX envoie des centres de données orbitaux en orbite terrestre basse via Starship, chaque fusée ayant une capacité de charge utile de 100 à 150 tonnes. Ces centres de données exécutent des modèles développés par xAI, utilisant des puces conçues par Tesla, alimentées par l'énergie solaire et des batteries Tesla. De l'énergie solaire gratuite, un refroidissement à coût nul. Les résultats de l'inférence sont transmis directement sur Terre via Starlink aux voitures Tesla et aux robots Optimus.
4. La boucle fermée des données et de la connectivité
SpaceX a déjà près de dix mille satellites Starlink en orbite et est autorisé à en lancer 7 500 de plus. Ils ont 6 millions de clients en liaison directe avec le téléphone. Les satellites V3, lancés cette année, ont une capacité de liaison descendante de 1 térabit par seconde (1 Tbps), soit 10 fois celle de la génération précédente.
La roue tourne à plein régime ici :
-
xAI construit des modèles (Grok 3 a 3 000 milliards de paramètres, Grok 4 a remporté un test mondial, Grok 5 à 6 000 milliards de paramètres sera lancé au premier trimestre 2026).
-
Ces modèles entrent dans les voitures Tesla. Grok est intégré dans les véhicules depuis juillet 2025, fournissant conversation et navigation, et la conduite autonome de la voiture utilise les mêmes puces Tesla.
-
Grok sera le "cerveau" des robots Optimus. Optimus prévoit de produire 50 000 à 100 000 unités cette année, et 1 million d'ici 2027.
Cela signifie : xAI modélise, Tesla fabrique les puces, Tesla fabrique les robots pour exécuter, Tesla fabrique les batteries pour l'énergie, SpaceX fournit la connectivité mondiale et l'accès à l'espace, xAI utilise la totalité des données de Tesla et de X pour l'entraînement, et envoie les instructions depuis l'espace via des satellites solaires.
5. Un fossé concurrentiel infranchissable
Ce fossé est inévitable.
-
Tesla dispose de 71 milliards de miles de données de conduite FSD, soit plus de 50 fois plus que Waymo. Les données du monde réel entraînent de meilleurs modèles, de meilleurs modèles améliorent les performances des véhicules, de meilleurs véhicules collectent plus de données.
-
X (anciennement Twitter) : xAI a un accès exclusif aux données humaines en temps réel générées par environ 600 millions d'utilisateurs actifs mensuels. Contrairement aux données de YouTube ou de recherche, il s'agit de pensées humaines brutes, non structurées et en temps réel. Lorsque Grok fait des hallucinations, ils peuvent les corriger plus rapidement que quiconque en les confrontant au consensus en temps réel.
Avec quoi les concurrents peuvent-ils rattraper leur retard ?
-
Google a une intégration verticale (puces TPU, Gemini, YouTube), mais l'échelle de Waymo est trop petite et il manque des lanceurs et un flux de données sociales en temps réel.
-
Microsoft a Copilot et Azure, mais dépend d'OpenAI, n'a pas de matériel physique, pas d'infrastructure spatiale, pas de données de conduite autonome.
-
Amazon a AWS, des puces sur mesure et des robots logistiques, mais manque de produits IA grand public à adoption massive, pas de parc automobile, pas de capacité de lancement.
-
Nvidia, bien que monopolistique pour l'entraînement, n'a pas de "couche physique". Ils n'ont pas de voitures pour collecter des données ou de robots dans les usines, ni de réseau satellite mondial. Ils vendent des puces, mais ne contrôlent pas les applications terminales.
Pour rivaliser avec Musk, vous devez créer ou acquérir simultanément cinq entreprises de premier plan différentes, et lui consolide son avantage chaque jour.
Conclusion
La plupart des analystes considèrent Tesla, xAI et SpaceX comme des investissements indépendants, mais c'est totalement erroné. La valeur ne réside pas dans les parties individuelles, mais dans la façon dont elles se nourrissent les unes des autres.
xAI est évalué à 2500 milliards de dollars, SpaceX est évalué à environ 8000 milliards de dollars et cherche une introduction en bourse à 1,5 billion de dollars, Tesla est évalué à 1,2 billion de dollars. La valeur d'entreprise totale dépasse les 2 billions de dollars, et la prime de synergie n'est pas encore incluse.
Chaque maillon renforce l'autre :
-
Succès de Tesla, xAI obtient plus de données d'entraînement.
-
Succès de xAI, les voitures et robots Tesla sont plus intelligents.
-
Succès de SpaceX, le système entier a une couverture mondiale.
-
Succès de l'activité énergie, les coûts électriques de toutes les installations diminuent.
-
Succès de la stratégie puces, libération de la dépendance envers Nvidia.
-
Succès d'Optimus, le marché total adressable (TAM) de la main-d'œuvre dépasse 40 billions de dollars par an.
Ai-je oublié quelque chose ? Si vous voyez une faille que je ne vois pas, j'aimerais beaucoup l'entendre. Parce qu'après toutes ces années d'observation, je n'en trouve vraiment pas.






