En 2016, le New Yorker a publié un portrait de Sam Altman intitulé « Le Destin de Sam Altman ». Il avait 31 ans à l'époque et était déjà le président de Y Combinator, l'incubateur le plus puissant de la Silicon Valley.
L'article mentionnait un détail : Altman adorait les voitures de sport, en possédait cinq et aimait aussi louer des avions pour les piloter. Il a déclaré au journaliste qu'il avait deux sacs, dont un sac d'évacuation prêt à l'emploi en cas de besoin.
Il avait également préparé des armes à feu, de l'or, de l'iodure de potassium (contre les radiations nucléaires), des antibiotiques, des piles, de l'eau, des masques à gaz de niveau Armée de défense d'Israël, et avait aussi acquis un terrain à Big Sur (une célèbre station balnéaire californienne) où il pouvait se rendre en avion à tout moment pour s'y réfugier.
Dix ans plus tard, Altman est devenu celui qui s'efforce le plus de créer l'apocalypse, et aussi celui qui commercialise le plus activement l'arche de salut. D'un côté, il avertit le monde que l'IA va détruire l'humanité, de l'autre, il accélère lui-même ce processus ; il dit qu'il ne le fait pas pour l'argent, tout en construisant un empire d'investissement personnel d'une valeur de 2 milliards de dollars ; il appelle à la régulation tout en écartant tous ceux qui tentent de freiner.
Plutôt que de le qualifier de fou schizophrène ou d'escroc calculateur, il est plus juste de dire qu'il n'est que le produit le plus standard et le plus réussi de l'énorme machine qu'est la Silicon Valley. Son « destin » est de forger l'anxiété collective de l'humanité en un sceptre et une couronne pour lui-même.
L'apocalypse est une bonne affaire
Le modèle commercial d'Altman peut se résumer en une phrase : présenter une affaire comme une croisade sacrée pour la survie de l'humanité.
Il a commencé à pratiquer cette stratégie à l'époque de YC. Il a transformé YC d'un petit atelier accordant quelques milliers de dollars à des startups précoces en un vaste empire entrepreneurial. Il a créé un laboratoire de recherche YC, finançant des projets non rentables mais à la portée apparemment grandiose. Il a déclaré à des journalistes que l'objectif de YC était de financer « tous les domaines importants ».
Avec OpenAI, il a porté cette stratégie à son paroxysme. Il vend un système de vision du monde tout-en-un : Apocalypse IA + Plan de rédemption.
Il est plus doué que quiconque pour décrire le « risque d'extinction » posé par l'IA. Il a cosigné une lettre avec des centaines de scientifiques, affirmant que le risque de l'IA est comparable à une guerre nucléaire. Lors de son témoignage devant le Sénat, il a déclaré : « Nous ressentons une certaine peur (du potentiel de l'IA) – et les gens devraient s'en réjouir. » Il sous-entendait que cette peur elle-même était un avertissement salutaire.
Chacune de ces déclarations fait la une des journaux, chacune faisant gratuitement la publicité d'OpenAI. Cette peur soigneusement conçue est le levier d'attention le plus efficace. Quelle technologie excite le plus les capitaux et les médias : une technologie « capable d'améliorer l'efficacité » ou une technologie « susceptible de détruire l'humanité » ? La réponse va de soi.
Il a aussi un produit tout prêt pour la partie rédemption : Worldcoin. Une fois la peur implantée dans la conscience publique, la vente de solutions devient naturelle. Un globe argenté de la taille d'un ballon de basket scanne l'iris des humains à l'échelle mondiale, soi-disant pour verser un revenu de base à chacun à l'ère de l'IA. L'histoire est belle à entendre, mais cette pratique d'échanger de l'argent contre des données biométriques a rapidement alerté les gouvernements de nombreux pays. Le Kenya, l'Espagne, le Brésil, l'Inde, la Colombie et une dizaine d'autres pays ont suspendu ou enquêté sur Worldcoin pour des raisons de confidentialité des données.
Mais pour Altman, cela n'a probablement aucune importance. L'important est qu'à travers ce projet, il a réussi à se positionner comme la personne « ayant la seule solution ».
Vendre ensemble la peur et l'espoir est le modèle commercial le plus efficace de notre époque.
La régulation est mon arme, pas mon carcan
Comment une personne qui parle sans cesse de la fin du monde fait-elle des affaires ? La réponse d'Altman est : faire de la régulation son arme.
En mai 2023, il s'est rendu pour la première fois devant le Congrès américain. Au lieu de se plaindre de la régulation comme les autres patrons de tech, il a plutôt demandé : « Régulez-nous, s'il vous plaît. » Il a suggéré de mettre en place un système de licences pour l'IA, où seules les entreprises obtenant une licence pourraient développer de grands modèles. L'image externe était celle d'un leader industriel très responsable, mais à ce moment-là, OpenAI avait une avance technologique considérable. Un système réglementaire strict et à haut seuil avait surtout pour effet de bloquer tous les concurrents potentiels.
Cependant, avec le temps, surtout alors que des concurrents comme Google et Anthropic rattrapaient leur retard technologique et que la communauté open source gagnait en puissance, le discours d'Altman sur la régulation a subtilement changé. Il a commencé à souligner dans différentes occasions qu'une régulation trop stricte, en particulier exigeant des entreprises d'IA une vérification obligatoire préalable à la publication, pourrait étouffer l'innovation et être « désastreuse ».
Désormais, la régulation n'était plus une douve protectrice, mais un obstacle.
Lorsqu'on est en position de force absolue, on appelle à la régulation pour verrouiller son avantage ; lorsque l'avantage s'érode, on appelle à la liberté pour chercher à percer. Il a même tenté d'étendre son empire jusqu'à l'amont de la chaîne d'approvisionnement. Il a proposé un plan de puces ambitieux de 7 000 milliards de dollars, cherchant le soutien de capitaux comme le fonds souverain des Émirats arabes unis, dans le but de remodeler le paysage mondial de l'industrie des semi-conducteurs. Cela dépasse largement le cadre des fonctions d'un PDG, ressemblant plutôt aux ambitions d'un homme qui cherche à influencer l'équilibre mondial.
Derrière tout cela, il y a la métamorphose rapide d'OpenAI d'une organisation à but non lucratif en une bête commerciale. Fondée en 2015, sa mission était « d'assurer que l'AGI profite à toute l'humanité en toute sécurité ». En 2019, elle a créé une filiale « à profit limité ». Début 2024, on a découvert que le mot « en toute sécurité » (safely) avait été discrètement supprimé de la déclaration de mission d'OpenAI. Bien que la structure de l'entreprise reste « à profit limité », son rythme de commercialisation s'est nettement accéléré. Cela correspond à une croissance explosive des revenus, passant de quelques dizaines de millions de dollars en 2022 à des revenus annualisés dépassant les 10 milliards de dollars en 2024, tandis que sa valorisation est passée de 29 milliards à un niveau de centaines de milliards de dollars.
Quand quelqu'un commence à lever les yeux vers les étoiles et à parler du destin de l'humanité, il vaut mieux d'abord regarder où est tombée sa bourse.
Image de marque : l'immunité du leader charismatique
Le 17 novembre 2023, Altman a été limogé par le conseil d'administration qu'il avait lui-même choisi, pour « manque de franchise dans sa communication avec le conseil ».
Ce qui s'est passé au cours des cinq jours suivants ressemblait moins à une lutte commerciale qu'à un référendum sur la foi. Le président Greg Brockman a démissionné ; 95 % des employés, plus de 700 personnes, ont signé une pétition exigeant la démission du conseil d'administration, sous peine de démissionner collectivement pour rejoindre Microsoft ; le plus grand investisseur, le PDG de Microsoft Satya Nadella, a publiquement pris position, disant qu'il accueillerait Altman à tout moment. Finalement, Altman est revenu en roi, rétabli dans ses fonctions, et a éliminé presque tous les membres du conseil qui s'opposaient à lui.
Pourquoi un PDG officiellement reconnu par son conseil comme « peu franc » a-t-il pu revenir indemne, voire avec plus de pouvoir ?
La membre évincée du conseil, Helen Toner, a ensuite divulgué des détails. Altman avait caché au conseil son contrôle effectif sur le fonds entrepreneurial OpenAI ; il avait menti à plusieurs reprises sur les processus de sécurité clés de l'entreprise ; même le lancement de ChatGPT, un événement majeur, avait été appris par le conseil sur Twitter. Ces accusations, chacune suffisante pour faire virer un PDG cent fois.
Mais Altman s'en est sorti. Parce qu'il n'est pas un PDG ordinaire, c'est un « leader charismatique ».
C'est un concept proposé il y a cent ans par le sociologue Max Weber, selon lequel il existe une autorité qui ne vient pas du poste, ni de la loi, mais de la « grâce personnelle extraordinaire » du leader lui-même. Les disciples croient en lui, non pas parce qu'il fait les choses correctement, mais parce qu'il est lui. Cette croyance est irrationnelle. Quand le leader fait une erreur ou est contesté, la première réaction des disciples n'est pas de remettre en question le leader, mais d'attaquer le contestataire.
C'est exactement ce qu'ont fait les employés d'OpenAI. Ils n'ont pas cru à la justice procédurale du conseil, ils n'ont cru qu'au « destin » représenté par Altman, estimant que le conseil « entravaient le progrès humain ».
Après le retour d'Altman, l'équipe de sécurité d'OpenAI a rapidement été dissoute. Le directeur scientifique Ilya Sutskever, qui avait mené le limogeage d'Altman, a fini par partir également. En mai 2024, le responsable de l'équipe de sécurité, Jan Leike, a démissionné, écrivant sur Twitter : « La culture et les processus de sécurité de l'entreprise ont été sacrifiés pour sortir des produits brillants. »
Face à un « leader charismatique », les faits n'ont pas d'importance, les processus n'ont pas d'importance, la sécurité n'a pas d'importance. La seule chose qui compte, c'est la foi.
Les prophètes de la chaîne de montage
Sam Altman n'est que le modèle le plus récent et le plus réussi sur la ligne de production de « prophètes » de la Silicon Valley.
Sur cette ligne, il y a beaucoup d'autres personnes que nous connaissons bien.
Comme Elon Musk. En 2014, il disait partout que « l'IA invoquait le démon ». Mais sa société Tesla est l'une des plus grandes entreprises de robotique au monde et le scénario d'application de l'IA le plus complexe. Après sa rupture avec Altman, il a fondé xAI en 2023, déclarant la guerre ouverte. Un an seulement plus tard, xAI était valorisée à plus de 20 milliards de dollars. Il avertit de l'arrivée du démon tout en forgeant un autre démon de ses propres mains. Cette narration binaire où il se combat lui-même est exactement la même que celle d'Altman.
Ou encore Mark Zuckerberg. Il y a quelques années, il a mis tout l'avenir de sa société sur le métavers, brûlant près de 90 milliards de dollars, pour finalement se rendre compte que c'était un piège. Il a alors immédiatement fait volte-face, remplaçant le récit de l'entreprise du métavers par l'AGI. En 2025, il a annoncé la création d'un « Superintelligence Lab », recrutant personnellement. Même vision grandiose de l'avenir de l'humanité, même histoire capitalistique nécessitant des investissements astronomiques, même posture de sauveur.
Et puis Peter Thiel. En tant que mentor d'Altman, il ressemble plus au concepteur en chef de cette ligne de production. D'un côté, il investit dans diverses entreprises promouvant la « singularité technologique » ou « l'immortalité », de l'autre, il achète des terres en Nouvelle-Zélande et construit des bunkers apocalyptiques ; il n'a passé que 12 jours en Nouvelle-Zélande pour obtenir la citoyenneté. Sa société Palantir est l'une des plus grandes entreprises de surveillance de données au monde, dont les clients sont principalement des gouvernements et des militaires. Il se prépare à l'effondrement de la civilisation tout en forgeant les outils de surveillance les plus tranchants pour les détenteurs du pouvoir. Lors de l'action militaire contre l'Iran début 2026, c'est la plateforme d'intelligence artificielle de Palantir qui a servi de cerveau, intégrant des masses de données provenant de satellites espions, d'écoutes communications, de drones et d'analyses du modèle Claude, transformant en temps réel des informations chaotiques en renseignements exploitables pour la prise de décision, verrouillant finalement la cible et accomplissant son élimination.
Chacun d'eux joue le double rôle de « celui qui avertit de l'apocalypse imminente » et de « celui qui pousse à l'apocalypse ». Ce n'est pas une schizophrénie, c'est un modèle commercial validé par le marché des capitaux comme étant le plus efficace. Ils capturent et le pouvoir en fabriquant et en vendant de l'anxiété structurelle. Ils sont le produit de ce système, mais aussi ses façonneurs, le « mal derrière les grands récits ».
La Silicon Valley n'est plus depuis longtemps un simple lieu de production technologique, c'est une usine à fabriquer des « mythes modernes ».
Pourquoi ce tour de passe-passe fonctionne-t-il à chaque fois ?
Tous les quelques années, la Silicon Valley donne naissance à un nouveau prophète, qui balaye l'attention des capitaux, des médias et du public avec un grand récit sur l'apocalypse et la rédemption. Ce tour est répété encore et encore, mais fonctionne à chaque fois. Chaque étape vise précisément des failles spécifiques de la cognition humaine.
Première étape : Gérer le rythme de la peur, pas seulement la créer.
Les risques potentiels de l'IA sont réels, mais ils pourraient être discutés calmement. Ce sont ces personnes qui ont choisi activement de les présenter de la manière la plus dramatique, et elles contrôlent le relâchement de la peur avec un rythme précis.
Quand faire peur au public, quand donner de l'espoir, quand relever à nouveau le niveau d'alerte, tout est conçu. La peur est le carburant, mais le timing et la manière d'allumer la mèche sont la véritable technologie.
Deuxième étape : Transformer l'inintelligibilité de la technologie en source d'autorité.
L'IA est une boîte noire totalement opaque pour la grande majorité des gens. Lorsqu'une chose trop complexe pour être pleinement comprise apparaît, les gens cèdent instinctivement le droit de l'expliquer à « ceux qui la comprennent le mieux ». Ils comprennent profondément cela et l'ont transformé en un avantage structurel. Plus ils décrivent l'IA comme mystérieuse, dangereuse, au-delà de la compréhension commune, plus ils deviennent eux-mêmes irremplaçables.
L'aspect terrible de cette logique est qu'elle s'auto-renforce. Toute remise en question externe est automatiquement dissipée parce que le questionneur « ne comprend pas assez ». Les régulateurs ne comprennent pas la technologie, donc leur jugement n'est pas fiable ; les critiques universitaires n'ont pas construit de modèles sur le terrain, donc leurs inquiétudes sont théoriques. Finalement, seuls eux-mêmes sont qualifiés pour se juger.
Troisième étape : Remplacer « l'intérêt » par le « signification », incitant les disciples à abandonner volontairement leur esprit critique.
C'est la couche la plus difficile à percer de tout le système, et aussi sa source de pouvoir la plus durable. Ce qu'ils vendent n'est jamais juste un emploi ou un produit, mais une histoire qui a du sens à l'échelle cosmique : vous décidez du destin de l'humanité. Une fois ce récit accepté, les disciples abandonnent activement leur jugement indépendant. Car face à une mission concernant la « survie de l'humanité », remettre en question les motivations du leader semble mesquin, voire faire de soi un obstacle historique. Cela amène les gens à céder volontairement leur capacité critique, et à interpréter cette abdication comme un choix noble.
En mettant ces trois étapes ensemble, vous comprenez pourquoi ce système est si difficile à ébranler. Il ne repose pas sur des mensonges, mais sur une compréhension précise de la structure cognitive humaine. Il crée d'abord une peur que vous ne pouvez ignorer, monopolise ensuite l'explication de cette peur, et utilise enfin la « signification » pour faire de vous son propagandiste le plus fidèle.
Et dans ce système, Altman est le modèle qui fonctionne le plus fluidement à ce jour.
Le destin de qui ?
Altman a toujours dit qu'il ne détenait pas d'actions OpenAI, ne touchant qu'un salaire symbolique, ce qui était la pierre angulaire de son récit de « travailler par passion ».
Mais Bloomberg lui a fait les comptes en 2024 : sa valeur nette personnelle est d'environ 2 milliards de dollars. Cette fortune provient principalement d'une série d'investissements en capital-risque qu'il a réalisés au cours de la dernière décennie. Un investissement précoce dans la société de paiement Stripe aurait rapporté des centaines de millions de dollars ; l'introduction en bourse de Reddit, dans laquelle il a investi, lui a également rapporté gros. Il a aussi investi dans la société de fusion nucléaire Helion ; d'un côté, il dit que l'avenir de l'IA dépend de percées énergétiques, de l'autre, il mise lourd sur la fusion, puis OpenAI négocie de gros contrats d'achat d'électricité avec Helion. Il dit avoir évité les négociations, mais la chaîne d'intérêts est évidente pour quiconque.
Il est vrai qu'il ne détient pas d'actions directes d'OpenAI, mais il a construit autour d'OpenAI un vaste empire d'investissement centré sur sa personne. Chacune de ses grandes prédications sur l'avenir de l'humanité injecte de la valeur dans les contours de cet empire.
Maintenant, revenons à son sac d'évacuation rempli d'armes, d'or et d'antibiotiques, et à ce terrain de Big Sur où il peut voler à tout moment. Cela prend-il un nouveau sens ?
Il n'a jamais caché tout cela. Le sac d'évacuation est réel, le bunker est réel, la fascination pour l'apocalypse est réelle. Mais il est aussi celui qui s'efforce le plus de faire advenir l'apocalypse. Ces deux choses ne sont pas contradictoires, car dans sa logique, l'apocalypse n'a pas besoin d'être empêchée, elle a juste besoin d'être devancée. Il est obsédé par le fait d'incarner la seule personne qui voit clairement l'avenir et s'y prépare.
Que ce soit en préparant un sac d'évacuation matériel ou en construisant un empire financier centré sur OpenAI, l'essence est la même : se garantir la position de gagnant la plus certaine dans un futur incertain qu'il pousse lui-même.
En février 2026, il a déclaré soutenir la ligne rouge de « non-utilisation de l'IA pour la guerre », puis a signé un contrat avec le Pentagone. Ce n'est pas de l'hypocrisie, c'est une exigence intrinsèque de son modèle commercial. La posture morale fait partie du produit, le contrat commercial est la source du profit. Il doit jouer simultanément le sauveur compatissant et le prophète de l'apocalypse impitoyable, car ce n'est qu'en jouant ces deux rôles que son histoire peut continuer, que son « destin » peut être manifeste.
Ce qui est vraiment dangereux, ce n'est jamais l'IA, mais ceux qui croient avoir le droit de définir le destin de l'humanité.












