Selon les informations de 1M AI News, le lauréat du prix Pulitzer Ronan Farrow et le journaliste du New Yorker Andrew Marantz ont publié une longue enquête, basée sur des entretiens avec plus de 100 personnes informées, révélant pour la première fois deux documents clés : un document confidentiel d'environ 70 pages compilé à l'automne 2023 par Ilya Sutskever, ancien scientifique en chef d'OpenAI, et plus de 200 pages de notes internes accumulées par Dario Amodei, PDG d'Anthropic, pendant son mandat chez OpenAI. Ces deux documents n'avaient jamais été rendus publics auparavant.
Le document confidentiel de Sutskever contient des messages Slack, des fichiers RH et des captures d'écran prises avec un téléphone portable (apparemment pour éviter la surveillance des appareils de l'entreprise), commençant par une liste : « Sam présente un schéma persistant... », le premier point étant « mentir ». Le document accuse Altman d'avoir déformé les faits auprès des cadres et du conseil d'administration, et d'avoir trompé ses collègues sur les processus de sécurité. Sutskever aurait déclaré à un autre administrateur à l'époque : « Je ne pense pas que Sam soit celui qui devrait avoir le bouton en main. »
Les notes d'Amodei, intitulées « Mon expérience chez OpenAI » (sous-titré « Document privé, ne pas partager »), circulaient parmi les pairs de la Silicon Valley mais n'avaient jamais été rendues publiques. Elles indiquent que « le problème d'OpenAI, c'est Sam lui-même » et accusent Altman d'avoir nié en face l'existence de clauses déjà présentes dans le contrat lors de la signature de l'accord d'investissement d'un milliard de dollars avec Microsoft, et ce, même après qu'Amodei les ait lues mot pour mot sur le moment.
Le reportage révèle également plusieurs faits non divulgués auparavant :
1. L'enquête indépendante promise par Altman après sa réintégration n'a jamais fait l'objet d'un rapport écrit. Le cabinet d'avocats WilmerHale (qui a dirigé les enquêtes sur Enron et WorldCom) chargé de l'enquête n'a fait son rapport que oralement à deux nouveaux administrateurs. La décision de ne pas produire de rapport écrit était en partie basée sur les conseils des avocats privés de ces deux administrateurs. Des personnes informées ont qualifié l'enquête de « semblant viser à limiter la transparence » », et certains administrateurs actuels estiment que cette affaire pourrait conduire à « un besoin de réouverture de l'enquête ».
2. La puissance de calcul réelle allouée à l'équipe de « super alignement » était d'environ 1% à 2% des 20% promis publiquement, et la plupart était attribuée aux « clusters les plus anciens et avec les puces les plus mauvaises ». Lorsque les journalistes ont demandé à interviewer des chercheurs travaillant sur la sécurité existentielle, un représentant d'OpenAI a répondu : « Que voulez-vous dire par 'sécurité existentielle' ? Cela n'existe pas. »
3. Vers 2018, la direction a sérieusement envisagé un plan appelé en interne « Projet National » : faire en sorte que les grandes puissances (y compris la Chine et la Russie) enchérissent pour l'achat de la technologie d'IA. L'ancien responsable des politiques, Jack Clark, a décrit son objectif comme « créer un dilemme du prisonnier pour que tous les pays doivent nous financer ». Le projet a été mis en suspens après que plusieurs employés ont menacé de démissionner.
4. Plusieurs cadres de Microsoft ont exprimé de vifs mécontentements envers Altman. Un cadre a déclaré : « Il déforme, tord, renégocie, viole les accords », estimant qu'« il existe une possibilité, mais réelle, qu'il finisse par être remembered par les gens comme le principal responsable de l'arnaque pyramidale Bernie Madoff ou le fondateur de FTX Sam Bankman-Fried ».
Lors d'un appel avec le conseil d'administration après son licenciement, Altman, sommé d'admettre son schéma trompeur, a répété « C'est ridicule », avant de déclarer : « Je ne peux pas changer ma personnalité ». Un administrateur présent a interprété cela ainsi : « Cette phrase signifie 'J'ai un trait de caractère qui consiste à mentir aux gens, et je ne vais pas m'arrêter'. » Aaron Swartz, programmeur de la première promotion de Y Combinator, décédé en 2013, avait averti ses amis de son vivant : « Tu dois comprendre que Sam ne peut jamais être trusted. C'est un sociopathe, capable de tout. » Le reportage indique que plus d'une personne a volontairement utilisé le terme « sociopathe » lors des entretiens.
Altman, lors de plus d'une dizaine de conversations avec les journalistes, a nié toute tromperie délibérée, qualifiant ses promesses changeantes d'« adaptation de bonne foi à un environnement en évolution rapide », et attribuant les critiques initiales à sa tendance à « trop éviter les conflits ». Interrogé sur le fait de diriger une entreprise d'IA exigeait une plus grande intégrité, il a ajouté : « Oui, cela exige un niveau d'intégrité plus élevé, et je ressens le poids de cette responsabilité chaque jour. »







