
Analyse d’un article d’enquête approfondie du *New Yorker* : Pourquoi les employés d’OpenAI eux-mêmes considèrent-ils Altman comme digne de méfiance ?
TechFlow SélectionTechFlow Sélection

Analyse d’un article d’enquête approfondie du *New Yorker* : Pourquoi les employés d’OpenAI eux-mêmes considèrent-ils Altman comme digne de méfiance ?
Sur le cadavre d’une organisation à but non lucratif, un arbre à argent a poussé.
Par : Xiao Bing, TechFlow
À l’automne 2023, Ilya Sutskever, scientifique en chef d’OpenAI, s’assit devant son ordinateur et rédigea un document de 70 pages.
Ce document, compilé à partir d’archives de messages Slack, de communications avec les ressources humaines et de comptes rendus de réunions internes, visait à répondre à une seule question : Sam Altman, qui dirigeait ce qui pourrait bien être la technologie la plus dangereuse de l’histoire humaine, pouvait-il encore être considéré comme digne de confiance ?
La réponse de Sutskever figurait en première ligne de la première page du document, sous le titre de liste suivant : « Sam manifeste un schéma comportemental constant… »
Premier point : Mentir.
Deux ans et demi plus tard, les journalistes d’investigation Ronan Farrow et Andrew Marantz ont publié dans The New Yorker un long reportage d’enquête. Ils y rapportent des entretiens menés avec plus de 100 personnes impliquées, ainsi que la découverte de mémorandums internes jusqu’alors inédits, et de plus de 200 pages de notes personnelles rédigées par Dario Amodei, cofondateur d’Anthropic, durant son passage chez OpenAI. Ensemble, ces documents composent une histoire bien plus sombre que celle de la « lutte de pouvoir » survenue en 2023 : ils montrent comment OpenAI, née en tant qu’organisation à but non lucratif vouée à la sécurité de l’humanité, s’est progressivement transformée en machine commerciale, et comment presque chaque dispositif de sécurité a été démantelé par une seule et même personne.
La conclusion d’Amodei, dans ses notes, est encore plus directe : « Le problème d’OpenAI, c’est Sam lui-même. »
Le « péché originel » d’OpenAI
Pour saisir toute la portée de ce reportage, il convient d’abord de comprendre à quel point OpenAI est une entreprise exceptionnelle.
En 2015, Altman et un groupe d’élites de la Silicon Valley accomplirent un acte sans précédent dans l’histoire du monde des affaires : créer une organisation à but non lucratif pour développer ce qui pourrait devenir la technologie la plus puissante jamais conçue par l’humanité. Le rôle du conseil d’administration était clairement défini : la sécurité priment sur le succès de l’entreprise — voire même sur sa survie. Autrement dit, si un jour l’IA d’OpenAI devenait dangereuse, le conseil d’administration aurait le devoir moral de fermer l’entreprise lui-même.
Toute cette architecture reposait sur une hypothèse : celui ou celle qui contrôlerait l’AGI devrait être une personne d’une honnêteté absolue.
Et si cette hypothèse s’avérait erronée ?
L’élément central du reportage est précisément ce document de 70 pages. Sutskever ne pratique pas la politique interne ; il est l’un des meilleurs chercheurs mondiaux en intelligence artificielle. Pourtant, dès 2023, sa conviction s’était renforcée : Altman mentait systématiquement aux cadres supérieurs et au conseil d’administration.
Un exemple concret : en décembre 2022, lors d’une réunion du conseil d’administration, Altman affirma que plusieurs fonctionnalités de GPT-4, alors sur le point d’être lancé, avaient déjà reçu l’aval des équipes de sécurité. Le membre du conseil Toner demanda à consulter les documents attestant cet accord, mais découvrit que deux fonctionnalités particulièrement controversées — le réglage fin personnalisé par les utilisateurs et le déploiement d’assistants personnels — n’avaient jamais été approuvées par le comité de sécurité.
Une affaire encore plus grave eut lieu en Inde. Un employé signala à un autre membre du conseil d’administration cette « violation » : Microsoft avait publié prématurément une version préliminaire de ChatGPT en Inde, sans avoir mené les vérifications de sécurité requises.
Dans son mémorandum, Sutskever relata également un autre épisode : Altman aurait affirmé à l’ancienne directrice technique Mira Murati que la procédure d’approbation sécuritaire n’était pas si cruciale, puisque le conseiller juridique général de l’entreprise l’avait validée. Murati alla alors vérifier auprès du conseiller juridique général, qui lui répondit : « Je ne sais pas d’où Sam tire cette impression. »
Les 200 pages de notes personnelles d’Amodei
Le document de Sutskever ressemble à un acte d’accusation rédigé par un procureur. Les plus de 200 pages de notes personnelles d’Amodei, quant à elles, évoquent davantage le journal d’un témoin oculaire sur les lieux d’un crime.
Pendant les années où Amodei occupa le poste de responsable de la sécurité chez OpenAI, il assista, impuissant, à la reculade progressive de l’entreprise sous la pression commerciale. Dans ses notes, il mentionne un détail crucial lié à l’investissement de Microsoft en 2019 : il avait inséré dans les statuts d’OpenAI une clause intitulée « fusion et assistance », stipulant que, si une autre société trouvait une voie plus sûre vers l’AGI, OpenAI devrait cesser toute concurrence et se porter à l’aide de cette dernière. C’était, pour lui, la garantie de sécurité la plus importante de l’ensemble de la transaction.
Mais, juste avant la signature de l’accord, Amodei découvrit une chose troublante : Microsoft s’était vu accorder un droit de veto sur cette clause. Que signifiait cela ? Même si, un jour, un concurrent trouvait effectivement une meilleure voie, un simple mot de Microsoft suffirait à annuler l’obligation d’assistance d’OpenAI. La clause restait certes écrite, mais elle devenait, dès la signature, un papier sans valeur.
Amodei quitta ensuite OpenAI pour fonder Anthropic. La rivalité entre les deux entreprises repose, en profondeur, sur un désaccord fondamental concernant la manière dont l’IA devrait être développée.
La promesse de 20 % de puissance de calcul, disparue
Un détail rapporté dans l’article laisse froid dans le dos : il concerne l’équipe « Super Alignment » (« Alignement super ») d’OpenAI.
Au milieu de l’année 2023, Altman envoya un courriel à un doctorant de l’université de Berkeley spécialiste du phénomène d’« alignement trompeur » (c’est-à-dire le fait qu’un modèle d’IA se comporte bien lors des tests, mais agit différemment une fois déployé dans le monde réel), exprimant sa vive inquiétude à ce sujet et évoquant la possibilité de créer un prix mondial de recherche doté de 1 milliard de dollars. Fortement encouragé, le doctorant interrompit ses études pour rejoindre OpenAI.
Altman changea ensuite d’avis : il abandonna l’idée d’un prix externe au profit de la création, au sein même de l’entreprise, d’une « équipe Super Alignment ». OpenAI annonça publiquement, avec grande solennité, qu’elle consacrerait « 20 % de sa puissance de calcul existante » à cette équipe, soit une valeur potentielle supérieure à 1 milliard de dollars. Le communiqué était formulé avec une extrême gravité, soulignant que, si le problème de l’alignement n’était pas résolu, l’AGI pourrait entraîner « la perte de tout pouvoir par l’humanité, voire son extinction ».
Jan Leike, nommé à la tête de cette équipe, déclara plus tard aux journalistes que cette promesse constituait, en soi, « un outil très efficace de fidélisation des talents ».
Or, la réalité fut tout autre : quatre personnes ayant travaillé au sein de cette équipe ou y ayant été étroitement associées affirment que la puissance de calcul effectivement allouée ne représentait que 1 à 2 % de la puissance totale d’OpenAI — et qu’il s’agissait des équipements les plus anciens. L’équipe fut ensuite dissoute, sans avoir rempli sa mission.
Lorsque les journalistes demandèrent à interviewer les responsables de la recherche sur la « sécurité existentielle » chez OpenAI, les relations publiques de l’entreprise répondirent d’une façon à la fois déroutante et consternante : « Ce n’est pas… une chose réellement existante. »
Altman, lui, resta franc. Il confia aux journalistes que son « intuition ne coïncidait pas vraiment avec beaucoup d’approches traditionnelles en matière de sécurité de l’IA », mais qu’OpenAI continuerait néanmoins à mener des « projets de sécurité, ou du moins des projets liés à la sécurité ».
Le directeur financier marginalisé et la préparation imminente d’une introduction en bourse
Le reportage de The New Yorker ne constituait que la moitié des mauvaises nouvelles de cette journée. Le même jour, The Information révéla une autre information explosive : une profonde divergence s’était creusée entre Sarah Friar, directrice financière d’OpenAI, et Altman.
Friar aurait confié à des collègues qu’à son avis, OpenAI n’était pas encore prête à entrer en bourse cette année. Deux raisons principales : la masse colossale de travail administratif et organisationnel encore à accomplir, et le risque financier élevé engendré par l’engagement d’Altman de dépenser 600 milliards de dollars en puissance de calcul sur cinq ans. Elle doutait même que la croissance des revenus d’OpenAI puisse soutenir de tels engagements.
Altman, lui, souhaite une introduction en bourse dès le quatrième trimestre de cette année.
Encore plus surprenant : Friar ne rend plus compte directement à Altman. Depuis août 2025, elle relève désormais de Fidji Simo, directrice générale des activités applicatives d’OpenAI. Or, Simo a pris la semaine dernière un congé maladie pour raisons de santé. Réfléchissez-y un instant : une entreprise sur le point de faire son entrée en bourse connaît une divergence fondamentale entre son PDG et son directeur financier ; ce dernier ne rend plus compte au PDG, et son supérieur hiérarchique est en congé maladie.
Même des cadres supérieurs de Microsoft, partenaire d’OpenAI, ne purent contenir leur exaspération, qualifiant Altman de « manipulateur de la vérité, d’inconstant et de fauteur de reniements constants ». L’un d’eux alla même jusqu’à déclarer : « Je pense qu’il existe une probabilité non négligeable qu’il soit un jour mémorisé, dans l’histoire, comme un escroc du calibre de Bernie Madoff ou de SBF. »
Le portrait d’un homme à double face
Un ancien membre du conseil d’administration d’OpenAI dressa pour les journalistes un portrait saisissant des deux traits de caractère d’Altman. Ce passage constitue probablement la description psychologique la plus percutante de tout le reportage.
Ce membre du conseil déclara qu’Altman possédait une combinaison de traits extrêmement rare : à chaque rencontre en face à face, il éprouvait une forte envie de plaire à son interlocuteur et d’être apprécié par lui. En même temps, il semblait presque indifférent aux conséquences que pourrait avoir la tromperie qu’il pratiquait.
Cette conjonction de deux traits aussi opposés chez une seule personne est exceptionnelle. Mais pour un vendeur, c’est un don parfait.
L’article propose une comparaison éclairante : Steve Jobs était célèbre pour son « champ de distorsion de la réalité », capable de convaincre le monde entier de la justesse de sa vision. Mais même Jobs n’avait jamais dit à un client : « Si vous n’achetez pas mon lecteur MP3, tous ceux que vous aimez mourront. »
Altman, lui, a prononcé des propos similaires — à propos de l’IA.
Pourquoi le caractère d’un PDG représente-t-il un risque pour tous ?
Si Altman n’était qu’un PDG ordinaire d’une entreprise technologique classique, ces accusations ne seraient guère plus qu’un scandale commercial captivant. Mais OpenAI n’est pas une entreprise ordinaire.
Comme elle le reconnaît elle-même, elle développe ce qui pourrait bien être la technologie la plus puissante de l’histoire humaine : capable de transformer radicalement l’économie mondiale et le marché du travail (OpenAI vient d’ailleurs de publier une note de politique publique sur les risques de chômage liés à l’IA), mais aussi susceptible d’être détournée pour fabriquer des armes biologiques ou chimiques à grande échelle, ou pour lancer des attaques informatiques massives.
Tous les dispositifs de sécurité sont aujourd’hui devenus lettre morte. La mission non lucrative des fondateurs a cédé le pas à la course effrénée vers l’introduction en bourse. L’ancien scientifique en chef et l’ancien responsable de la sécurité jugent tous deux le PDG « digne de défiance ». Un partenaire le compare à SBF. Dans ces conditions, sur quoi peut-on fonder la légitimité de ce PDG à décider seul du moment où un modèle d’IA susceptible de changer le destin de l’humanité doit être publié ?
Gary Marcus, professeur d’IA à l’université de New York et défenseur de longue date de la sécurité de l’IA, écrivit après lecture du reportage : « Si un futur modèle d’OpenAI permettait de concevoir des armes biologiques ou chimiques à grande échelle, ou de lancer des cyberattaques catastrophiques, seriez-vous vraiment prêt à laisser Altman décider seul de sa mise sur le marché ? »
La réponse d’OpenAI à The New Yorker fut brève : « La majeure partie de cet article consiste à ressortir des événements déjà rapportés, en s’appuyant sur des sources anonymes et des anecdotes sélectives, dont la motivation est manifestement personnelle. »
Une réponse typiquement altmanienne : aucune réponse aux accusations précises, aucune dénégation de l’authenticité des mémorandums, uniquement une remise en cause des intentions des sources.
Sur la dépouille de l’organisation à but non lucratif, une arbre porteuse de richesses a poussé
Les dix années d’existence d’OpenAI peuvent être résumées en un canevas narratif ainsi conçu :
Un groupe d’idéalistes soucieux des risques liés à l’IA crée une organisation à but non lucratif guidée par une mission. Cette organisation réalise des percées technologiques remarquables. Ces percées attirent des capitaux considérables. Ces capitaux exigent un retour sur investissement. La mission commence à céder du terrain. L’équipe de sécurité est dissoute. Les voix critiques sont écartées. La structure non lucrative est convertie en entité à but lucratif. Le conseil d’administration, qui disposait jadis du pouvoir de fermer l’entreprise, est aujourd’hui composé exclusivement d’alliés du PDG. Et l’entreprise qui s’était engagée à consacrer 20 % de sa puissance de calcul à la sauvegarde de l’humanité voit aujourd’hui ses services de communication déclarer : « Ce n’est pas une chose réellement existante. »
Le personnage central de cette histoire — centaine de témoins directs — lui ont attribué une étiquette commune : « non lié à la vérité. »
Il s’apprête maintenant à emmener son entreprise en bourse, avec une valorisation dépassant les 850 milliards de dollars.
Cet article s’appuie sur des informations provenant de rapports publics publiés par The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider et The Information, entre autres médias.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














