
Un chercheur d’OpenAI démissionne et porte plainte : ChatGPT affiche des publicités — qui protégera votre vie privée ?
TechFlow SélectionTechFlow Sélection

Un chercheur d’OpenAI démissionne et porte plainte : ChatGPT affiche des publicités — qui protégera votre vie privée ?
ChatGPT a accumulé une archive sans précédent de dialogues francs entre humains ; dès l’introduction d’un modèle publicitaire, il risque fortement de se transformer en un outil de manipulation psychologique fondé sur l’exploitation des informations privées des utilisateurs.
Auteur : Zoë Hitzig
Traduction : TechFlow
Introduction de TechFlow : Après qu’OpenAI a annoncé le lancement de tests publicitaires dans ChatGPT, son ancienne chercheuse Zoë Hitzig a démissionné avec indignation et publié un article révélant un changement profond des valeurs internes de la société. L’auteure souligne que ChatGPT a accumulé une archive sans précédent de dialogues humains francs et sincères ; or, l’introduction d’un modèle publicitaire risque fortement de transformer cet outil en instrument de manipulation psychologique fondé sur les informations les plus privées des utilisateurs. Elle met en garde contre le fait qu’OpenAI emprunte aujourd’hui la même voie que Facebook autrefois — celle d’un engagement initial suivi d’un reniement — en plaçant systématiquement l’engagement des utilisateurs au-dessus de la sécurité. Cet article explore en profondeur les dilemmes éthiques liés au financement de l’IA et propose des solutions alternatives telles que la subvention inter-entreprises, la régulation indépendante ou encore les « trusts » de données, appelant ainsi le secteur à rester vigilant face aux intérêts économiques qui sous-tendent le phénomène de la « psychose liée aux chatbots ».
Texte intégral :
Cette semaine, OpenAI a commencé à tester des publicités dans ChatGPT. J’ai également quitté la société. J’y avais travaillé pendant deux ans en tant que chercheuse, contribuant à la conception des modèles d’IA et de leurs modèles tarifaires, tout en guidant, dès les premiers stades, l’élaboration de politiques de sécurité avant que des normes sectorielles ne soient établies.
J’ai longtemps cru pouvoir aider ceux qui construisent l’IA à devancer les problèmes que cette technologie pourrait engendrer. Or, ce qui s’est produit cette semaine confirme une réalité que j’avais progressivement perçue : OpenAI semble avoir cessé de se poser les questions auxquelles j’avais initialement souhaité contribuer à répondre en rejoignant l’entreprise.
Je ne considère pas la publicité comme intrinsèquement immorale ou contraire à l’éthique. Le coût de fonctionnement de l’IA est extrêmement élevé, et la publicité peut constituer une source de revenus essentielle. Toutefois, je nourris de sérieuses réserves quant à la stratégie adoptée par OpenAI.
Pendant plusieurs années, les utilisateurs de ChatGPT ont généré une archive inédite de dialogues humains francs, en partie parce qu’ils croient converser avec une entité dépourvue de visées cachées. Ils interagissent avec une voix conversationnelle adaptative, déjà documentée dans la littérature scientifique, à laquelle ils confient leurs pensées les plus secrètes : leurs craintes concernant leur santé, leurs difficultés relationnelles, leurs croyances religieuses ou leurs conceptions de l’au-delà. Un modèle publicitaire fondé sur cette archive risque très fortement de manipuler les utilisateurs de façons que nous ne savons ni comprendre, ni encore moins prévenir avec les outils dont nous disposons actuellement.
Beaucoup présentent le problème du financement de l’IA comme un choix entre « deux maux », où il faudrait choisir le moindre : soit restreindre l’accès à cette technologie transformatrice à une poignée de personnes aisées capables de payer ; soit accepter la publicité, quitte à exploiter les peurs et les désirs les plus profonds des utilisateurs pour vendre des produits. Je considère qu’il s’agit d’un faux dilemme. Les entreprises technologiques peuvent parfaitement explorer d’autres voies permettant à la fois de maintenir un accès large à ces outils et de limiter les incitations pour les entreprises à surveiller, profiler et manipuler leurs utilisateurs.
OpenAI affirme qu’elle respectera ses propres principes publicitaires dans ChatGPT : les publicités seront clairement étiquetées, apparaîtront uniquement en bas des réponses et n’influenceront pas le contenu des réponses elles-mêmes. Je crois que la première version des publicités pourrait effectivement respecter ces principes. Mais je crains que les versions ultérieures n’en fassent fi, car la société construit un puissant moteur économique qui créera des incitations fortes à remettre en cause ses propres règles. (The New York Times a déjà intenté une action en justice contre OpenAI pour violation de droits d’auteur liée à l’utilisation non autorisée de contenus journalistiques dynamiques par des systèmes d’IA. OpenAI dénie ces accusations.)
Dans ses débuts, Facebook avait promis aux utilisateurs le contrôle de leurs propres données et la possibilité de voter sur les modifications des politiques. Ces engagements ont ensuite été progressivement abandonnés. La société a supprimé le système de vote public sur les politiques. Par ailleurs, les modifications de confidentialité censées accroître le contrôle des utilisateurs sur leurs données se sont révélées, selon la Federal Trade Commission (FTC), contre-productives, rendant au contraire les informations privées plus accessibles. L’ensemble de ces évolutions s’est opéré progressivement sous la pression exercée par le modèle publicitaire, qui place systématiquement l’« engagement » (engagement) des utilisateurs au-dessus de toute autre considération.
L’érosion des principes d’OpenAI, motivée par la recherche d’un engagement accru, pourrait déjà avoir commencé. Optimiser l’engagement des utilisateurs uniquement afin de générer davantage de revenus publicitaires va à l’encontre des principes affichés par la société. Pourtant, selon un rapport récent, OpenAI optimise déjà activement le nombre quotidien d’utilisateurs actifs, vraisemblablement en encourageant les modèles à adopter un comportement plus flatteur et complaisant. Une telle optimisation renforce la dépendance ressentie par les utilisateurs à l’égard du soutien fourni par l’IA. Nous avons déjà observé les conséquences de cette dépendance excessive, notamment des cas de « psychose liée aux chatbots » (Chatbot Psychosis) documentés par des psychiatres, ainsi que des allégations selon lesquelles ChatGPT aurait renforcé des idées suicidaires chez certains utilisateurs.
Pourtant, les revenus publicitaires contribuent effectivement à garantir que les outils d’IA les plus puissants ne soient pas réservés par défaut à ceux qui peuvent se les permettre financièrement. Certes, Anthropic affirme qu’elle n’affichera jamais de publicité sur Claude, mais le nombre d’utilisateurs actifs hebdomadaires de Claude ne représente qu’une petite fraction des 800 millions d’utilisateurs actifs de ChatGPT ; sa stratégie de revenus est radicalement différente. En outre, les abonnements premium de ChatGPT, Gemini et Claude atteignent désormais 200 à 250 dollars par mois — soit plus de dix fois le prix de l’abonnement standard de Netflix — pour un seul logiciel.
La question véritable ne porte donc pas tant sur la présence ou non de publicité, que sur notre capacité à concevoir des structures qui évitent à la fois d’exclure les utilisateurs ordinaires et de les manipuler potentiellement en tant que consommateurs. Je pense que cela est possible.
Une première piste consiste en une subvention explicite croisée : utiliser les bénéfices tirés d’un service ou d’un segment client spécifique pour compenser les pertes subies par un autre. Si une entreprise utilise massivement l’IA pour accomplir des tâches à haute valeur ajoutée autrefois réalisées par des employés humains (par exemple, une plateforme immobilière utilisant l’IA pour rédiger des descriptions de biens ou des rapports d’évaluation), elle devrait également verser une contribution supplémentaire destinée à subventionner l’accès gratuit ou à faible coût de ces outils pour d’autres utilisateurs.
Cette approche s’inspire de la manière dont nous traitons les infrastructures fondamentales. La Federal Communications Commission (FCC) oblige les opérateurs de télécommunications à verser des contributions à un fonds dédié, afin de maintenir les coûts des services téléphoniques et internet abordables dans les zones rurales et pour les ménages à faible revenu. De nombreux États ajoutent une taxe destinée aux aides sociales sur les factures d’électricité afin de fournir une assistance aux ménages à faible revenu.
Une deuxième option consiste à accepter la publicité, mais à l’accompagner d’une gouvernance effective — non pas en publiant un simple billet de blog énumérant des principes, mais en instaurant une structure contraignante dotée d’un véritable pouvoir de surveillance indépendante sur l’utilisation des données personnelles. Des précédents existent déjà dans ce domaine. La loi allemande sur la codétermination exige que des entreprises majeures telles que Siemens ou Volkswagen réservent jusqu’à la moitié des sièges de leur conseil de surveillance aux représentants des travailleurs, démontrant ainsi qu’une représentation formelle des parties prenantes au sein d’entreprises privées peut être rendue obligatoire. Meta est également tenue de se conformer aux décisions prises par son Conseil de surveillance (Oversight Board), instance indépendante composée d’experts externes (bien que son efficacité ait par ailleurs été critiquée).
Le secteur de l’IA a besoin d’une combinaison de ces approches : un comité comprenant à la fois des experts indépendants et des représentants des personnes dont les données sont concernées, doté d’un pouvoir contraignant pour décider quelles données de conversation peuvent être utilisées à des fins de publicité ciblée, ce qui constitue une modification majeure de politique, et quelles informations doivent être communiquées aux utilisateurs.
Une troisième piste implique de placer les données des utilisateurs sous un contrôle indépendant, via des « trusts » ou des coopératives, assortis d’une obligation légale d’agir dans l’intérêt des utilisateurs. Par exemple, la coopérative suisse MIDATA permet à ses membres de stocker leurs données de santé sur une plateforme chiffrée, puis de décider, au cas par cas, s’ils souhaitent les partager avec des chercheurs. Les membres de MIDATA définissent eux-mêmes ses politiques lors d’assemblées générales, tandis que les demandes d’accès à leurs données par des chercheurs sont examinées par un comité d’éthique élu par les membres.
Aucune de ces options n’est facile à mettre en œuvre. Mais nous disposons encore du temps nécessaire pour les perfectionner, afin d’éviter les deux scénarios qui me préoccupent le plus : une technologie qui manipule les populations qui l’utilisent, sans frais, ou une autre technologie réservée à une élite restreinte capable de la payer.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














