
Des milliers de personnes à travers le monde vendent actuellement leur identité pour entraîner des IA, mais quel en est le prix à payer ?
TechFlow SélectionTechFlow Sélection

Des milliers de personnes à travers le monde vendent actuellement leur identité pour entraîner des IA, mais quel en est le prix à payer ?
L’avidité des entreprises d’intelligence artificielle en matière de données, combinée aux écarts économiques mondiaux, donne naissance à un échange inéquitable.
Auteur : The Guardian
Traduction et adaptation : TechFlow
Introduction de TechFlow : Ce reportage d’enquête révèle une industrie grise en pleine expansion : des milliers de personnes à travers le monde gagnent de l’argent en vendant leur voix, leur visage, leurs enregistrements téléphoniques et leurs vidéos quotidiennes pour entraîner des modèles d’intelligence artificielle.
Il ne s’agit pas d’un débat généralisé sur la vie privée, mais d’une enquête concrète impliquant des personnes réelles, des montants réels et des conséquences tangibles — un acteur ayant vendu son visage a ainsi découvert, sur Instagram, une vidéo dans laquelle « lui-même » promouvait un produit médical non identifié, tandis que des internautes commentaient son « apparence ».
Lorsque la soif insatiable de données des entreprises d’IA se combine aux inégalités économiques mondiales, cela donne naissance à des transactions profondément inéquitables.
Texte intégral :
Un matin de l’année dernière, Jacobus Louw, habitant du Cap, en Afrique du Sud, est sorti comme à son habitude pour sa promenade quotidienne, nourrissant au passage les mouettes. Cette fois-ci, il a toutefois enregistré plusieurs courtes vidéos — filmant ses pas et son champ de vision tandis qu’il marchait sur le trottoir. Ces vidéos lui ont rapporté 14 dollars américains, soit environ dix fois le salaire minimum sud-africain, ou encore la moitié de ses dépenses alimentaires hebdomadaires pour ce jeune homme de 27 ans.
Cette tâche, baptisée « navigation urbaine », était proposée par Kled AI, une application qui rémunère ses utilisateurs pour le téléchargement de photos, de vidéos et d’autres données destinées à l’entraînement des modèles d’IA. En quelques semaines seulement, Louw a ainsi gagné 50 dollars en partageant des photos et des vidéos prises dans sa vie quotidienne.
À des milliers de kilomètres de là, à Ranchi, en Inde, Sahil Tigga, étudiant âgé de 22 ans, gagne régulièrement de l’argent via Silencio — une application spécialisée dans la collecte participative de données audio destinées à l’entraînement de systèmes d’IA. L’application accède au microphone de son téléphone afin d’enregistrer les bruits ambiants provenant notamment de restaurants ou de carrefours très fréquentés. Il y ajoute également des enregistrements de sa propre voix. Pour maximiser ses revenus, Sahil se rend volontairement dans des lieux aux caractéristiques acoustiques particulières, comme le hall d’un hôtel encore non répertéré sur la carte interactive de Silencio. Grâce à cette activité, il gagne désormais plus de 100 dollars par mois, couvrant intégralement ses frais alimentaires.
À Chicago, Ramelio Hill, apprenti soudeur âgé de 18 ans, a vendu à Neon Mobile ses conversations privées avec ses amis et sa famille, conservées dans ses messages téléphoniques. Neon Mobile est une plateforme dédiée à l’entraînement des assistants conversationnels IA, qui paie 0,50 dollar par minute d’enregistrement. Hill en a tiré plusieurs centaines de dollars. Pour lui, le calcul est simple : « Les entreprises technologiques possèdent déjà une quantité considérable de mes données personnelles ; autant en tirer moi-même un bénéfice. »
Ces « travailleurs de l’entraînement IA » — qui fournissent scènes environnantes, autoportraits, vidéos et enregistrements audio — sont les premiers acteurs d’une véritable ruée mondiale vers les données humaines. À mesure que les géants californiens de la technologie voient leurs besoins croissants en données humaines de haute qualité dépasser les capacités de collecte depuis l’internet ouvert, un marché florissant des données émerge pour combler ce déficit. Des villes du Cap à Chicago, des milliers de personnes accordent, sous forme de micro-licences, leurs données biométriques et leurs informations intimes à la prochaine génération d’IA.
Mais cette nouvelle économie du travail occasionnel comporte un coût. Derrière ces quelques dollars échangés, ces contributeurs alimentent une industrie susceptible, à terme, de rendre obsolètes leurs propres compétences, tout en s’exposant à des risques futurs de deepfakes, de vol d’identité et d’exploitation numérique — des dangers dont ils ne commencent tout juste à prendre conscience.
Faire tourner les rouages de l’IA
Les modèles linguistiques d’IA tels que ChatGPT et Gemini nécessitent des volumes massifs de matériel d’apprentissage pour progresser continuellement. Or, ils font aujourd’hui face à une pénurie de données. Les sources de données d’entraînement les plus couramment utilisées — C4, RefinedWeb et Dolma — représentent un quart des jeux de données les plus qualitatifs disponibles en ligne, mais limitent désormais l’accès de ces données aux entreprises de génération automatique de contenu (génération de texte, d’images, etc.). Selon les chercheurs, les entreprises d’IA pourraient épuiser l’ensemble des nouveaux textes de haute qualité disponibles dès 2026. Bien que certains laboratoires commencent déjà à recourir à des données synthétiques générées par l’IA elle-même pour alimenter de nouveaux cycles d’apprentissage, ce processus récursif conduit rapidement à une prolifération d’erreurs dans les sorties des modèles — une accumulation de « déchets » qui finit par provoquer leur défaillance.

C’est précisément ici que prennent place des applications telles que Kled AI et Silencio. Sur ces marchés de données, des millions de personnes alimentent et entraînent les systèmes d’IA en vendant leurs propres données d’identité. Outre Kled AI, Silencio et Neon Mobile, les travailleurs de l’entraînement IA disposent de nombreuses autres options : Luel AI, soutenue par l’incubateur renommé Y Combinator, achète des dialogues multilingues à environ 0,15 dollar la minute ; ElevenLabs permet de créer un clonage numérique de votre voix, puis la met à disposition d’autrui moyennant un tarif de base de 0,02 dollar la minute.
Bouke Klein Teeselink, professeur d’économie au King’s College de Londres, affirme que le travail de l’entraînement IA constitue une catégorie professionnelle émergente vouée à connaître une forte croissance.
Les entreprises d’IA savent que rémunérer les individus pour l’autorisation d’utiliser leurs données permet d’éviter les litiges potentiels liés au droit d’auteur, souvent suscités par une dépendance exclusive au « web crawling » (l’exploration automatisée du web), explique Teeselink. Veniamin Veselovsky, chercheur en IA, précise que ces entreprises ont également besoin de données de haute qualité pour modéliser de nouveaux comportements, plus performants. « À ce jour, les données humaines constituent la référence or pour échantillonner hors de la distribution des modèles », ajoute Veselovsky.
Les êtres humains qui font fonctionner ces machines — en particulier ceux des pays en développement — ont souvent désespérément besoin de cet argent et n’ont guère d’autre choix. Pour bon nombre de ces travailleurs de l’entraînement IA, ce type d’activité représente une réponse pragmatique aux écarts économiques. Dans des pays marqués par un chômage élevé et une dépréciation de la monnaie nationale, gagner des dollars peut s’avérer plus stable et plus rentable que tout emploi local. Certains peinent même à décrocher un premier emploi et se voient contraints, par nécessité, de travailler pour l’entraînement des IA. Même dans les pays relativement aisés, la hausse du coût de la vie rend la vente de ses propres données une option financière logique.
Jacobus Louw, travailleur de l’entraînement IA basé au Cap, connaît parfaitement le prix à payer en termes de vie privée. Bien que ses revenus soient instables et insuffisants pour couvrir l’intégralité de ses dépenses mensuelles, il accepte ces conditions pour gagner de l’argent. Atteint depuis plusieurs années d’une maladie neurologique l’empêchant de trouver un emploi, il a toutefois réussi, grâce aux revenus tirés des marchés de données IA — notamment Kled AI — à épargner 500 dollars, somme suffisante pour s’inscrire à une formation en spa et devenir masseur.
« En tant que Sud-Africain, recevoir des dollars revêt une valeur bien supérieure à celle que la plupart des gens imaginent », affirme Louw.
Mark Graham, professeur de géographie d’internet à l’université d’Oxford et auteur de l’ouvrage Feeding the Machine, reconnaît que, pour les individus des pays en développement, cette source de revenus peut avoir un sens pratique à court terme, mais met en garde : « Structurellement parlant, ce travail est instable, sans perspective d’évolution et, en réalité, une impasse. »
Graham ajoute que les marchés de données IA reposent sur une « course à l’abaissement des salaires » et sur une « demande temporaire de données humaines ». Une fois cette demande transférée ailleurs, « les travailleurs ne bénéficieront d’aucune protection, ne disposeront d’aucune compétence transférable et n’auront aucun filet de sécurité ».
Graham souligne que les seuls véritables gagnants sont « les plateformes situées dans l’hémisphère nord, qui s’approprient toute la valeur durable ».

Une cession totale des droits
Ramelio Hill, travailleur de l’entraînement IA originaire de Chicago, ressent une ambivalence profonde face à la vente de ses conversations téléphoniques privées à Neon Mobile. Environ onze heures d’enregistrements lui ont rapporté 200 dollars, mais il précise que l’application est souvent indisponible et retarde régulièrement ses paiements. « Neon m’a toujours semblé suspecte, mais je continue à l’utiliser pour gagner un peu d’argent supplémentaire afin de payer mes factures », confie Hill.
Il commence désormais à remettre en question la facilité apparente de ce gain. En septembre dernier, Neon Mobile a cessé ses activités quelques semaines seulement après son lancement, suite à la découverte, par le site TechCrunch, d’une faille de sécurité permettant à n’importe qui d’accéder aux numéros de téléphone, aux enregistrements audio et aux transcriptions textuelles des utilisateurs. Hill affirme que Neon Mobile ne l’a jamais informé de cet incident, et il craint désormais que sa voix ne soit détournée sur internet.
Jennifer King, chercheuse spécialiste de la confidentialité des données au sein de l’Institut d’intelligence artificielle centrée sur l’humain de l’université Stanford, s’inquiète du fait que les marchés de données IA ne précisent pas clairement comment ni où les données des utilisateurs seront utilisées. Elle ajoute qu’« en l’absence d’une connaissance claire de leurs droits et d’une capacité effective à négocier, les consommateurs s’exposent au risque que leurs données soient réutilisées de manières qu’ils ne souhaitent pas, ne comprennent pas ou n’ont pas anticipées, sans possibilité quasi aucune de recours ».
Lorsque les travailleurs de l’entraînement IA partagent leurs données sur Neon Mobile ou Kled AI, ils accordent une licence globale — mondiale, exclusive, irrévocable, cessible et libre de redevances — autorisant la plateforme à vendre, utiliser, exposer publiquement et stocker leur image, voire à en tirer des œuvres dérivées.
Avi Patel, fondateur de Kled AI, indique que le protocole d’utilisation des données de son entreprise limite strictement leur usage à des fins d’entraînement et de recherche en IA. « Tout notre modèle économique repose sur la confiance des utilisateurs. Si les contributeurs pensent que leurs données peuvent être détournées, la plateforme ne peut tout simplement pas fonctionner. » Il affirme que son entreprise examine rigoureusement chaque acheteur avant toute cession de jeu de données, évitant ainsi toute collaboration avec des entités « à l’intention douteuse », telles que l’industrie pornographique, ou avec des « institutions gouvernementales » jugées susceptibles d’utiliser les données d’une manière contraire à cette confiance fondamentale.
Neon Mobile n’a pas répondu à notre demande de commentaire.
Enrico Bonadio, professeur de droit à l’université St George’s de Londres, souligne que ces clauses contractuelles autorisent la plateforme et ses clients à « faire pratiquement tout ce qu’ils veulent avec ces données, de façon permanente, sans versement supplémentaire, et les contributeurs ne disposent d’aucun moyen effectif de retirer leur consentement ou de renégocier les termes ».
Des risques encore plus préoccupants incluent l’utilisation des données des contributeurs pour produire des deepfakes ou des usurpations d’identité. Bien que les marchés de données affirment anonymiser les informations personnelles identifiables (telles que nom et localisation) avant toute cession, Bonadio rappelle que les caractéristiques biométriques, par nature, résistent à toute anonymisation véritablement significative.
Le remords des vendeurs
Même si les travailleurs de l’entraînement IA parvenaient à négocier des clauses de protection plus précises concernant l’usage de leurs données, ils pourraient tout de même éprouver des regrets. En 2024, Adam Coy, acteur new-yorkais, a vendu son image pour 1 000 dollars à Captions — un logiciel d’édition vidéo basé sur l’IA, rebaptisé depuis Mirage. Son contrat stipulait que son identité ne serait utilisée à aucune fin politique, ni pour promouvoir des produits alcoolisés, tabagiques ou pornographiques, et que la licence accordée était valable pour une durée d’un an.
Captions n’a pas répondu à notre demande de commentaire.
Peu de temps après, les amis d’Adam ont commencé à lui envoyer des vidéos qu’ils avaient trouvées sur internet, où son visage et sa voix étaient reproduits par IA, cumulant des millions de vues. Dans l’une d’elles, publiée sur Instagram, une version IA d’Adam se présentait comme « médecin gynécologue », promouvant sur les réseaux sociaux des compléments médicaux non validés destinés aux femmes enceintes et après l’accouchement.
« J’ai éprouvé une grande gêne à devoir expliquer cela à autrui », confie Coy.
« Les commentaires sont étranges, parce que les gens jugent mon apparence alors qu’il ne s’agit absolument pas de moi », ajoute-t-il. « Au moment où j’ai pris cette décision [de vendre mon image], je me disais que la plupart des modèles allaient de toute façon extraire mes données et mon image depuis le web ; autant en être rémunéré. »
Coy précise qu’il n’a plus accepté aucune mission de travail pour l’entraînement IA depuis cet épisode. Il affirme qu’il ne reprendrait ce type d’activité que si une entreprise lui offrait une rémunération substantielle.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News












