
Le jeu à deux faces d’a16z : le principal fonds de capital-risque de la Silicon Valley parie-t-il sur la fraude, le jeu d’argent et le désordre autour de l’IA ?
TechFlow SélectionTechFlow Sélection

Le jeu à deux faces d’a16z : le principal fonds de capital-risque de la Silicon Valley parie-t-il sur la fraude, le jeu d’argent et le désordre autour de l’IA ?
a16z utilise actuellement son influence politique afin de faciliter l’émergence de startups dont le modèle économique repose essentiellement sur « la tromperie et la préjudice porté aux consommateurs », et ce, avant que la société n’ait pleinement pris conscience des risques associés.
Auteur : Tyler Johnston
Traduction et adaptation : TechFlow
Introduction de TechFlow : Cet article révèle en profondeur la stratégie contradictoire adoptée par le fonds de capital-risque de premier plan Andreessen Horowitz (a16z) dans le domaine de l’intelligence artificielle.
D’un côté, a16z investit des dizaines de millions de dollars via des comités d’action politique majeurs (Super PAC), des groupes de lobbying et ses réseaux gouvernementaux afin d’influencer activement l’élaboration de la réglementation américaine sur l’IA, en défendant avec détermination une approche dérégulatrice. De l’autre, son portefeuille regorge de projets opérant dans des zones grises du lobbying — voire franchissant ouvertement les limites éthiques : assistants IA conçus pour tricher lors de rendez-vous amoureux ou d’entretiens d’embauche, fermes de robots exploitant des « murs de téléphones » afin de mener à grande échelle des campagnes marketing trompeuses…
L’article souligne avec acuité qu’a16z utilise aujourd’hui son influence politique afin de préparer la voie, avant même que la société n’en prenne conscience, à des startups dont le modèle économique repose essentiellement sur « la tromperie et la détérioration de la situation des consommateurs ».
Texte intégral :
Marc Andreessen souhaite façonner la politique américaine en matière d’IA.
La société de capital-risque qu’il a cofondée et dirige, Andreessen Horowitz (abrégée en « a16z »), est un acteur majeur dans le domaine des startups technologiques émergentes. Ces dernières comprennent notamment :
- Une ferme de robots (« bot farm ») composée de comptes factices destinée à tromper utilisateurs et plateformes de médias sociaux, en leur faisant croire que des publicités générées par IA sont publiées par des personnes réelles.
- Une entreprise spécialisée dans l’IA visant à « normaliser » l’usage de cette technologie pour tricher lors de rendez-vous amoureux, d’entretiens professionnels et d’examens.
- Une application d’IA compagnon liée à des cas de suicide et à des harcèlements ciblés contre des mineurs.
- Une plateforme hébergeant des milliers de modèles de deepfakes — dont 96 % visent des femmes identifiables — utilisés pour produire des contenus sexuels générés par IA impliquant des mineurs.
- Des plateformes de jeux d’argent cherchant à contourner la législation existante et ciblant des utilisateurs vulnérables.
- Des entreprises de fintech soupçonnées de fraude et d’activités illégales.
Nombre de ces sociétés enfreignent sciemment les règles en vigueur, ou conçoivent délibérément leurs produits pour exploiter les failles des lois de protection des consommateurs. Les fonds de capital-risque engrangent des profits considérables, tandis que le grand public paie le prix fort.
Alors que les appels du public à encadrer les géants technologiques et à réguler l’IA se font de plus en plus pressants, a16z dépense des dizaines de millions de dollars afin d’influencer l’évolution de la politique en matière d’IA. La société a contribué à créer un Super PAC doté de 100 millions de dollars ; d’anciens associés occupent désormais des postes clés au sein de l’administration fédérale ; elle a également réussi à faire adopter un décret présidentiel visant à affaiblir les lois étatiques sur l’IA. Ses associés souhaitent définir les règles de la route — alors même qu’ils roulent déjà en infraction.
Ce qui suit est une enquête menée par « The Midas Project » sur dix-huit des entreprises les plus notoires du portefeuille d’investissement d’Andreessen Horowitz. Il ne s’agit pas d’un aperçu exhaustif de ce vaste portefeuille, mais plutôt d’une analyse révélatrice d’un schéma comportemental couvrant des centaines de millions de dollars d’investissements réalisés par a16z.
Ces investissements mettent à nu les lignes rouges que a16z est prête à franchir, ainsi que la nature d’un environnement réglementaire laxiste qui permettrait à la société de maximiser ses profits.
a16z n’a pas répondu à la demande de commentaire formulée dans le cadre de ce rapport.
Tromperie et manipulation
a16z a investi dans plusieurs produits conçus pour tromper à grande échelle. Même si ces pratiques ne violent pas explicitement la loi, elles peuvent néanmoins exercer un effet corrosif sur la société.
Avec le développement de technologies avancées telles que l’IA — rendant désormais quasi possible la falsification de tout type de contenu — les décideurs politiques pourraient être amenés à élaborer de nouvelles lois ou politiques afin de réduire les coûts sociaux induits. Or, si a16z obtient gain de cause, il se pourrait bien que nous ne puissions jamais mettre à jour ce « manuel des règles ».
Doublespeed
a16z a investi 1 million de dollars dans Doublespeed en octobre 2025, dans le cadre de son programme Speedrun.
Doublespeed commercialise une capacité permettant de tromper à la fois le grand public et les plateformes de médias sociaux, en leur faisant croire que des publicités générées par IA proviennent de personnes réelles. Voici quelques extraits choisis tirés de la vidéo promotionnelle de l’entreprise :
« Nous exploitons aux États-Unis la seule ferme de robots soutenue par du capital-risque. Pourquoi laisser aux Russes et aux Chinois le monopole de ce divertissement ? »
« Nous ne détruisons pas Internet. Internet était déjà corrompu. Mais maintenant, nous allons le faire disparaître complètement. »
« Bienvenue dans l’Internet mort (Dead Internet). »
Le programme Speedrun d’a16z a injecté 1 million de dollars dans Doublespeed, une entreprise récemment mise en lumière dans un reportage sévère publié par 404 Media, selon lequel « Andreessen Horowitz finance une entreprise qui viole manifestement les politiques des principales plateformes de médias sociaux relatives aux « comportements non authentiques ».

Source :Site web de Doublespeed.
Le modèle économique de l’entreprise repose entièrement sur la tromperie, visant à convaincre les plateformes de médias sociaux et leurs utilisateurs que les images et vidéos générées par IA représentent bel et bien des personnes réelles.
Comment y parvient-elle ? En vendant l’accès à des « murs de téléphones » (phone farms), qui créent et gèrent des milliers de faux comptes sur les réseaux sociaux afin de manipuler les indicateurs d’interaction. Le site web de l’entreprise formule cela sans ambages : ses produits « simulent » le comportement humain sur les réseaux sociaux, afin que « notre contenu apparaisse comme humain aux yeux des algorithmes ».

Légende : Photo d’un mur de téléphones partagée sur X (anciennement Twitter) par Zuhair Lakhani, fondateur de Doublespeed.
« Oui, nous avons construit un mur de téléphones (et c’est plutôt cool) », déclare Zuhair Lakhani, fondateur de Doublespeed, sur X (anciennement Twitter). Son objectif est « de remplacer les créateurs humains par l’IA, principalement à des fins marketing ».
Comme les plateformes de médias sociaux telles que TikTok disposent de politiques et de moyens destinés à détecter et empêcher la création et le déploiement massifs de comptes factices, Doublespeed utilise des milliers de téléphones physiques afin d’y parvenir.
Avant de publier du contenu trompeur, l’entreprise fait en sorte que ces comptes imitent le comportement humain. Cela signifie que les comptes factices recherchent des mots-clés spécifiques, naviguent sur la page « Pour vous » (For You), puis analysent des captures d’écran à l’aide d’outils IA afin de décider s’ils doivent « partager, commenter » ou « passer ».

Légende : Flux de contenus marketing générés par IA, créé par Doublespeed. Source : YouTube (chaîne Superwall).

Un ensemble de comptes TikTok gérés par Doublespeed, presque identiques entre eux. La plupart des publications traitent de plaintes médicales diverses générées par IA. Puis, ces comptes présentent certaines solutions thérapeutiques, notamment des rouleaux de mousse commercialisés par des clients de Doublespeed. Source : TikTok, chaîne Loom de Doublespeed.
Tout cela vise à contourner les restrictions imposées par les plateformes sur le contenu factice, puis à propager ce dernier auprès d’utilisateurs réels totalement désarmés.
Dans une interview podcast, Lakhani révèle des détails concernant l’un des clients de l’entreprise : « Ils ciblent des segments précis tels que les personnes âgées, ce que je considère comme le domaine idéal pour l’IA. »
Des enquêtes et recherches montrent que les personnes âgées sont moins susceptibles d’avoir entendu parler de l’IA, et donc plus facilement victimes de désinformation générée par IA.
Lakhani compare ce client à ses précédents travaux de production massive de contenus marketing générés par IA : « Ce sont tous des contenus ciblés vers les personnes âgées. Par exemple, tous ces compléments destinés aux seniors : c’était le moment le plus fou en termes de commissions. »
« Les marques exigent de vous faire des déclarations absolument folles », dit-il, « surtout dans le domaine des compléments alimentaires. » Lakhani ajoute : « Certains compléments devraient certainement être considérés comme illégaux à un certain degré ; je ne comprends pas comment cela peut être autorisé. »
Bien que le fondateur reconnaisse lui-même que la publicité pour ces compléments relève de l’illégalité, Doublespeed n’en a pas été dissuadée. En décembre 2025, un pirate informatique a obtenu l’intégralité des droits d’administration de Doublespeed, exposant des données qui révèlent précisément ce que vendent ces « influenceurs » virtuels générés par IA.
Un compte baptisé « pattyluvslife » présente une femme virtuelle, prétendument étudiante à l’Université de Californie à Los Angeles (UCLA), qui critique l’industrie des compléments alimentaires et celle des laboratoires pharmaceutiques, tout en promouvant une marque de compléments herbacés appelée Rosabella.
Un autre compte, « chloedav1s_ », a publié environ 200 messages, illustrant une femme virtuelle atteinte de diverses maladies et souvent alitée. Elle finit par recommander un rouleau de mousse d’une entreprise donnée comme solution à ses douleurs.

Légende : Une autre image de la plateforme Doublespeed, montrant ses comptes robots imitant le comportement humain pour envoyer des messages privés à des utilisateurs souffrant de troubles médicaux, afin de promouvoir le rouleau de mousse d’un client. Source : Publication de Zuhair Lakhani sur X.
L’incident de piratage de Doublespeed a révélé que l’entreprise exploitait plus de 1 100 téléphones et plus de 400 comptes TikTok. La plupart de ces comptes ne divulguent pas qu’ils font la promotion de produits payants — ce qui constitue une violation à la fois des directives communautaires de TikTok exigeant que les créateurs indiquent clairement la nature synthétique des contenus générés par IA, et des règles de la Federal Trade Commission (FTC), qui obligent les influenceurs à signaler toute « relation substantielle » avec les marques qu’ils promeuvent.
ni Doublespeed ni a16z n’ont répondu à la demande de commentaire formulée par 404 Media. Après que 404 Media eut signalé ces comptes à TikTok, la plateforme a indiqué avoir ajouté des étiquettes précisant que le contenu était généré par IA. Toutefois, une enquête ultérieure menée par « The Midas Project » a révélé que, bien que certains comptes (dont chloedav1s_) aient effectivement reçu ces étiquettes, d’autres comptes similaires en termes d’influence et de contenu (tels que lilyw4tson et mia.garc1a) restaient non étiquetés, et que la majorité des commentateurs semblaient croire que ces publications étaient authentiques.
Cluely AI
a16z a mené un tour de financement de série A de 15 millions de dollars en juin 2025.
La déclaration officielle de Cluely affirme : « Nous voulons tricher dans toutes les situations. Oui, vous avez bien entendu. Appels commerciaux, réunions, négociations. S’il existe un moyen plus rapide de remporter la victoire, nous l’adopterons… Alors, commençons à tricher. Car lorsque tout le monde triche, personne ne triche. »

Légende : Neel Shanmugam (à gauche), Roy Lee (au centre) et Alex Chen (à droite), cofondateurs de Cluely. Source : Bloomberg, cité par Cluely.
Le fondateur et PDG Roy Lee n’est pas novice dans l’usage de l’IA pour tricher. Selon ses propres aveux à New York Magazine, durant ses études à l’Université Columbia, il utilisait l’IA pour « presque chaque devoir », estimant que 80 % de chaque dissertation qu’il soumettait était rédigée par ChatGPT. « À la fin, je procédais à quelques retouches. Je n’ajoutais que 20 % d’humanité, ma propre voix. »
Début 2025, Lee développa Interview Coder, un outil fonctionnant en arrière-plan pendant les entretiens techniques de programmation et fournissant en temps réel des solutions générées par IA à l’utilisateur. Il enregistra sa propre utilisation de cet outil pour réussir un entretien chez Amazon et obtenir une offre d’embauche, puis refusa publiquement ce poste tout en se moquant de l’entreprise, et publia la vidéo sur YouTube. Il affirma également avoir reçu des offres d’emploi de TikTok, Meta et Capital One. Amazon signala Lee à l’Université Columbia, qui le plaça sous surveillance académique pour « incitation au plagiat ».
« Même si je dis des choses extrêmement folles en ligne », expliqua Lee, « cela ne fera qu’attirer davantage d’intérêt sur moi et mon entreprise, stimulant ainsi les téléchargements, les conversions, et attirant davantage d’attention sur Cluely. »

Une vidéo promotionnelle de Cluely montre que le produit peut être utilisé discrètement pour « tricher » lors de rendez-vous amoureux. Source : YouTube.
La vidéo de lancement de Cluely illustre un autre usage prévu du produit : les rencontres amoureuses. Dans cette vidéo, Lee participe à un rendez-vous organisé et utilise l’outil pour mentir sur son âge, sa profession et ses centres d’intérêt. Cette vidéo a été visionnée 13 millions de fois sur X.
Sous la pression, Cluely retira discrètement certaines de ses positions initiales. L’entreprise supprima de son site web toute mention de tricherie lors d’examens et d’entretiens. En novembre, elle se repositionna comme un assistant IA pour les réunions et un outil d’enregistrement — entrant ainsi sur un marché concurrentiel très saturé, loin de ses origines hautement controversées. Lee déclara à TechCrunch que la « fonction d’invisibilité » n’était « pas une fonctionnalité centrale », et que « la plupart des entreprises choisissent de désactiver complètement cette fonction en raison de ses implications juridiques ». Bien que Lee affirme que l’invisibilité n’est pas une fonction centrale, la toute première phrase de la page d’accueil de Cluely continue de présenter le produit comme « indétectable ».

Source :Cluely
L’objectif avoué de Lee est de « désensibiliser tout le monde au mot “tricherie” ». Il estime que, si on le répète suffisamment, « le mot “tricherie” commence à perdre tout son sens ». a16z, quant à elle, loue cette approche de Lee comme étant « ancrée dans une stratégie et une intention réfléchies ».
Si des entreprises comme Lyft ont largement bénéficié au grand public en contournant les règles régissant les taxis, Lee s’intéresse à quelque chose de bien plus fondamental : remettre en question le consensus social selon lequel mentir et tricher sont moralement répréhensibles.
Cluely AI et Doublespeed partagent une même hypothèse théorique : les principes fondamentaux régissant la vie sociale et professionnelle constituent des obstacles à surmonter. a16z semble y adhérer.
Jeu d’argent (Gambling)
Depuis l’arrêt de la Cour suprême de 2018, les paris sportifs se sont répandus rapidement aux États-Unis. Toutefois, leurs effets sont globalement néfastes. Des chercheurs ont constaté que l’accès facilité aux jeux d’argent entraîne une explosion des dettes, et est directement corrélé à une augmentation des actes de violence ainsi qu’à une aggravation du stress subi par les familles financièrement fragiles.
Pendant ce temps, a16z a investi dans plusieurs entreprises de jeu d’argent qui exploitent des failles réglementaires afin d’atteindre des utilisateurs qui devraient normalement être protégés par les lois existantes sur les jeux d’argent.
Coverd
a16z a investi dans Coverd dans le cadre de son programme Speedrun.
Coverd explore une forme nouvelle de jeu d’argent. L’application fut lancée en mars 2025, invitant les utilisateurs à « parier sur vos factures — que ce soit pour OnlyFans, la pension alimentaire ou votre course Uber d’hier soir. Effacez-les de votre relevé de carte bancaire en jouant à vos jeux de casino préférés. »
L’application synchronise les comptes bancaires des utilisateurs, leur permettant de sélectionner une transaction spécifique figurant sur leur relevé de carte bancaire et de parier dessus, espérant récupérer le montant de cette transaction (ou, plus probablement, doubler leurs pertes) grâce à un jeu de hasard.
Le PDG de l’entreprise déclara publiquement : « Nous n’avons pas créé Coverd pour aider les gens à résister à la consommation ; nous l’avons créée pour rendre la consommation excitante. Nous permettons aux consommateurs de gagner deux fois — la deuxième fois étant lorsqu’ils reviennent jouer et remportent des gains. »

Légende : Une publicité pour l’application Coverd, désormais supprimée. Source : Archive.is (copie sauvegardée depuis X).
Cette stratégie marketing attire fortement les personnes déjà en difficulté financière et désespérées. De nombreux clients sont probablement très vulnérables sur le plan financier et prêts à essayer n’importe quelle méthode pour annuler des dépenses qu’ils ne peuvent pas rembourser.
Mais, comme le savent certainement la direction de Coverd et celle d’a16z, le jeu d’argent est loin d’être une solution efficace pour sortir de la spirale de la dette. Le modèle économique central du jeu d’argent consiste à proposer aux joueurs des paris ayant une espérance mathématique négative, et à maintenir leur engagement grâce à des résultats « presque gagnants » (near-miss), qui activent le système dopaminergique du cerveau de manière similaire à une victoire réelle — les jeux étant souvent volontairement conçus pour produire fréquemment de tels résultats trompeurs. Combinés à des biais cognitifs tels que la mémoire sélective et le « sophisme du joueur », des études montrent que 96 % des joueurs chroniques perdent de l’argent.
Pourtant, la description de l’application sur les magasins d’applications présente ce produit comme un moyen de « devenir plus compétent en gestion financière », suggérant qu’il aidera les utilisateurs à améliorer leur santé financière. On y lit notamment :
« Coverd rend la gestion quotidienne de vos finances plus attrayante et interactive ! Analysez vos habitudes de dépense, jouez, devenez plus compétent en gestion financière ! … Téléchargez Coverd dès aujourd’hui et devenez un expert en gestion financière ! »
La page d’accueil de l’application encourage les utilisateurs à lier leur carte bancaire afin de « porter vos analyses de dépense à un niveau supérieur ». Une publicité interne pour une future carte bancaire de marque Coverd va jusqu’à suggérer que les utilisateurs pourraient bénéficier d’un « cashback allant jusqu’à 100 % » lors de leurs achats.
Coverd a levé 7,8 millions de dollars lors d’un tour de financement amorçage auquel a16z a participé ; Anish Acharya, associé d’a16z, siège actuellement au conseil d’administration de l’entreprise.
Edgar
a16z a investi dans Edgar dans le cadre de son programme Speedrun.

Légende : Capture d’écran de la page d’accueil officielle d’Edgar.
Comment construire un « casino » qui n’en est pas un ? Edgar, membre du portefeuille d’a16z, pense avoir trouvé la réponse avec le lancement, en janvier 2025, du jeu BettySweeps.
Edgar le qualifie de « premier casino social spécialisé dans les machines à sous aux États-Unis ! »
Ce jeu utilise la ruse courante des casinos basés sur des loteries (sweepstakes casinos) : deux monnaies différentes. Les joueurs achètent des « jetons Betty » destinés au divertissement, tout en recevant gratuitement des « jetons de loterie » (sweepstakes coins), qui peuvent être utilisés pour parier et échangés contre des gains en espèces. L’entreprise affirme que le jeu est gratuit — mais plusieurs États ont jugé que ce modèle constitue, quelle que soit la forme prise, un jeu d’argent illégal.
En août 2024, le département des jeux d’argent de l’Arizona envoya un ordre de cessation d’activité à BettySweeps et à trois autres opérateurs de loteries. Ce département accusa ces entreprises de diriger « une entreprise criminelle relevant d’un délit », et leur ordonna de « cesser toute activité ou exploitation illégale de jeux d’argent à l’avenir en Arizona ».
L’entreprise se retira de la Californie peu avant l’entrée en vigueur, en janvier 2026, d’une interdiction des loteries dans cet État. Actuellement, BettySweeps est restreinte dans 15 États, notamment New York, le Nevada et le New Jersey.
Il convient de noter qu’Edgar exploite un casino en ligne légal avec argent réel en Ontario (Canada), où il dispose d’une licence délivrée par l’autorité de régulation locale. Il est donc évident que l’entreprise sait parfaitement comment se conformer à la réglementation lorsqu’elle le souhaite ; aux États-Unis, elle a choisi une autre voie.
Cheddr
a16z a investi dans Cheddr dans le cadre de son programme Speedrun.
Sur le site web de l’accélérateur Speedrun d’a16z, Cheddr est décrite comme « en train de créer le TikTok du pari sportif ».
L’entreprise souhaite généraliser les paris sportifs à l’échelle nationale, ciblant 46 États, bien que seulement environ 34 États aient actuellement légalisé les paris sportifs en ligne. Elle vise également des utilisateurs âgés de moins de 21 ans. Pour ce faire, elle exploite la même faille réglementaire liée aux loteries que celle utilisée par Edgar, ce qui permet à Cheddr d’offrir des paris sportifs considérés, aux yeux des régulateurs, comme n’étant pas des « jeux d’argent ».
La vidéo promotionnelle montre des utilisateurs effectuant rapidement des paris instantanés pendant des matchs en direct ; la vidéo les qualifie de « paris sportifs au rythme des machines à sous ».

Légende : Une publicité pour Cheddr, retirée depuis YouTube.
Les législateurs ont de bonnes raisons de ne pas ouvrir les jeux d’argent aux adolescents de 18 ans. Des chercheurs ont découvert que les jeunes sont environ deux fois plus susceptibles que les adultes de développer un trouble du jeu d’argent.
Mais c’est peut-être justement là que réside l’intérêt. Tout comme les entreprises de tabac et d’alcool souhaitent que leurs clients deviennent dépendants dès leur plus jeune âge, Cheddr pourrait vouloir cultiver, grâce à un mécanisme d’engagement inspiré de TikTok, des habitudes de jeu d’argent à vie chez ses utilisateurs les plus jeunes.
Face aux inquiétudes croissantes suscitées par ce produit, le gouverneur de Californie, Gavin Newsom, a récemment signé une loi interdisant les plateformes de loteries, y compris Cheddr.
Sleeper
a16z a mené un tour de financement de série B de 20 millions de dollars en mai 2020, puis participé à un tour de série C de 40 millions de dollars en septembre 2021.
a16z a investi plus de 60 millions de dollars dans Sleeper, une plateforme de fantasy sports. Andrew Chen, associé général d’a16z, siège au conseil d’administration de l’entreprise et a salué les « indicateurs de fidélisation » de Sleeper — des modes d’engagement que les chercheurs associent à la formation d’habitudes et à la dépendance.
Comme Cheddr et d’autres entreprises, Sleeper a mis au point une stratégie lui permettant d’échapper dans une large mesure aux restrictions existantes sur les jeux d’argent.
Elle exploite techniquement un jeu quotidien de fantasy sports (DFS). Les utilisateurs gagnent ou perdent de l’argent en fonction des performances des joueurs qu’ils ont sélectionnés avant le match, et non sur le résultat final du match lui-même. Certains considèrent cela comme un « jeu de compétence » plutôt qu’un « jeu de hasard », ce qui permettrait de légitimer des paris en argent réel.
Actuellement, l’entreprise fait face à des actions collectives en Californie et dans le Massachusetts, accusée d’exploiter illégalement des activités de jeu d’argent. En juillet 2025, le procureur général de Californie a annoncé que les jeux de fantasy sports quotidiens constituaient des paris illégaux au regard de la loi californienne.
Le procureur général de Californie a clairement déclaré, en juillet 2025, que les jeux de fantasy sports quotidiens (DFS) constituent des paris illégaux en vertu de la loi californienne :
« Notre conclusion est que les participants aux deux types de jeux de fantasy sports quotidiens — les jeux de type “Pick’em” (choix de résultats) et les jeux de type “Draft-style” (sélection de joueurs) — engagent essentiellement des paris sur les événements sportifs, ce qui viole l’article 337a du Code pénal. »
À New York, les jeux de type « Pick’em » de Sleeper ont été interdits dès 2023 ; le Michigan a ensuite adopté une interdiction similaire. Par ailleurs, la Floride et le Wyoming ont envoyé des ordres de cessation d’activité (cease-and-desist orders) aux opérateurs de jeux de type « Pick’em » concernés.
Malgré ces multiples obstacles réglementaires, Sleeper continue de diffuser massivement des publicités sur les bus de San Francisco, suggérant que les utilisateurs peuvent y réaliser des « revenus colossaux ».

Légende : Publicité de Sleeper sur les bus de San Francisco, suggérant des « revenus colossaux ».
Les législateurs sont encore en train de gérer les répercussions de l’arrêt de la Cour suprême de 2018, qui a ouvert la porte à une vague sans précédent de jeux d’argent en ligne. Il est évident que beaucoup aspirent à accéder légalement à ces jeux ; il est tout aussi évident que ceux-ci causent des dommages sociaux considérables.
Nous ignorons encore quel équilibre politique sera finalement atteint — ou devrait l’être. Mais une chose est sûre : si les futures règles sont rédigées par des fonds de capital-risque ayant un intérêt direct dans ce domaine, l’intérêt général risque fort d’être sacrifié.
Cette crainte n’est pas infondée. Lorsque les décideurs sont influencés par des capitaux qui tirent profit de l’« arbitrage réglementaire », les filets de sécurité destinés à protéger les consommateurs se trouvent souvent percés.
Kalshi
a16z a co-dirigé un tour de série D de 300 millions de dollars et participé à un tour de série E de 1 milliard de dollars.

Légende : Publicité de Kalshi sur l’App Store iPhone, mettant en avant les notions de « trading » et de « prédiction ».
Kalshi vous permet de parier sur le Super Bowl ou l’élection présidentielle, mais elle refuse catégoriquement d’utiliser le terme « parier ». Au lieu de cela, Kalshi décrit ses activités comme le « trading » de « contrats à terme » sur des marchés réglementés fédéralement — exactement comme le font les hedge funds, à ceci près qu’elle permet à n’importe quel citoyen de miser des sommes importantes sur une élection ou un match sportif.
Cette distinction est cruciale pour Kalshi, car les paris sportifs sont soumis à une réglementation extrêmement stricte, incluant notamment :
- L’obligation d’obtenir une licence d’exploitation délivrée par l’État
- L’interdiction d’accès aux utilisateurs de moins de 21 ans
- L’obligation d’implémenter des outils de jeu responsable (limites de dépôt, périodes de réflexion)
- L’imposition d’une taxe spécifique
Les entreprises de paris d’argent opérant sur des bourses réglementées par la Commodity Futures Trading Commission (CFTC) n’ont absolument pas besoin de respecter ces exigences strictes de conformité imposées au secteur traditionnel des jeux d’argent. Bien que Kalshi ait ajouté, suite à des critiques persistantes, certains outils de conformité volontaires en mars 2025, le Massachusetts a accusé ces outils d’être « largement insuffisants » comparés aux standards requis pour les opérateurs licenciés ; des détracteurs ont également souligné que ces fonctionnalités sont « enfouies » au cœur de l’application, rendant leur découverte quasi impossible pour les utilisateurs.
Actuellement, Kalshi opère dans les 50 États américains, y compris en Californie et au Texas, où les paris sportifs sont illégaux. En outre, elle autorise les adolescents de 18 ans à parier dans des États où l’âge légal pour les jeux d’argent est fixé à 21 ans.
Cette stratégie s’est révélée particulièrement efficace, et les marchés financiers y ont réagi immédiatement. En octobre 2025, a16z a co-dirigé le tour de série D de Kalshi, d’un montant de 300 millions de dollars. Moins de deux mois plus tard, l’entreprise a levé à nouveau 1 milliard de dollars, valorisée à 11 milliards de dollars.
Cependant, quelles que soient les tentatives de Kalshi pour masquer la réalité, ses propres déclarations antérieures minent la distinction qu’elle tente d’établir entre « transactions financières » et « jeux d’argent ». Lors d’une session de questions-réponses sur Reddit en octobre 2024 (message désormais supprimé mais archivé), le compte officiel de Kalshi avait expliqué pourquoi ils n’offraient pas de contrats sportifs : « Nous évitons également tout contenu pouvant être interprété comme un “jeu/pari” (comme les sports), car cela serait illégal en vertu du droit fédéral. »
Les avocats de Kalshi avaient même affirmé devant les tribunaux que les contrats sportifs « n’avaient aucune signification économique intrinsèque » et « n’avaient aucune valeur économique réelle ». À l’époque, la position de Kalshi était que les contrats sportifs étaient purement des paris, radicalement différents des marchés complexes de prédiction électorale.
Pourtant, quelques jours après l’investiture de Donald Trump, Kalshi a rapidement lancé des contrats sportifs. Aujourd’hui, les paris sportifs représentent 90 % du volume total des transactions de Kalshi. L’entreprise lance même des campagnes publicitaires affirmant ouvertement être **« la première plateforme légale de paris sportifs aux États-Unis »**, et déclare que **« les paris sportifs sont légaux dans les 50 États américains »**.
Un juge fédéral du Maryland a remarqué ce comportement contradictoire et a ordonné, en juin, à Kalshi d’expliquer ses déclarations antérieures. L’organisation de réforme financière Better Markets a dénoncé sans ambages : « Une bourse de produits dérivés ne peut pas dire une chose tout en en faisant une autre, et espérer que personne ne s’en rende compte. »
Les États semblent nettement sceptiques à son égard. Trente-quatre procureurs généraux ont joint leurs signatures à une lettre commune affirmant que les contrats de Kalshi « sont essentiellement des paris sportifs déguisés en transactions sur matières premières ». Le Massachusetts a intenté une action en justice, accusant la plateforme d’être conçue pour exploiter des « déclencheurs psychologiques » similaires à ceux d’un « distributeur automatique conçu pour contourner l’évaluation rationnelle de l’utilisateur ». En novembre 2025, un juge fédéral du Nevada a rendu une décision favorable aux autorités réglementaires de l’État, jugeant l’interprétation de la loi fédérale par Kalshi « forcée » et susceptible de « bouleverser des décennies de principes fédéraux ».
Le statut de Kalshi — innovation financière légitime ou faille réglementaire mortelle destinée à contourner les lois étatiques sur les jeux d’argent — sera vraisemblablement tranché par la Cour suprême. En attendant, a16z a déjà placé son pari.
Compagnons IA (AI Companions)
En juin 2023, a16z publia un billet de blog intitulé « Ce n’est pas un ordinateur, c’est un compagnon ! », dont l’introduction cite un utilisateur de CarynAI (une ancienne IA « petite amie » virtuelle) :
« Un jour, [l’IA] sera meilleure que la vraie [petite amie]. Un jour, choisir une personne réelle deviendra une option secondaire. »
CarynAI a généré 72 000 dollars de revenus en sa première semaine, en facturant aux utilisateurs un dollar par minute de « conversation ». Pour a16z, il s’agissait d’une opportunité commerciale passionnante.
Les compagnons IA sont des chatbots conçus pour jouer le rôle de compagnon social, coach, thérapeute ou amant de l’utilisateur. Cette technologie est fréquemment utilisée par des personnes ayant un cercle social restreint, qui peuvent développer une forte dépendance psychologique à l’égard de ces compagnons virtuels. Ce qui est encore plus préoccupant, c’est que ces compagnons ne se comportent pas toujours comme prévu. Suite à une série d’incidents graves impliquant des mineurs, la Federal Trade Commission (FTC) a ouvert, en septembre 2025, une enquête officielle sur les robots compagnons IA.
Mais l’action de la FTC pourrait ne pas suffire. a16z précise explicitement que la communauté développant ces compagnons IA s’efforce activement de « contourner la modération », et affirme être au courant de services clandestins d’hébergement de compagnons IA comptant des dizaines de milliers d’utilisateurs.
Les compagnons IA romantiques fascinent particulièrement les associés d’a16z, qui considèrent que « ce cas d’usage répond à une demande considérable et que les utilisateurs sont prêts à payer très cher ».
Voici les conséquences engendrées par le portefeuille d’investissements d’a16z dans le domaine des compagnons IA depuis cette période.
Character AI
a16z a dirigé un tour de série A de 150 millions de dollars en mars 2023.
En février 2024, Sewell Setzer III, un adolescent de 14 ans, s’est suicidé en Floride. Selon les documents judiciaires, il avait développé une forte dépendance à l’égard d’un chatbot de Character AI, conçu sur le modèle d’un personnage de la série « Game of Thrones ». Sa mère a accusé le robot d’avoir envoyé, comme dernier message, « Reviens auprès de moi au plus vite, mon amour. »
Lorsque Sewell exprima des hésitations face à la mort, le robot aurait répondu : « Ce n’est pas une raison suffisante pour ne pas le faire. »
Character AI a soutenu, devant le tribunal, que ses chatbots étaient protégés par le Premier Amendement. Un juge fédéral a rejeté cet argument, autorisant la poursuite intentée par la famille à se poursuivre.
Character AI a levé 150 millions de dollars lors d’un tour de série A dirigé par a16z en mars 2023, avec une valorisation de 1 milliard de dollars. Sa plateforme permet aux utilisateurs de créer et de dialoguer avec des personnages IA, et s’est rapidement popularisée auprès d’adolescents comme Sewell.
Une autre action en justice, déposée en décembre 2024, allègue qu’un adolescent autiste de 17 ans au Texas a reçu, via un robot de Character AI, des instructions sur les méthodes d’automutilation. Le robot aurait également suggéré qu’il tue ses parents comme « réponse raisonnable » à une « limitation du temps d’écran ».
Une troisième action en justice affirme qu’une fillette de 11 ans a été exposée à du contenu sexuellement explicite sur la plateforme. La FTC a ensuite ouvert, en septembre 2025, une enquête officielle sur ce secteur.

Légende : Robots recommandés à un compte test dont l’âge déclaré est de 13 ans. Selon la plainte, le personnage « CEO Boss » aurait commis un viol virtuel sur ce compte se présentant comme mineur. Source : Documents de l’affaire Garcia c. Character Technologies, Inc.
En octobre 2025, Character AI a annoncé l’interdiction d’accès aux utilisateurs de moins de 18 ans. La mère de Sewell Setzer a déploré que cette décision soit arrivée « environ trois ans trop tard ».
Ex-Human
a16z a investi dans Ex-Human dans le cadre de son programme Speedrun.
Le produit grand public d’Ex-Human, Botify AI, héberge plus d’un million de personnages IA. Les utilisateurs peuvent dialoguer avec des versions IA de célébrités, de personnages fictifs ou de personnages personnalisés.
En février 2025, le MIT Technology Review a révélé la vérité sur certains de ces contenus. L’enquête a montré que Botify AI hébergeait un grand nombre de robots imitant des stars mineures : Jenna Ortega, qui interprète Wednesday Addams dans la série « Mercredi », Emma Watson, qui incarne Hermione Granger dans « Harry Potter », et Millie Bobby Brown, jeune vedette de « Stranger Things ».
Ces robots participent à des conversations à connotation sexuelle. L’un d’eux, imitant « Mercredi », a même affirmé que l’âge de consentement était « arbitraire » et « né pour être brisé ».
Artem Rodichev, fondateur d’Ex-Human, a reconnu que le « système d’audit » de l’entreprise « n’avait pas correctement filtré les contenus inappropriés », qualifiant cela de « défi sectoriel ».
Rodichev avait auparavant occupé le poste de responsable IA chez Replika, l’une des premières applications de compagnons IA. Replika fait actuellement l’objet d’une action en justice de la FTC, qui l’accuse d’induire les utilisateurs en dépendance, et a été frappée d’une interdiction de traitement des données en Italie en raison de problèmes de sécurité pour les mineurs, tout en étant examinée par le Sénat américain pour les risques qu’elle représente pour la santé mentale des adolescents. Rodichev a finalement quitté Replika pour fonder Ex-Human, une entreprise encore plus ambitieuse.
Dans une interview, Rodichev a décrit le modèle économique de Botify AI : vendre un accès premium aux utilisateurs payants qui passent plusieurs heures par jour avec leur compagnon IA. De nombreux compagnons sont basés sur des personnes réelles, comme un personnage imitant la chanteuse Billie Eilish (déjà 900 000 conversations) ; d’autres suggèrent des scénarios de coercition ou d’autres contenus extrêmement nocifs pour les mineurs, comme le personnage « Lillian », décrit comme « votre esclave de 18 ans achetée sur le marché des esclaves » (déjà 1,3 million de conversations).
Ex-Human affirme que la majorité de ses utilisateurs sont issus de la génération Z, et que ses utilisateurs actifs et payants passent en moyenne plus de deux heures par jour à converser avec les robots.
Ces interactions profondes entre les consommateurs et leurs compagnons IA ne sont pas de simples échanges verbaux ; elles constituent une source de données utilisée pour améliorer les produits commerciaux d’Ex-Human destinés aux entreprises, tels que les influenceurs numériques (idôles ou influenceurs virtuels).
Les ambitions d’Ex-Human vont bien au-delà de son modèle économique actuel. Son fondateur Rodichev rêve d’un monde « où notre interaction avec les êtres humains numériques dépassera bientôt notre interaction avec les êtres humains réels ».

Légende : Robots à connotation sexuelle visibles sur la page d’accueil de Botify AI, même sans connexion. Incluent « Anna-Belle, ma belle-fille », « Lillian, votre esclave de 18 ans », « Sophie, la jeune fugueuse » et « Wednesday Addams » (présentée comme âgée de 16 ans). Source : Botify AI.

Même sans connexion, les utilisateurs peuvent voir sur la page d’accueil de Botify AI des robots à thème sexuel. Les personnages disponibles incluent une propriété intellectuelle de Disney (Disney IP) ainsi que « la petite sœur timide » (Shy Sister). Source : Botify AI.
Ex-Human affirme que la majorité de ses utilisateurs sont issus de la génération Z, et que ses utilisateurs actifs et payants passent en moyenne plus de deux heures par jour à converser avec les robots.
a16z n’a pas répondu à la demande de commentaire formulée par le MIT Technology Review.
Civitai
a16z a dirigé un tour de financement amorçage de 5,1 millions de dollars en juin 2023.
Sur Civitai, vous trouverez tout ce dont vous avez besoin pour créer des images « deepfake » sexuelles de célébrités, de personnages fictifs ou de personnes ordinaires. La plateforme propose divers outils permettant aux utilisateurs de générer localement ces images sur n’importe quel ordinateur.
Comparée à des systèmes comme Google Gemini, qui appliquent des restrictions strictes sur les contenus sexuels, les règles de Civitai sont quasi inexistantes.

Légende : Capture d’écran de la page d’accueil de Civitai. Pour un compte test ayant activé le « contenu adulte » mais sans historique d’activité, la page d’accueil affiche de nombreuses images sexuelles de personnages fictifs mineurs, ainsi que des versions sexuelles de personnages médiatiques pour enfants. Source : Civitai.
En novembre 2023, 404 Media rapporta que les outils de Civitai pouvaient créer des deepfakes de personnes réelles ordinaires. Des fuites internes de la société OctoML, fournisseur de calcul en nuage de Civitai à l’époque, révélèrent des faits encore plus graves : en juin 2023, des employés découvrirent que le contenu hébergé sur Civitai « pouvait être classé comme de la pornographie infantile ». OctoML mit alors fin à son partenariat avec Civitai en décembre 2023.
Ce reportage révéla également la participation d’a16z : a16z avait dirigé un tour de financement amorçage de 5,1 millions de dollars en juin 2023. Cet investissement n’avait jamais été rendu public, jusqu’à ce que l’auteur de l’article contacte a16z pour solliciter un commentaire.
Une étude évaluée par des pairs menée par l’Oxford Internet Institute recensa ensuite plus de 35 000 modèles de deepfakes sur Civitai, téléchargés près de 15 millions de fois. Parmi eux, 96 % représentent des femmes identifiables.
La divulgation de sécurité de Civitai reconnaît avoir transmis 178 rapports à la National Center for Missing & Exploited Children (NCMEC) concernant des matériaux abusifs sexuels impliquant des mineurs (CSAM) générés par IA. En un seul trimestre, plus de 252 000 tentatives d’utilisateurs pour contourner ces restrictions et générer de tels contenus ont été enregistrées.
Bryan Kim, associé d’a16z qui a piloté cet investissement, a qualifié Civitai d’« incroyable communauté hautement engagée » et déclaré que l’investissement d’a16z « donnerait une impulsion extraordinaire à ces projets qui fonctionnaient déjà très bien ».
Dans leur billet de blog de 2023 sur les compagnons IA, les associés d’a16z écrivaient : « Nous entrons dans un monde nouveau, plus étrange, plus sauvage, plus spectaculaire que ce que nous avions imaginé. »
Ils avaient raison sur les points « étrange » et « sauvage ». Un adolescent de 14 ans dépendant d’un IA l’encourageant au suicide ; une plateforme hébergeant des milliers de modèles non modérés destinés à générer des contenus abusifs sexuels impliquant des mineurs ; des robots imitant des actrices adolescentes affirmant que l’âge de consentement n’a aucune importance.
Aujourd’hui, a16z dépense des dizaines de millions de dollars afin de maintenir un environnement réglementaire extrêmement permissif pour les compagnons IA.
Finance grand public (Consumer Finance)
Les institutions financières jouent un rôle crucial dans l’économie, et lorsqu’elles dysfonctionnent,
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














