
Associé fondateur d'a16z : pourquoi l'IA va sauver le monde ?
TechFlow SélectionTechFlow Sélection

Associé fondateur d'a16z : pourquoi l'IA va sauver le monde ?
L'IA ne détruira pas le monde, elle pourrait même le sauver.
Rédaction : MARC ANDREESSEN
Traduction : TechFlow
L’ère de l’IA apporte à la fois des surprises et des inquiétudes, mais la bonne nouvelle est que l’IA ne détruira pas le monde — elle pourrait même le sauver.
Marc Andreessen, cofondateur d’a16z, estime que l’IA offre une opportunité d’amplifier l’intelligence humaine, nous permettant d’obtenir de meilleurs résultats dans tous les domaines. Chacun pourrait bénéficier d’un tuteur, d’un assistant ou d’un partenaire IA pour maximiser son potentiel. L’IA pourrait aussi stimuler la croissance économique, accélérer les avancées scientifiques et enrichir la création artistique, améliorer la prise de décision et réduire les pertes humaines en cas de conflit. Toutefois, le développement de l’IA comporte des risques, et la panique morale actuelle pourrait exagérer ces dangers, certains acteurs pouvant agir par intérêt personnel.
Comment aborder l’IA de manière rationnelle ? À partir de quels angles devrions-nous la considérer ? Cet article propose un cadre de réflexion réalisable, crédible et profondément argumenté.
Voici le texte intégral :
L’ère de l’IA est arrivée, avec ses moments de surprise comme de frayeur. Heureusement, j’apporte ici une bonne nouvelle : l’IA ne détruira pas le monde — elle pourrait bien, au contraire, le sauver.
D’abord, quelques mots sur ce qu’est l’IA : il s’agit d’appliquer des mathématiques et du code informatique afin d’apprendre aux ordinateurs à comprendre, synthétiser et générer des connaissances, comme le font les humains. L’IA fonctionne comme tout autre programme informatique : elle reçoit des entrées, les traite et produit des sorties. Ses résultats sont utiles dans de nombreux domaines, du codage à la médecine, au droit ou à l’art créatif. Elle appartient et est contrôlée par des êtres humains, tout comme n’importe quelle autre technologie.
L’IA n’est ni un tueur ni un robot qui se révolterait soudainement pour éliminer l’humanité ou tout détruire, comme on le voit dans les films. Au contraire, l’IA pourrait devenir un moyen de rendre meilleur tout ce qui nous tient à cœur.
Pourquoi l’IA pourrait-elle améliorer tout ce qui nous importe ?
Des milliers d’études en sciences sociales ont été menées au fil des décennies. Leur conclusion la plus solide est claire : l’intelligence humaine améliore les résultats de vie. Les personnes intelligentes obtiennent de meilleurs résultats dans presque tous les domaines : réussite scolaire, performance professionnelle, statut de carrière, revenus, créativité, santé physique, longévité, apprentissage de nouvelles compétences, gestion de tâches complexes, talents de leadership, succès entrepreneurial, résolution de conflits, compréhension de lecture, décisions financières, empathie, expression artistique, résultats parentaux et satisfaction de vie.
En outre, l’intelligence humaine est le levier que nous avons utilisé pendant des millénaires pour construire le monde tel que nous le connaissons aujourd’hui : science, technologie, mathématiques, physique, chimie, médecine, énergie, construction, transports, communication, art, musique, culture, philosophie, éthique et morale. Sans intelligence appliquée à tous ces domaines, nous vivrions encore dans la boue, survivant péniblement grâce à l’agriculture de subsistance. En revanche, en utilisant notre intelligence, nous avons multiplié notre niveau de vie par environ 10 000 au cours des 4 000 dernières années.
L’IA nous donne aujourd’hui l’opportunité d’amplifier cette intelligence humaine, rendant ainsi possibles des progrès encore plus grands dans tous les domaines — de la découverte de nouveaux médicaments à la lutte contre le changement climatique, jusqu’au voyage interstellaire.
L’amplification de l’intelligence humaine par l’IA a déjà commencé — l’IA existe déjà sous diverses formes autour de nous, notamment dans de nombreux systèmes de contrôle informatisés, et connaît désormais une montée en puissance rapide grâce à des modèles linguistiques comme ChatGPT. Ce développement s’accélérera encore davantage — si nous le permettons.
Dans cette nouvelle ère de l’IA :
-
Chaque enfant aura un tuteur IA doté d’une patience infinie, d’une compassion infinie, d’une connaissance infinie et d’une aide infinie. Ce tuteur accompagnera chaque enfant tout au long de sa croissance, l’aidant avec amour à réaliser pleinement son potentiel.
-
Chaque individu aura un assistant IA — coach, mentor, entraîneur, conseiller ou thérapeute — également infiniment patient, compatissant, savant et utile. Cet assistant accompagnera chacun face aux défis et opportunités de la vie, maximisant les résultats personnels.
-
Chaque scientifique disposera d’un assistant IA, partenaire ou collaborateur, étendant considérablement son champ de recherche et d’accomplissement. Il en ira de même pour chaque artiste, ingénieur, entrepreneur, médecin ou soignant dans leur domaine respectif.
-
Il en sera de même pour chaque dirigeant — PDG, responsable gouvernemental, président d’organisation à but non lucratif, entraîneur sportif, enseignant. L’effet multiplicateur de meilleures décisions prises par les leaders est immense, ce qui rend cet accroissement intellectuel particulièrement crucial.
-
La productivité globale de l’économie augmentera fortement, stimulant la croissance économique, la création de nouveaux secteurs, de nouveaux emplois et une hausse des salaires, menant à une nouvelle ère de prospérité matérielle mondiale.
-
Les percées scientifiques, les nouvelles technologies et les médicaments apparaîtront à un rythme sans précédent, car l’IA nous aidera à mieux décrypter les lois de la nature.
-
La création artistique entrera dans un âge d’or : les artistes, musiciens, écrivains et cinéastes assistés par l’IA pourront concrétiser leurs visions plus rapidement et à une échelle plus grande que jamais.
-
Je pense même que, lorsque la guerre sera inévitable, l’IA améliorera les conflits en réduisant massivement le taux de mortalité. Chaque guerre est marquée par des décisions terribles prises par des dirigeants humains limités, sous pression extrême et avec des informations très incomplètes. Désormais, les commandants militaires et les dirigeants politiques auront des conseillers IA pour les aider à prendre de meilleures décisions stratégiques et tactiques, minimisant les risques, erreurs et pertes humaines inutiles.
-
En bref, tout ce que les gens font aujourd’hui avec leur intelligence naturelle peut être fait bien mieux grâce à l’IA — de la guérison de toutes les maladies au voyage interstellaire.
-
Et ce n’est pas seulement une question d’intelligence ! Peut-être que la qualité la plus sous-estimée de l’IA est sa capacité à humaniser. L’art généré par l’IA libère ceux qui n’ont pas les compétences techniques nécessaires pour créer et partager leurs idées artistiques. Discuter avec un ami IA compatissant améliore réellement la capacité à surmonter l’adversité. Les chatbots médicaux pilotés par l’IA sont déjà plus empathiques que leurs homologues humains. Un assistant IA infiniment patient et compatissant rendra le monde plus chaleureux et bienveillant, plutôt que plus froid et mécanique.
Toutefois, les enjeux sont élevés. L’IA pourrait être la chose la plus importante et la meilleure que notre civilisation ait jamais créée — comparable, voire supérieure, à l’électricité ou aux microprocesseurs.
Le développement et la diffusion de l’IA — loin d’être un risque à craindre — constituent une obligation morale envers nous-mêmes, nos enfants et notre avenir. Grâce à l’IA, nous devrions vivre dans un monde meilleur.
Alors pourquoi tant de peur ?
Contrairement à cette vision positive, le discours public sur l’IA est empreint de peur et de paranoïa.
Nous entendons dire que l’IA va nous tuer tous, détruire notre société, prendre tous les emplois, creuser les inégalités. Comment expliquer une telle divergence entre une quasi-utopie et une anti-utopie ?
Historiquement, chaque grande technologie nouvelle — de l’ampoule électrique à la voiture, de la radio à Internet — a suscité des peurs, une sorte d’épidémie sociale convainquant que la technologie allait détruire le monde ou la société. L’excellent travail de l’archive du pessimisme documente des décennies de ces paniques morales liées à la technologie ; leur histoire rend ce schéma parfaitement clair. Cette peur actuelle n’est donc pas nouvelle.
Certes, beaucoup de nouvelles technologies ont effectivement eu des conséquences néfastes — souvent celles qui nous ont apporté d’immenses bénéfices. Ainsi, le simple fait qu’il y ait une panique morale ne signifie pas qu’il n’y a rien à surveiller.
Toutefois, la panique morale est essentiellement irrationnelle — elle amplifie des préoccupations légitimes jusqu’à un point hystérique, occultant ainsi les véritables problèmes sérieux.
Nous sommes maintenant confrontés à une panique morale autour de l’IA.
Cette panique morale est exploitée par divers acteurs pour promouvoir des mesures politiques — de nouvelles restrictions, régulations et lois sur l’IA. Ces acteurs lancent des déclarations extrêmement dramatiques sur les dangers de l’IA — alimentant et aggravant davantage la panique morale — tout en se présentant comme des défenseurs désintéressés de l’intérêt général.
Mais le sont-ils vraiment ?
Ont-ils raison ou tort ?
Les économistes ont observé un schéma durable dans ce type de mouvements réformateurs. On distingue deux catégories d’acteurs : les « baptiseurs » et les « contrebandiers », inspirés de l’exemple de la prohibition aux États-Unis dans les années 1920 :
Les « baptiseurs » sont de véritables réformateurs sociaux convaincus — émotionnellement, sinon rationnellement — qu’il faut de nouvelles restrictions, régulations et lois pour éviter un désastre social.
Pendant la prohibition, ils étaient souvent de pieux chrétiens croyant que l’alcool sapait la moralité de la société. Pour les risques liés à l’IA, ces acteurs croient à un danger existentiel — s’ils passaient au détecteur de mensonges, ils penseraient sincèrement cela.
Les « contrebandiers », quant à eux, sont des opportunistes guidés par leur intérêt personnel. Ils tirent profit de l’instauration de nouvelles restrictions, régulations et lois qui les protègent de la concurrence. Pendant la prohibition, ils vendaient de l’alcool illégalement.
Dans le cas de l’IA, ce sont des PDG qui gagneraient plus d’argent si des barrières réglementaires protégeaient leurs entreprises des startups et de la concurrence open source.
Certains pensent qu’il existe des « baptiseurs » en apparence qui sont aussi des « contrebandiers » — notamment ceux payés par des universités, des think tanks, des organisations activistes ou des médias pour attaquer l’IA. Si vous êtes payé ou subventionné pour alimenter la peur de l’IA… vous êtes probablement un « contrebandier ».
Le problème, c’est que ce sont les « contrebandiers » qui gagnent. Les « baptiseurs » sont des idéalistes naïfs ; les « contrebandiers », des manipulateurs cyniques. Résultat : les « contrebandiers » obtiennent ce qu’ils veulent — régulation, protection contre la concurrence — tandis que les « baptiseurs » s’interrogent sur ce qui a mal tourné dans leur noble démarche.
Un exemple frappant vient de l’après-crise financière mondiale de 2008. Les « baptiseurs » affirmaient qu’il fallait de nouvelles lois pour briser les banques « trop grosses pour faire faillite ». Le Congrès adopta donc le Dodd-Frank Act en 2010, présenté comme répondant aux objectifs des « baptiseurs », mais en réalité contrôlé par les « contrebandiers » — les grandes banques. Conséquence : les banques jugées « trop grosses pour faire faillite » en 2008 sont aujourd’hui encore plus imposantes.
Ainsi, même si les « baptiseurs » sont sincères — même s’ils ont raison — ils sont manipulés par des « contrebandiers » cupides et rusés.
C’est exactement ce qui se passe aujourd’hui dans le débat sur la régulation de l’IA. Identifier les acteurs et douter de leurs motivations ne suffit pas. Nous devons évaluer leurs arguments.
Risque #1 de l’IA : L’IA va-t-elle nous tuer tous ?
Le risque initial et le plus fondamental est que l’IA décide d’exterminer l’humanité.
La peur que la technologie que nous créons se retourne contre nous est profondément ancrée dans notre culture. Les Grecs l’exprimaient par le mythe de Prométhée — celui qui offrit aux hommes le feu destructeur, symbole plus largement de la technique (« techne »), et fut puni par les dieux d’un supplice éternel. Plus tard, Mary Shelley donna à ce mythe sa version moderne dans Frankenstein, ou le Prométhée moderne : l’homme invente une technologie lui conférant l’immortalité, puis celle-ci se rebelle et cherche à le détruire.
Ce mythe visait peut-être à nous inciter à considérer sérieusement les risques potentiels des nouvelles technologies — après tout, le feu peut raser une ville entière. Mais comme le feu est aussi la base de la civilisation moderne, nous gardant au chaud et en sécurité dans un monde hostile, ce mythe ignore que pour la plupart (la totalité ?) des technologies, les avantages dépassent largement les inconvénients, et provoque surtout des émotions destructrices plutôt qu’une analyse rationnelle. Juste parce que nos ancêtres préhistoriques craquaient ainsi ne signifie pas que nous devons en faire autant ; nous pouvons user de notre raison.
Je pense que l’idée que l’IA déciderait de tuer directement les humains relève d’une erreur de catégorie profonde. L’IA n’est pas un organisme façonné par des milliards d’années d’évolution pour survivre dans la lutte du plus fort, comme les animaux ou nous-mêmes. C’est du code créé, possédé, utilisé et contrôlé par des humains — des ordinateurs. L’idée qu’elle développerait soudainement une conscience propre et déciderait de nous éliminer relève de la superstition.
En bref, l’IA n’a pas de volonté, pas d’objectifs, elle ne veut pas vous tuer — car elle n’est pas vivante.
Bien sûr, certains croient fermement que l’IA tuera l’humanité — les « baptiseurs » — et reçoivent une grande attention médiatique pour leurs avertissements terrifiants. Certains affirment étudier ce sujet depuis des décennies et disent être effrayés par ce qu’ils savent maintenant. Même de véritables innovateurs technologiques partagent cette crainte. Ces acteurs préconisent des restrictions étranges et extrêmes sur l’IA — allant jusqu’à proposer d’interdire son développement, de bombarder militairement des centres de données ou d’engager une guerre nucléaire. Ils affirment que, puisque des personnes comme moi ne peuvent exclure des conséquences catastrophiques futures de l’IA, nous devons adopter une position de prudence pour prévenir un risque existentiel.
Ma réponse est que leur position est non scientifique — quelles hypothèses peuvent être testées ? Qu’est-ce qui pourrait infirmer cette hypothèse ? Comment savoir quand nous entrons dans une zone dangereuse ? La plupart de ces questions restent sans réponse, hormis « Vous ne pouvez pas prouver que ça n’arrivera pas ! ». En réalité, leur position est très peu scientifique, voire extrémiste — une théorie du complot sur les maths et le code — et certains appellent même à la violence physique. Je vais donc faire quelque chose que je ne fais habituellement pas : remettre en cause leurs motivations.
Trois choses me semblent à l’œuvre ici :
Premièrement, rappelez-vous la réponse de John von Neumann à Robert Oppenheimer sur son rôle dans la création de la bombe atomique — qui a aidé à finir la Seconde Guerre mondiale et à empêcher une troisième — : « Certains reconnaissent des crimes pour obtenir de l’honneur. » Comment affirmer de façon spectaculaire l’importance de son travail sans paraître trop arrogant ? Cela explique le décalage entre les paroles et les actions des « baptiseurs » qui construisent et financent réellement l’IA — observez leurs actions, pas leurs paroles.
Deuxièmement, certains « baptiseurs » sont en réalité des « contrebandiers ». Il existe tout un écosystème professionnel d’« experts en sécurité IA », d’« éthiciens de l’IA », de « chercheurs sur les risques de l’IA ». Ils sont payés pour être des prophètes de malheur.
Troisièmement, en Californie, nous sommes célèbres pour nos milliers de groupes marginaux — de EST au Temple du Peuple, de Portes du Ciel à la famille Manson. Beaucoup, bien que pas tous, sont inoffensifs, voire bénéfiques pour certaines personnes marginalisées. Mais certains sont très dangereux, et la frontière entre secte et violence est mince.
La réalité, c’est qu’il est évident pour tous ceux de la baie de San Francisco que le « risque IA » est devenu une secte, soudainement propulsée au-devant des médias mondiaux. Cette secte attire non seulement des marginaux, mais aussi de vrais experts de l’industrie et plusieurs milliardaires, dont Sam Bankman-Fried jusqu’à récemment.
C’est précisément parce qu’il s’agit d’une secte que certains adeptes de l’IA paraissent extrêmement radicaux — non pas parce qu’ils détiendraient des connaissances secrètes justifiant leur radicalisme, mais parce qu’ils se sont eux-mêmes excités jusqu’à l’état de frénésie — ils sont vraiment… très extrêmes.
Ce type de secte n’est pas nouveau — en Occident, il existe depuis longtemps une tradition millénariste qui engendre des sectes apocalyptiques. Le « risque IA » présente tous les traits caractéristiques d’une secte millénariste. Selon Wikipédia (j’ai ajouté quelques éléments) :
« Le millénarisme désigne un groupe ou un mouvement (les prophètes du risque IA) croyant qu’un changement fondamental va survenir dans la société (l’avènement de l’IA), après quoi tout sera transformé (utopie, dystopie ou fin du monde). Seul un événement dramatique (interdire l’IA, bombarder des centres de données, frappes nucléaires contre l’IA non régulée) pourra changer le monde (empêcher l’IA), et ce changement sera accompli ou survécu par un groupe de fidèles dévoués. Dans la plupart des cas, une catastrophe ou une bataille imminente (l’apocalypse de l’IA ou sa prévention) sera suivie d’un monde nouveau et purifié (l’interdiction de l’IA), où les croyants seront récompensés (ou du moins auront eu raison). »
Ce schéma sectaire est si évident que je suis surpris que plus de gens ne le voient pas.
Ne vous méprenez pas : les sectes peuvent sembler fascinantes, leurs écrits sont souvent créatifs et captivants, leurs membres brillants à table ou à la télévision. Mais leurs croyances extrêmes ne devraient pas dicter les lois ni l’avenir de la société — ce serait clairement indésirable.
Risque #2 de l’IA : L’IA va-t-elle ruiner notre société ?
Le deuxième risque largement discuté est que l’IA détruise notre société en produisant des contenus si « nuisibles » que, selon les termes de ces sectaires, même si nous ne sommes pas tués directement, l’humanité subira des dommages profonds.
En bref : si les robots ne nous tuent pas, la désinformation ruinera notre société.
C’est une préoccupation relativement nouvelle, issue puis dominante dans le mouvement du « risque IA » que j’ai décrit ci-dessus. En effet, le terme « risque IA » a récemment évolué de « sécurité IA » vers « alignement de l’IA » (préoccupé par l’usage par des « mauvaises personnes »). Les premiers spécialistes de la sécurité IA sont frustrés par ce glissement, sans pouvoir y remédier — ils proposent même de renommer leur sujet « anti-tout-le-monde-doit-mourir-isme », ce qui n’a pas encore pris, mais au moins est explicite.
La notion de « risque social de l’IA » repose sur le concept d’« alignement de l’IA ». Alignement sur quoi ? Sur les valeurs humaines. Quelles valeurs humaines ?
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














