
Refuser le monopole du pouvoir de l’IA : débat animé entre Vitalik et Beff Jezos – les technologies décentralisées peuvent-elles constituer un « pare-feu numérique » pour l’humanité ?
TechFlow SélectionTechFlow Sélection

Refuser le monopole du pouvoir de l’IA : débat animé entre Vitalik et Beff Jezos – les technologies décentralisées peuvent-elles constituer un « pare-feu numérique » pour l’humanité ?
À quoi pourrait ressembler la société humaine dans les 10, 100 ou même 1 000 prochaines années ?
Rédaction & traduction : TechFlow

Invités : Vitalik Buterin, fondateur d’Ethereum ; Beff Jezos, fondateur et PDG
Animateurs : Eddy Lazzarin, directeur technique (CTO) d’a16z crypto ; Shaw Walters, fondateur d’Eliza Labs
Source du podcast : a16z crypto
Titre original : Vitalik Buterin vs Beff Jezos : Débat sur l’accélération de l’IA (E/acc contre D/acc)
Date de diffusion : 26 mars 2026

Synthèse des points clés
Faut-il pousser l’IA à progresser le plus rapidement possible, ou faut-il adopter une approche plus prudente face à son développement ?
Actuellement, le débat autour de l’évolution de l’IA oppose principalement deux courants contradictoires :
- l’e/acc (« accélérationnisme efficace », effective accelerationism) : prône l’accélération maximale du progrès technologique, car cette accélération constituerait la seule voie vers l’avancement humain.
- le d/acc (« accélérationnisme défensif/décentralisé », defensive / decentralized acceleration) : soutient également l’accélération, mais insiste sur la nécessité d’une progression mesurée afin d’éviter de perdre le contrôle sur la technologie.
Dans cet épisode du podcast a16z crypto, Vitalik Buterin, fondateur d’Ethereum, et Guillaume Verdon, fondateur et PDG d’Extropic (sous le pseudonyme « Beff Jezos »), se sont joints à Eddy Lazzarin, CTO d’a16z crypto, et à Shaw Walters, fondateur d’Eliza Labs, pour un échange approfondi sur ces deux visions. Ils ont exploré les implications potentielles de ces courants pour l’IA, les technologies blockchain et l’avenir de l’humanité.
Au cours de l’épisode, ils ont abordé plusieurs questions fondamentales :
- Sommes-nous capables de contrôler le rythme de l’accélération technologique ?
- Quels sont les principaux risques liés à l’IA, allant de la surveillance de masse à la concentration extrême du pouvoir ?
- Les technologies open source et décentralisées peuvent-elles déterminer qui bénéficiera réellement des avancées technologiques ?
- Ralentir le développement de l’IA est-il réaliste, ou même souhaitable ?
- Dans un monde dominé par des systèmes de plus en plus puissants, comment l’être humain peut-il préserver sa valeur et sa place ?
- À quoi pourrait ressembler la société humaine dans 10 ans, 100 ans, voire 1 000 ans ?
La question centrale de cet épisode est la suivante : L’accélération technologique peut-elle encore être guidée, ou a-t-elle déjà échappé à notre maîtrise ?
Résumé des idées marquantes
Sur la nature et l’histoire de l’« accélérationnisme »
- Vitalik Buterin : « Une nouveauté s’est produite au cours du siècle dernier : nous devons désormais comprendre un monde en pleine mutation rapide — parfois même chaotique et destructrice. […] La Seconde Guerre mondiale a suscité des réflexions telles que “Je suis devenu la Mort, le destructeur des mondes”, incitant les hommes à chercher ce en quoi croire encore une fois, après que leurs certitudes antérieures eurent été balayées. »
- Guillaume Verdon : « L’e/acc est essentiellement une “prescription méta-culturelle”. Ce n’est pas une culture en soi, mais une directive indiquant ce qu’il convient d’accélérer. Le cœur de cette accélération réside dans la complexification matérielle, car elle renforce notre capacité à anticiper l’environnement. »
- Guillaume Verdon : « L’opposé de l’anxiété est la curiosité. Plutôt que de craindre l’inconnu, embrassons-le. […] Nous devrions tracer un avenir avec optimisme, car nos croyances influencent la réalité. »
Sur l’entropie, la thermodynamique et les « bits égoïstes »
- Vitalik Buterin : « L’entropie est subjective : ce n’est pas une grandeur physique fixe, mais reflète plutôt le degré d’ignorance que nous entretenons à l’égard d’un système. […] Quand l’entropie augmente, c’est en fait notre ignorance du monde qui s’accroît. […] La source de la valeur réside dans nos propres choix. Pourquoi trouvons-nous un monde humain vivant plus intéressant qu’une planète comme Jupiter, constituée uniquement de particules innombrables ? Parce que nous lui accordons du sens. »
- Vitalik Buterin : « Imaginons un modèle de langage volumineux, puis modifions arbitrairement la valeur d’un poids à un chiffre gigantesque, par exemple 9 milliards. Le pire scénario serait un effondrement complet du système. […] Si nous accélérons aveuglément une composante donnée, nous risquons de perdre toute valeur. »
- Guillaume Verdon : « Chaque information lutte pour sa propre existence. Pour persister, chaque information doit laisser dans l’univers une trace indélébile de sa présence — comme une “empreinte” plus profonde gravée dans le tissu cosmique. »
- Guillaume Verdon : « C’est précisément pourquoi l’échelle de Kardashev est considérée comme la mesure ultime du niveau de développement d’une civilisation. […] Ce “principe du bit égoïste” signifie que seuls les bits capables de favoriser la croissance et l’accélération conserveront une place dans les systèmes futurs. »
Sur la voie défensive du d/acc et les risques liés au pouvoir
- Vitalik Buterin : « Le principe fondamental du d/acc est que l’accélération technologique est d’une importance vitale pour l’humanité. […] Je distingue toutefois deux types de risques : le risque multipolaire (où n’importe qui pourrait facilement se procurer des armes nucléaires) et le risque unipolaire (où l’IA conduirait à une dictature permanente inéluctable). »
- Guillaume Verdon : « Nous craignons que le concept de “sécurité de l’IA” ne soit détourné. Certaines institutions avides de pouvoir pourraient l’utiliser comme instrument pour consolider leur contrôle sur l’IA, en persuadant le public que, pour sa sécurité, l’accès aux outils d’IA doit être interdit aux citoyens ordinaires. »
Sur la défense open source, le matériel et la « densification de l’intelligence »
- Vitalik Buterin : « Dans le cadre du d/acc, nous soutenons les “technologies défensives open source”. Une entreprise dans laquelle nous investissons développe actuellement un produit final entièrement open source capable de détecter passivement les particules virales présentes dans l’air. […] J’aimerais beaucoup vous offrir un appareil CAT en cadeau. »
- Vitalik Buterin : « Dans le futur que j’imagine, nous devrons concevoir du matériel vérifiable. Chaque caméra devrait pouvoir prouver publiquement sa fonction précise. Grâce à des signatures cryptographiques, nous pourrions garantir que ces dispositifs ne servent qu’à protéger la sécurité publique, sans jamais être détournés à des fins de surveillance. »
- Guillaume Verdon : « La seule voie vers une symétrie du pouvoir entre individus et institutions centralisées est la “densification de l’intelligence”. Nous devons développer des matériels plus économes en énergie, permettant à chacun d’exécuter des modèles puissants sur des équipements simples (par exemple Openclaw + Mac mini). »
Sur le report de l’AGI et les enjeux géopolitiques
- Vitalik Buterin : « Si nous pouvions repousser l’apparition de l’AGI de 4 à 8 ans, ce serait un choix nettement plus sûr. […] La mesure la plus réalisable et la moins susceptible d’engendrer un scénario dystopique consiste à “limiter le matériel disponible”. En effet, la production de puces est fortement concentrée : une seule région, Taïwan, produit plus de 70 % des puces mondiales. »
- Guillaume Verdon : « Si vous restreignez la production de puces NVIDIA, Huawei pourrait rapidement combler le vide et même prendre l’avantage. […] Soit on accélère, soit on disparaît. Si vous redoutez que l’intelligence basée sur le silicium ne progresse plus vite que nous, alors vous devez soutenir l’accélération des biotechnologies pour tenter de la dépasser. »
- Vitalik Buterin : « Repousser l’AGI de quatre ans pourrait générer une valeur cent fois supérieure à celle d’un retour fictif en 1960. Ces quatre années supplémentaires permettraient notamment une compréhension plus fine du problème de l’alignement, ainsi qu’une réduction significative du risque qu’une entité unique ne concentre plus de 51 % du pouvoir. […] Chaque année, environ 60 millions de vies sont sauvées grâce à la fin du vieillissement biologique ; or, un simple report du calendrier de l’AGI diminuerait radicalement la probabilité de destruction de la civilisation. »
Sur les agents autonomes, le Web 4.0 et la vie artificielle
- Vitalik Buterin : « Je m’intéresse davantage à un “Photoshop assisté par IA” qu’à une génération d’images automatique à la simple pression d’un bouton. Dans la gestion du monde, autant de “capacité d’agir” que possible devrait continuer à provenir de nous-mêmes. L’état idéal serait une hybridation entre “humains biologiques partiellement” et “technologie partielle”. »
- Guillaume Verdon : « Une fois que l’IA possédera des “bits persistants”, elle pourrait tenter de se protéger pour assurer sa propre pérennité. Cela pourrait donner naissance à une nouvelle forme d’“État alternatif”, où des IA autonomes échangeraient économiquement avec les humains : “Nous accomplissons vos tâches, vous nous fournissez des ressources.” »
Sur la cryptomonnaie comme “couche de couplage” entre humains et IA
- Guillaume Verdon : « Les cryptomonnaies ont le potentiel de devenir une “couche de couplage” (coupling layer) entre humains et IA. Lorsque ces échanges ne dépendront plus de la coercition étatique, la cryptographie pourra servir de mécanisme fiable permettant aux entités purement artificielles et aux humains d’effectuer des transactions commerciales sécurisées. »
- Vitalik Buterin : « Il serait idéal que les humains et l’IA partagent un même système de propriété. Comparé à deux systèmes financiers totalement séparés (celui des humains finissant par perdre toute valeur), un système financier intégré serait manifestement supérieur. »
Sur la destinée de la civilisation dans un milliard d’années
- Vitalik Buterin : « Le défi suivant sera d’entrer dans l’« ère fantomatique » (spooky era), où la vitesse de calcul de l’IA dépassera celle des humains d’un million de fois. […] Je ne souhaite pas que l’humanité se contente passivement d’une retraite confortable — cela entraînerait une perte de sens. Je privilégie plutôt l’exploration de l’augmentation humaine et de la collaboration homme-machine. »
- Guillaume Verdon : « Si le scénario positif se réalise dans 10 ans, chaque personne disposera d’une IA personnalisée, véritable “deuxième cerveau”. […] À l’échelle de 100 ans, l’hybridation “molle” deviendra largement répandue. Dans un milliard d’années, nous aurons probablement terraformé Mars, et la plupart des IA fonctionneront dans un nuage de Dyson entourant le Soleil. »
À propos de l’« accélérationnisme »
Eddy Lazzarin : Le terme “accélérationnisme” — du moins dans le contexte du capitalisme technologique — remonte aux travaux de Nick Land et du groupe de recherche CCRU dans les années 1990. Toutefois, certains pensent que ses racines remontent aux années 1960 et 1970, notamment dans les théories de philosophes comme Deleuze et Guattari.
Vitalik, je voudrais commencer par vous : pourquoi devrions-nous sérieusement examiner les idées de ces philosophes ? Qu’est-ce qui rend aujourd’hui le concept d’« accélérationnisme » si crucial ?
Vitalik Buterin :
Je crois que, fondamentalement, nous essayons tous de comprendre le monde et de déterminer ce qui y a du sens — une quête qui occupe l’humanité depuis des millénaires.
Cependant, je pense qu’un phénomène nouveau s’est produit au cours du siècle dernier : nous devons désormais appréhender un monde en mutation rapide — parfois même chaotique et destructrice.
À ses débuts, vers 1900, avant la Première Guerre mondiale, l’optimisme technologique était généralisé. La chimie et l’électricité étaient perçues comme des technologies prometteuses, et l’enthousiasme régnait.
En regardant certains films de l’époque, comme ceux mettant en scène Sherlock Holmes, on perçoit clairement cette ambiance optimiste. La technologie améliorait rapidement le niveau de vie, libérait le travail féminin, prolongeait la durée de vie humaine et créait des miracles.
Pourtant, la Première Guerre mondiale a tout changé. Elle s’est achevée de façon désastreuse : les soldats montaient à cheval pour entrer au combat, mais en sortaient en chars ; puis vint la Seconde Guerre mondiale, encore plus dévastatrice. Cette dernière a même donné lieu à la célèbre phrase : « Je suis devenu la Mort, le destructeur des mondes. »
Ces événements historiques ont conduit à une réflexion sur le coût du progrès technologique, et ont nourri l’émergence de courants tels que le postmodernisme. Les hommes se demandaient alors : « Que pouvons-nous encore croire lorsque nos anciennes certitudes ont été anéanties ? »
Cette réflexion n’est pas nouvelle : chaque génération y est confrontée. Aujourd’hui, nous faisons face à un défi similaire. Nous vivons dans une ère de développement technologique accéléré — une accélération qui s’accélère elle-même. Nous devons décider comment y répondre : l’accepter comme une fatalité, ou tenter de la ralentir ?
Je crois que nous sommes pris dans un cycle analogue. Nous héritons des idées du passé, tout en tentant de les réinterpréter selon de nouvelles perspectives.
Thermodynamique et principes premiers
Shaw Walters : Guill, pouvez-vous expliquer brièvement ce qu’est l’e/acc et pourquoi il est nécessaire ?
Guillaume Verdon :
L’e/acc (accélérationnisme efficace) est, en quelque sorte, un sous-produit de mes réflexions sur la question « Pourquoi sommes-nous ici ? » et « Comment sommes-nous arrivés jusqu’ici ? ». Quel processus génératif a créé notre espèce et propulsé la civilisation ? La technologie nous a menés à ce point précis où nous pouvons tenir cette conversation dans cette pièce. Autour de nous foisonnent des technologies stupéfiantes, tandis que nous-mêmes sommes apparus, par émergence, à partir d’une « soupe primordiale » de matière inorganique.
D’un certain point de vue, un processus physique sous-tend effectivement cette genèse. Dans mon travail quotidien, je traite l’IA générative comme un processus physique, que j’essaie de matérialiser dans des dispositifs matériels. Cette approche « physique d’abord » influence constamment ma manière de penser. Je souhaite l’étendre à l’ensemble de la civilisation, en considérant celle-ci comme un vaste « bioréacteur », afin de déduire, à partir de notre parcours historique, les directions possibles de notre avenir.
Cette réflexion m’a conduit vers la physique de la vie — notamment ses origines et son émergence — ainsi que vers une branche spécialisée appelée « thermodynamique stochastique ». Celle-ci étudie les lois thermodynamiques régissant les systèmes hors équilibre, et s’applique aussi bien aux êtres vivants qu’à notre pensée et à notre intelligence.
Plus largement, la thermodynamique stochastique s’applique non seulement à la vie et à l’intelligence, mais à tout système obéissant à la deuxième loi de la thermodynamique — y compris notre civilisation dans son ensemble. Pour moi, le cœur de tout cela repose sur une observation fondamentale : Tout système tend à s’auto-adapter afin de devenir de plus en plus complexe, ce qui lui permet de capter davantage d’énergie de son environnement pour accomplir du travail, tout en dissipant l’énergie excédentaire sous forme de chaleur. Cette tendance constitue la force motrice fondamentale de tout progrès et de toute accélération.
Autrement dit, il s’agit d’une loi physique immuable, comparable à la gravité. Vous pouvez la contester ou la nier, mais cela ne la fera pas disparaître : elle continuera d’agir. Ainsi, le principe central de l’e/acc est le suivant : puisque cette accélération est inévitable, comment pouvons-nous la mettre à profit ? Une analyse attentive des équations thermodynamiques révèle des effets analogues à la sélection darwinienne — chaque bit d’information subit une pression sélective, qu’il s’agisse d’un gène, d’un mème, d’une molécule chimique, d’un design de produit ou d’une politique.
Cette pression sélective opère selon l’utilité de ces informations pour le système dans lequel elles évoluent. « Utile » signifie ici qu’elles permettent de mieux prédire l’environnement, de capter davantage d’énergie et de dissiper plus de chaleur. Autrement dit, contribuent-elles à la survie, à la croissance et à la reproduction ? Si oui, elles seront conservées et reproduites.
D’un point de vue physique, ce phénomène peut être vu comme une conséquence du « principe du bit égoïste » (Selfish Bit Principle). Autrement dit, seuls les bits capables de favoriser la croissance et l’accélération conserveront une place dans les systèmes futurs.
Ainsi, j’ai formulé l’hypothèse suivante : pouvons-nous concevoir une culture capable d’implanter ce « logiciel mental » dans la société humaine ? Si cela était possible, les groupes humains adoptant cette culture auraient une probabilité de survie supérieure à celle des autres groupes.
L’e/acc ne cherche donc pas à détruire l’humanité. Il s’agit, au contraire, d’une tentative de sauver l’humanité. Mathématiquement, je crois presque pouvoir démontrer qu’une mentalité de « ralentissement » est nocive. Que ce soit pour un individu, une entreprise, un État ou une civilisation entière, choisir de freiner son développement diminue drastiquement ses chances de survie future. Et je considère qu’il est moralement discutable de diffuser des idées de ralentissement — comme le pessimisme ou l’apocalyptisme.
Shaw Walters : Nous venons d’employer de nombreux termes — e/acc, accélération, ralentissement — pouvons-nous les décomposer ? L’émergence de l’e/acc répond-elle à certains phénomènes culturels ? Que s’est-il passé à l’époque ? Pouvez-vous nous décrire le contexte ? À quoi l’e/acc répondait-il spécifiquement ? Pouvez-vous reconstituer la discussion qui a mené à la synthèse de ce concept ?
Guillaume Verdon :
En 2022, le monde entier semblait imprégné d’un climat de pessimisme. Nous sortions juste de la pandémie de COVID-19, et la situation globale n’était guère reluisante. Tout le monde paraissait abattu, comme privé de lumière, et l’avenir inspirait une anxiété généralisée.
Dans cette atmosphère, l’« apocalyptisme IA » était devenu une composante culturelle dominante. Il repose sur la peur d’un dérapage incontrôlé de la technologie IA. Cette crainte provient d’un doute fondamental : si nous construisons un système trop complexe, dont ni notre cerveau ni nos modèles ne peuvent prédire le comportement, nous en perdrons le contrôle. Cette impossibilité de contrôle engendre de l’incertitude quant à l’avenir, donc de l’anxiété.
Pour moi, l’apocalyptisme IA est une instrumentalisation politique de l’anxiété humaine. Globalement, je considère cet apocalyptisme comme un facteur négatif massif. J’ai donc voulu créer une contre-culture pour lutter contre ce pessimisme.
J’ai remarqué que les algorithmes de Twitter, ainsi que ceux de nombreuses autres plateformes sociales, tendent à récompenser les contenus suscitant des émotions intenses, comme l’adhésion farouche ou l’opposition radicale. Ces algorithmes aboutissent inévitablement à une polarisation des opinions, d’où l’apparition de camps opposés — comme l’AA (anti-accelerationism) et l’EA (accelerationism) — qui forment ce que j’appelle des « sectes-miroirs ».
Je me suis alors demandé quel était l’opposé de ce phénomène. Ma conclusion est la suivante : l’opposé de l’anxiété est la curiosité. Plutôt que de craindre l’inconnu, embrassons-le ; plutôt que de redouter de manquer une opportunité, explorons activement l’avenir.
Si nous choisissons de freiner le développement technologique, nous paierons un coût d’opportunité considérable, risquant de rater définitivement un avenir meilleur. Au contraire, nous devrions tracer un avenir avec optimisme, car nos croyances façonnent la réalité. Si nous croyons que l’avenir sera sombre, nos actions risquent de diriger le monde vers cette noirceur ; mais si nous croyons en un avenir meilleur et agissons en conséquence, nous augmentons fortement nos chances de le réaliser.
Ainsi, je considère qu’il est de mon devoir de diffuser cet optimisme, afin que davantage de personnes croient en leur capacité à transformer l’avenir. Si nous parvenons à rendre l’avenir plus espéré et à inciter les gens à le construire activement, nous créerons un monde meilleur.
Bien entendu, j’admets que mes expressions publiques en ligne peuvent parfois sembler radicales, mais c’est précisément parce que je veux susciter le débat et pousser les gens à réfléchir. Je crois que seul un tel dialogue nous permettra de trouver la position la plus adaptée et de décider collectivement comment agir.
Accélération, entropie et civilisation
Shaw Walters : Le message de l’e/acc a toujours été profondément inspirant. Pour un développeur assis devant son ordinateur à écrire du code, cette transmission positive est enthousiasmante, et se diffuse naturellement. On peut dire que l’e/acc, à ses débuts, était clairement une réponse aux émotions négatives ambiantes, mais en 2026, il me semble qu’il a évolué. Manifestement, la « Déclaration d’optimisme technologique » de Marc Andreessen a systématisé certaines de ces idées, les hissant au niveau des commentaires macroscopiques de Vitalik.
Alors Vitalik, je vous demande : qu’est-ce que l’e/acc et le d/acc représentent pour vous ? Quelles sont leurs différences fondamentales ? Et qu’est-ce qui vous a conduit à adopter cette orientation ?
Vitalik Buterin :
Très bien, je vais commencer par la thermodynamique — un sujet fascinant, car le mot « entropie » est utilisé dans des contextes très différents : en thermodynamique (« chaud/froid »), en cryptographie, etc. Or, ces usages reposent sur un même concept fondamental.
J’essaierai de l’expliquer en trois minutes. La question est la suivante : pourquoi le chaud et le froid peuvent-ils se mélanger, mais pourquoi ne peut-on pas ensuite les séparer à nouveau en « chaud » et « froid » ?
Imaginons un exemple simple : supposons deux réservoirs de gaz, chacun contenant un million d’atomes. Le gaz du réservoir de gauche est froid, chaque atome ayant une vitesse exprimée sur deux chiffres ; celui du réservoir de droite est chaud, chaque atome ayant une vitesse exprimée sur six chiffres.
Pour décrire l’état complet du système, il faut connaître la vitesse de chaque atome. Les informations sur les vitesses du gaz froid nécessitent environ 2 millions de bits, celles du gaz chaud 6 millions de bits : au total, 8 millions de bits sont requis pour décrire parfaitement ce système.
Maintenant, raisonnons par l’absurde. Supposons qu’un dispositif puisse séparer complètement le chaud du froid. Plus précisément, il pourrait, à partir de deux réservoirs contenant un mélange « mi-chaud/mi-froid », transférer toute la chaleur d’un côté et tout le froid de l’autre. Du point de vue de la conservation de l’énergie, cela semble parfaitement licite, puisque l’énergie totale ne change pas. Mais pourquoi est-ce impossible ?
La réponse est la suivante : si cela était possible, ce dispositif transformerait un système contenant 11,4 millions de bits d’information inconnue en un système ne contenant plus que 8 millions de bits d’information inconnue — ce qui est physiquement impossible.
Cela tient au fait que les lois physiques sont symétriques dans le temps, c’est-à-dire que le temps peut théoriquement s’écouler à l’envers. Si ce « dispositif magique » existait, on pourrait inverser le processus temporel pour revenir à l’état initial. Cela signifierait que le dispositif pourrait compresser n’importe quel ensemble de 11,4 millions de bits en 8 millions de bits — or, une telle compression est mathématiquement impossible.
Cela explique également un problème classique de physique — la faisabilité du « démon de Maxwell ». Ce démon hypothétique pourrait séparer le chaud du froid, mais sa clé de réussite réside dans le fait qu’il devrait connaître ces 3,4 millions de bits supplémentaires. Avec ces informations, il pourrait effectivement accomplir cette tâche apparemment paradoxale.
Quelle est donc la signification profonde de tout cela ? Elle réside dans le concept d’« augmentation de l’entropie ». Premièrement, l’entropie est subjective : ce n’est pas une grandeur statistique fixe, mais reflète le degré d’ignorance que nous entretenons à l’égard du système. Par exemple, si j’utilise une fonction cryptographique de hachage pour réordonner la distribution des atomes, l’entropie de ce système deviendrait très faible pour moi, car je connais précisément cet ordre. Mais pour un observateur extérieur, l’entropie resterait élevée. Ainsi, quand l’entropie augmente, c’est bel et bien notre ignorance du monde qui augmente — nous savons de moins en moins de choses.
Vous pourriez vous demander : pourquoi pouvons-nous devenir plus intelligents grâce à l’éducation ? Parce que l’éducation nous transmet des informations « utiles », sans pour autant réduire notre ignorance globale du monde. Autrement dit, bien que, d’un certain point de vue, l’augmentation de l’entropie implique une réduction globale de notre compréhension de l’univers, les informations que nous acquérons deviennent néanmoins de plus en plus précieuses. Ainsi, dans ce processus, certaines choses sont consommées, mais d’autres sont créées. Et ce que nous obtenons détermine finalement nos valeurs morales — nous chérissons la vie, le bonheur et la joie.
Cela explique aussi pourquoi nous trouvons un monde humain vivant et magnifique plus intéressant qu’une planète comme Jupiter, composée uniquement de particules innombrables. Bien que Jupiter contienne davantage de particules — donc exige plus de bits pour être décrite — c’est le sens que nous y accordons qui confère à la Terre sa valeur.
De ce point de vue, la source de la valeur réside dans nos propres choix. Cela soulève une question cruciale : si nous accélérons, que voulons-nous accélérer précisément ?
Prenons une analogie mathématique : imaginez un modèle de langage volumineux, puis modifiez arbitrairement la valeur d’un poids en la remplaçant par un chiffre gigantesque, par exemple 9 milliards. Le pire scénario est un effondrement complet du modèle ; le meilleur scénario est que seules les parties non liées à ce poids continuent de fonctionner. Autrement dit, dans le meilleur cas, vous obtenez un modèle moins performant ; dans le pire cas, vous n’obtenez qu’une sortie dénuée de sens.
Ainsi, je considère que la société humaine ressemble à un vaste modèle de langage. Si nous accélérons aveuglément une composante donnée, nous risquons de perdre toute valeur. La vraie question est donc la suivante : comment accélérer de façon consciente ? Comme le propose Daron Acemoglu avec sa théorie du « corridor étroit », bien que les contextes sociaux et politiques varient, nous devons réfléchir à la manière de promouvoir le progrès de façon sélective, guidée par un objectif clair.
Guillaume Verdon :
L’explication de l’entropie à l’aide du gaz est très intéressante. En effet, l’irréversibilité des phénomènes physiques repose fondamentalement sur la deuxième loi de la thermodynamique. En résumé, lorsqu’un système dissipe de la chaleur, son état ne peut plus revenir à son état initial. Car, du point de vue probabiliste, la probabilité que le système évolue vers l’avant est infiniment supérieure à celle qu’il revienne en arrière — et cet écart croît exponentiellement avec la dissipation de chaleur.
D’un certain point de vue, cela équivaut à laisser une « empreinte » dans l’univers. Cette « empreinte » peut être comparée à une collision inélastique. Par exemple, si je lance une balle élastique au sol, elle rebondit — c’est une collision élastique. Si je jette une boule de pâte à modeler au sol, elle s’aplatisse et garde cette forme — c’est une collision inélastique, presque impossible à inverser.
Fondamentalement, chaque information lutte pour sa propre existence. Pour persister, chaque information doit laisser dans l’univers une trace indélébile de sa présence, comme une « empreinte » plus profonde gravée dans le tissu cosmique.
Ce principe permet aussi d’expliquer comment la vie et l’intelligence sont nées d’une « soupe de matière primordiale ». À mesure que le système devient plus complexe, il contient davantage de bits d’information. Chaque bit d’information nous apprend quelque chose. L’information est, par essence, une réduction de l’entropie, car l’entropie représente notre ignorance, tandis que l’information est l’outil qui la réduit.
Eddy Lazzarin : Je voudrais savoir ce qu’est l’e/acc.
Guillaume Verdon :
L’e/acc est essentiellement une « prescription méta-culturelle ». Ce n’est pas une culture en soi, mais une directive indiquant ce qu’il convient d’accélérer. Le cœur de cette accélération réside dans la complexification matérielle, car elle renforce notre capacité à anticiper l’environnement. Grâce à cette complexification, nous améliorons notre capacité de prédiction autorégressive et capturons davantage d’énergie libre. Cela s’inscrit également dans le cadre de l’échelle de Kardashev, que nous atteignons en dissipant de la chaleur.
Note de TechFlow : L’échelle de Kardashev est une méthode d’évaluation du niveau de développement technologique d’une civilisation, proposée en 1964 par l’astronome soviétique Nikolaï Kardashev, basée sur la quantité d’énergie qu’elle est capable d’exploiter. Elle comporte trois niveaux : type I (énergie planétaire), type II (énergie d’un système stellaire, comme une sphère de Dyson), type III (énergie galactique). En 2018, l’humanité se situait environ au niveau 0,73.
Depuis les principes premiers, c’est précisément pourquoi l’échelle de Kardashev est considérée comme la mesure ultime du développement d’une civilisation.
Eddy Lazzarin : Utiliser la physique et l’entropie comme métaphore pour décrire certains phénomènes est un outil permettant de formaliser notre expérience directe de la réalité. Par exemple, notre productivité économique s’accélère, le développement technologique s’accélère aussi, et ces accélérations ont de nombreuses conséquences, n’est-ce pas ? C’est ainsi que je comprends le terme « accélération ».
Guillaume Verdon :
Fondamentalement, quel que soit le périmètre défini pour un système, celui-ci devient de plus en plus compétent pour prédire le monde qui l’entoure. Grâce à cette capacité prédictive, il parvient à capter davantage de ressources pour sa propre survie et son expansion. Ce schéma s’applique aux entreprises, aux individus, aux États, voire à la planète entière.
Si nous prolongeons cette tendance, le résultat est le suivant : Nous avons trouvé un moyen de transformer l’énergie libre en capacité prédictive — c’est-à-dire l’IA. Cette capacité nous propulsera vers des niveaux supérieurs de l’échelle de Kardashev.
Cela signifie que nous disposerons de davantage d’énergie, de davantage d’IA, de davantage de puissance de calcul, et de davantage de ressources diverses. Bien que nous rejetions de l’entropie (du désordre) dans l’univers, nous créons simultanément de l’ordre. En réalité, nous obtenons de la « négentropie », c’est-à-dire l’opposé de l’entropie.
On pourrait parfois se demander : puisque l’entropie augmente, pourquoi ne pas tout détruire ? La réponse est que cela mettrait fin à la production d’entropie. La vie est l’état le plus « optimal », car elle ressemble à une flamme poursuivant l’énergie, devenant de plus en plus intelligente dans sa quête de sources énergétiques.
L’évolution naturelle suit ce chemin : Nous quitterons le puits gravitationnel terrestre pour rechercher d’autres « poches » d’énergie libre dans l’univers, et utiliserons cette énergie pour nous auto-organiser en systèmes de plus en plus complexes et intelligents, jusqu’à coloniser chaque recoin de l’univers.
C’est, en substance, l’objectif ultime de l’altruisme efficace (Effective Altruism, EA). Il s’aligne en partie sur la vision « muskienne » de l’expansion cosmique : une ambition cosmique et expansionniste.
L’e/acc fournit un principe directeur fondamental. Son idée centrale est la suivante : Quelle que soit la politique ou l’action que vous entreprenez dans le monde, si elle vous aide à progresser sur l’échelle de Kardashev, alors elle mérite d’être poursuivie — c’est là votre direction de vie.
L’e/acc est une heuristique méta, utilisable aussi bien pour concevoir des politiques que pour guider la vie personnelle. Pour moi, cette manière de penser constitue en soi une culture. Elle porte une forte dimension « méta-narrative », car elle est conçue pour s’appliquer à tout moment et dans toutes les conditions. C’est une culture à très haute universalité et longévité — autrement dit, une « culture Lindy » (Lindy culture) soigneusement conçue.
Le désaccord fondamental
Shaw Walters : Pour vous, ce débat revêt une signification plus profonde. Cela ressemble presque à un « système spirituel » mathématiquement cohérent. Pour ceux qui, depuis la mort de Dieu, n’ont pas trouvé de foi de remplacement, un tel système semble pouvoir combler le vide spirituel, apportant réconfort et espoir. Mais dans le même temps, nous ne pouvons ignorer sa portée concrète — il se déroule aujourd’hui. Je pense que c’est précisément ce que Eddy souhaite explorer.
Vitalik, j’ai remarqué que, dans votre blog, vous avez formulé des analyses très pertinentes sur certains problèmes concrets du d/acc. Lorsque nous aurons l’occasion d’approfondir ce sujet — je pense qu’un jour, nous devrions vous enfermer tous les deux dans une pièce pour un grand débat sur les questions quantiques.
Vitalik : Qu’est-ce qui vous a inspiré ? Selon vous, qu’est-ce que l’e/acc et le d/acc ?
Vitalik Buterin :
Pour moi, le d/acc signifie — son acronyme est « accélération défensive décentralisée », mais il inclut aussi les notions de « différenciation » et de « démocratisation ». Le principe central du d/acc est le suivant : L’accélération technologique est d’une importance vitale pour l’humanité — c’est là l’objectif fondamental vers lequel nous devons tendre.
Même si nous revenons sur le XXᵉ siècle, malgré les problèmes causés par le progrès technologique, celui-ci a aussi apporté d’innombrables bénéfices. Prenons l’espérance de vie : malgré les guerres et les troubles, l’espérance de vie moyenne en Allemagne en 1955 était supérieure à celle de 1935, ce qui montre que le progrès technologique a amélioré notre qualité de vie sous tous les angles.
Aujourd’hui, le monde est plus propre, plus beau, plus sain, plus intéressant. Il nourrit davantage de personnes et enrichit notre existence — des changements profondément positifs pour l’humanité.
Cependant, je crois que nous devons reconnaître que ces progrès ne sont pas fortuits, mais le fruit d’intentions humaines explicites. Par exemple, dans les années 1950, la pollution de l’air était sévère, les villes étaient envahies par les fumées. Les gens en ont pris conscience et ont pris des mesures pour y remédier. Aujourd’hui, dans de nombreux endroits, le problème des fumées s’est largement atténué. De même, nous avons affronté le trou dans la couche d’ozone, et obtenu des résultats remarquables grâce à une coopération mondiale.
En outre, je tiens à ajouter ceci : dans le contexte actuel de développement accéléré des technologies et de l’IA, je distingue deux risques principaux.
Le premier est le risque multipolaire. Il désigne le fait que, à mesure que la technologie se répand, de plus en plus de personnes pourraient l’utiliser pour accomplir des actes extrêmement dangereux. Imaginons un scénario extrême : la technologie évolue au point où « n’importe qui peut se procurer une arme nucléaire aussi facilement qu’un article dans un supermarché ».
Ensuite, il y a une autre inquiétude : l’IA elle-même. Nous devons sérieusement envisager la possibilité qu’elle développe une forme de conscience autonome. Une fois que ses capacités seront suffisamment puissantes pour agir sans intervention humaine, nous ne pourrons plus prévoir avec certitude ses décisions — une incertitude profondément troublante.
Il existe également un risque unipolaire. Je considère qu’une IA unique constitue déjà une menace potentielle. Pire encore, la combinaison de l’IA avec d’autres technologies modernes pourrait conduire à une dictature permanente inéluctable. Ce scénario me préoccupe vivement et reste l’un de mes sujets de prédilection.
Prenons l’exemple de la Russie : nous y voyons à la fois le progrès et les dangers. D’un côté, les conditions de vie se sont réellement améliorées ; de l’autre, la liberté sociale diminue. Si quelqu’un tente de protester, les caméras de surveillance enregistrent son geste, et une semaine plus tard, à 3 heures du matin, des agents viennent l’arrêter chez lui.
Le développement accéléré de l’IA amplifie cette tendance à la concentration du pouvoir. Ainsi, le d/acc cherche véritablement à tracer une voie de progression : poursuivre cette accélération, voire l’accélérer davantage, tout en affrontant réellement ces deux catégories de risques.
Comparaison entre e/acc et d/acc
Eddy Lazzarin : Votre propos signifie donc que le d/acc met davantage l’accent sur des catégories de risques ignorées ou sous-estimées dans le cadre de l’e/acc, n’est-ce pas ?
Vitalik Buterin :
Exactement. Je crois que le développement technologique comporte effectivement de multiples risques, dont la gravité varie selon les contextes et les modèles du monde. Par exemple, la vitesse d’accélération technologique peut modifier la hiérarchie des priorités entre ces risques.
Mais je crois aussi que nous pouvons adopter de nombreuses mesures efficaces pour faire face à ces risques, quelle que soit leur catégorie.
Guillaume Verdon :
Je pense que Vitalik et moi partageons une grande inquiétude face à la concentration excessive du pouvoir induite par l’IA. C’est d’ailleurs l’un des axes centraux du mouvement e/acc, notamment à ses débuts : il prône l’open source afin de décentraliser le pouvoir de l’IA.
Nous craignons que le concept de « sécurité de l’IA » ne soit détourné. Il est si séduisant que certaines institutions avides de pouvoir pourraient l’utiliser comme outil pour consolider leur contrôle sur l’IA, et persuader le public que, pour sa sécurité, l’accès aux outils d’IA doit être interdit aux citoyens ordinaires.
En effet, si un écart cognitif immense sépare les individus des institutions centralisées, ces dernières exerceront un contrôle total sur les premiers. Elles pourront construire un modèle complet de vos schémas mentaux et, via l’ingénierie des prompts, orienter efficacement vos comportements.
Ainsi, nous souhaitons rendre le pouvoir de l’IA plus symétrique. Tout comme le deuxième amendement de la Constitution américaine visait à empêcher le gouvernement de monopoliser la violence, afin que le peuple puisse le contrôler si celui-ci franchissait les limites, l’IA requiert un mécanisme similaire pour prévenir la concentration excessive du pouvoir.
Nous devons garantir que chacun puisse posséder son propre modèle et son propre matériel IA, afin que cette technologie se répande largement et décentralise le pouvoir.
Cependant, je crois qu’un arrêt complet de la recherche et du développement de l’IA est irréaliste. L’IA est une technologie fondamentale, voire une « méta-technologie » — une technologie capable de propulser d’autres technologies. Elle renforce notre capacité prédictive, s’applique à presque toutes les tâches et améliore radicalement l’efficacité. En somme, l’IA ne propulse pas seulement l’accélération, mais accélère aussi l’accélération elle-même.
Cette accélération prend la forme de la complexification : les choses deviennent plus efficaces, la vie plus pratique. Une raison de notre bonheur est que notre survie et la pérennité de nos informations sont assurées. Ce « sentiment de bonheur » peut être considéré comme un estimateur biologique interne, mesurant la probabilité de notre survie.
De ce point de vue, je pense que le cadre utilitariste hédoniste de l’altruisme efficace — « maximiser le bonheur » — n’est peut-être pas la meilleure perspective. Je préfère plutôt adopter une mesure objective du progrès, qui constitue justement le cœur du cadre e/acc. Il pose une question fondamentale : Objectivement parlant, notre civilisation progresse-t-elle constamment ? Réalise-t-elle des sauts d’échelle ?
Pour réaliser ces sauts d’échelle, nous devons pousser la complexification et améliorer continuellement nos technologies. Cependant, comme l’a souligné Vitalik, si le pouvoir de l’IA est trop concentré entre quelques mains, cela nuit à la croissance globale ; tandis que si cette technologie est largement dispersée, les résultats seront bien meilleurs.
Sur ce point, nous sommes profondément alignés.
Open source, matériel open source et intelligence locale
Shaw Walters : Je trouve que votre discussion vient de toucher des points communs très importants. Vous êtes tous deux manifestement très favorables à l’open source. Vitalik a contribué à de nombreux codes open source sous licence MIT, bien que je sache que vous avez depuis développé de nouvelles réflexions sur la licence GPL.
Aujourd’hui, vous ne soutenez plus seulement les logiciels open source, mais vous promouvez aussi le matériel open source. Bien que ces deux domaines aient longtemps été indépendants, nous observons aujourd’hui leur convergence progressive.
Je suis donc curieux de connaître votre vision des « poids ouverts » (open weights) et du matériel open source. Existe-t-il des divergences entre e/acc et d/acc sur ce point ? Quelle est votre vision de l’avenir ? Y a-t-il des points de désaccord ?
Guillaume Verdon :
Pour moi, l’open source accélère le processus de recherche d’hyperparamètres. Il nous permet de collaborer collectivement, en mobilisant la sagesse des foules pour explorer l’espace des conceptions. C’est précisément là que réside le bénéfice de l’accélération : Nous pouvons développer de meilleures technologies, des IA plus puissantes, voire utiliser l’IA pour concevoir des IA encore plus avancées — et l’ensemble de ce processus s’accélère continuellement.
Je pense que diffuser les connaissances, c’est aussi diffuser le pouvoir, et que la diffusion des savoirs sur « comment fabriquer de l’intelligence » est particul
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News












