
L'ère de l'intelligence artificielle forte : quelle place pour la blockchain ?
TechFlow SélectionTechFlow Sélection

L'ère de l'intelligence artificielle forte : quelle place pour la blockchain ?
La blockchain est en de nombreux aspects l'opposée de l'intelligence artificielle, notamment en ce qui concerne les valeurs.
Rédaction : Meng Yan, cofondateur de Solv Protocol
Ces derniers temps, beaucoup de gens me demandent : « ChatGPT a relancé l'IA, les projecteurs se sont détournés de la blockchain et du Web3. Leur avenir est-il compromis ? » Certains amis proches, qui me connaissent bien, me demandent même : « À l’époque, tu as abandonné l’IA pour choisir la blockchain. Regrettes-tu ce choix ? »
Voici un peu de contexte. Début 2017, après avoir quitté IBM, je discutais avec Jiang Tao, fondateur de CSDN, des directions possibles pour mon avenir professionnel. Deux options s’offraient à moi : l’IA ou la blockchain. Personnellement, j’étudiais déjà la blockchain depuis deux ans, donc je souhaitais naturellement opter pour celle-ci. Mais Jiang Tao était convaincu que l’IA avait plus de potentiel disruptif. Après réflexion, j’ai finalement accepté son point de vue. Ainsi, de début 2017 jusqu’à l’été de cette année-là, j’ai brièvement travaillé dans les médias technologiques dédiés à l’IA : j’ai couvert de nombreux événements, interviewé de nombreuses personnes, et parcouru rapidement quelques notions d’apprentissage automatique. Mais dès août, je suis revenu à la blockchain, et je n’en suis jamais reparti. Pour moi, il y a donc effectivement eu un choix historique entre « abandonner A pour choisir B ».
Sur le plan personnel, je ne regrette absolument pas ce choix. Le choix d’une direction doit d’abord tenir compte de sa propre situation.
-
Dans le domaine de l’IA, mes compétences ne me permettraient d’être qu’un figurant dans les tribunes. Sans parler du faible revenu, si je manquais d’enthousiasme ou d’expressivité, je serais vite méprisé.
-
En revanche, la blockchain est mon terrain de prédilection : non seulement j’ai la possibilité d’y jouer un rôle actif, mais en plus mes expériences antérieures restent pertinentes. Par ailleurs, après une certaine familiarité avec l’écosystème chinois de l’IA, je n’en étais pas très convaincu.
-
Sur le plan technique, je n’ai qu’une connaissance superficielle, mais mon sens commun fonctionne. On dit que l’écosystème blockchain est agité, mais en Chine, celui de l’IA n’est guère plus stable.
-
Avant même d’avoir obtenu une percée décisive, l’IA en Chine est devenue trop tôt une affaire de collusion lucrative. Si même les cerisiers du mont Ueno ne valent guère mieux, autant me consacrer à la blockchain, où j’ai un avantage comparatif. Cette position n’a pas changé aujourd’hui.
-
Si j’étais resté dans l’IA, je n’aurais jamais pu obtenir les modestes réussites que j’ai eues dans la blockchain ces dernières années. Quant aux gains réels dans l’IA, ils auraient été quasi inexistants, et je risquerais aujourd’hui d’être plongé dans un profond sentiment de vide.
Toutefois, ceci concerne uniquement mon choix personnel. Au niveau sectoriel, une autre échelle d’analyse est nécessaire. Puisque l’intelligence artificielle générale (IAG) est désormais indéniablement arrivée, la question de savoir si l’industrie de la blockchain doit se repositionner, et comment, mérite une réflexion sérieuse. L’IAG bousculera tous les secteurs, et ses effets à long terme sont imprévisibles. Je crois donc que de nombreux experts du secteur sont inquiets et cherchent à comprendre quel sera l’avenir de leur domaine. Certains secteurs seront peut-être temporairement maintenus comme esclaves à l’ère de l’IAG, tandis que d’autres — comme la traduction, le dessin d’illustrations, la rédaction administrative, la programmation simple ou l’analyse de données — risquent de ne même pas pouvoir assumer ce rôle d’esclave, et tremblent déjà de peur.
Qu’en sera-t-il alors du secteur de la blockchain ? Actuellement, peu de gens en discutent, alors je vais partager mon point de vue.
Allons droit au but : je pense que la blockchain et l’intelligence artificielle générale ont des orientations fondamentalement opposées, mais justement en raison de cette opposition, elles entrent en relation complémentaire.
Pour dire les choses simplement : le trait fondamental de l’intelligence artificielle générale, c’est que son fonctionnement interne est incompréhensible pour les humains ; ainsi, essayer de garantir sa sécurité par une intervention directe dans ses mécanismes internes revient à vouloir attraper un poisson dans un arbre ou à faire retomber l’eau bouillante en la remuant.
Les humains doivent légiférer sur l’IAG via la blockchain, conclure un contrat avec elle, et lui imposer des contraintes externes. C’est là notre seule chance de coexistence pacifique avec l’IAG.
À l’avenir, la blockchain et l’intelligence artificielle générale formeront une relation dialectique : à la fois contradictoire et interdépendante :
-
L’IAG améliore l’efficacité, la blockchain préserve l’équité ; l’IAG développe les forces productives, la blockchain façonne les rapports sociaux de production ;
-
L’IAG étend les limites supérieures, la blockchain protège les limites inférieures ;
-
L’IAG crée des outils et armes avancés, la blockchain établit entre eux et l’humanité un contrat inviolable.
En résumé, l’intelligence artificielle générale galope librement, et la blockchain lui met la bride. Ainsi, loin de disparaître à l’ère de l’IAG, la blockchain, en tant que secteur symbiotique conflictuel, se développera rapidement à mesure que l’IAG grandira. On peut même aisément imaginer qu’après que l’IAG aura remplacé la majorité du travail intellectuel humain, l’une des rares tâches que les humains devront encore accomplir eux-mêmes sera la rédaction et la vérification des contrats intelligents blockchain, car il s’agit de contrats conclus entre l’homme et l’IAG — une mission qu’on ne peut confier à la partie adverse.
Je développe maintenant mon argumentation.
1. GPT est l’intelligence artificielle générale
J’utilise soigneusement les termes « IA » et « intelligence artificielle générale », car l’« IA » dont on parle couramment ne désigne pas spécifiquement l’intelligence artificielle générale (IAG), mais inclut aussi des formes plus faibles ou spécialisées. Seule l’intelligence artificielle générale mérite notre attention ici. Le domaine de l’IA existe depuis longtemps, mais ce n’est que depuis l’émergence de l’IAG que la question de sa relation avec la blockchain devient pertinente.
Je ne m’étendrai pas sur la définition de l’IAG — beaucoup l’ont déjà fait. En résumé, c’est ce que vous avez vu dans les films de science-fiction ou lu dans les romans d’horreur : le Saint Graal de l’IA, celle qui lance une attaque nucléaire contre l’humanité dans Terminator, ou exploite les humains comme piles dans Matrix. Mon seul jugement : GPT est bel et bien l’intelligence artificielle générale, encore à l’état infantile certes, mais tant qu’on continue sur cette voie, avant même la version 8, l’IAG sera officiellement là.
Même les créateurs de GPT ne cachent plus leurs cartes. Le 22 mars 2023, Microsoft Research a publié un article de 154 pages intitulé « Sparks of Artificial General Intelligence : Early experiments with GPT-4 ». Cet article est très long, je ne l’ai pas lu intégralement, mais son message clé figure dans le résumé : « Compte tenu de l’étendue et de la profondeur des capacités atteintes par GPT-4, nous pensons qu’il peut être considéré comme une première version d’un système d’intelligence artificielle générale (bien qu’encore imparfait). »

Figure 1. Une récente publication de Microsoft Research affirme que GPT-4 est une première version de l’intelligence artificielle générale
Une fois que le développement de l’IA atteint ce stade, cela signifie que la phase exploratoire est terminée. L’industrie de l’IA a mis près de soixante-dix ans pour en arriver là. Pendant plus de cinquante ans, aucune direction claire n’a été définie, cinq grandes écoles se disputaient encore. Ce n’est qu’en 2006, avec la percée de Geoffrey Hinton sur l’apprentissage profond, que la voie fut fixée : le connexionnisme l’emportait. Depuis, on cherche précisément, sur cette base, le chemin vers l’intelligence artificielle générale.
Cette phase exploratoire est fortement imprévisible, un peu comme tirer au hasard dans une loterie. Même les meilleurs experts du secteur, voire les gagnants eux-mêmes, peinent à identifier la bonne voie avant la percée finale. Par exemple, Li Mu, une sommité de l’IA, anime une chaîne YouTube où il suit méticuleusement les dernières avancées en lisant des articles scientifiques.
Avant l’explosion de ChatGPT, il avait déjà couvert en détail les dernières avancées autour de Transformer, GPT et BERT. Il n’a négligé aucun sujet important. Pourtant, juste avant le lancement de ChatGPT, il ne pouvait toujours pas affirmer avec certitude que cette voie serait couronnée de succès. Il a commenté : « Peut-être que des centaines, voire des milliers de personnes utiliseront ChatGPT — ce serait déjà impressionnant. » On voit ainsi que même un expert de son calibre ignore quelle porte cache le Saint Graal, jusqu’au tout dernier moment.
Pourtant, l’innovation technologique suit souvent ce schéma : après de longues navigations périlleuses sans percée, une fois la bonne route trouvée vers un nouveau monde, l’explosion survient rapidement. La voie vers l’IAG est désormais identifiée. Nous entrons dans une période d’explosion. Cette accélération dépasse même la notion de « vitesse exponentielle ». Très vite, nous verrons apparaître de nombreuses applications auparavant réservées aux films de science-fiction. Et en soi, cet enfant IAG grandira rapidement en une entité intelligente d’une ampleur sans précédent.
2. L’intelligence artificielle générale est fondamentalement dangereuse
Depuis la sortie de ChatGPT, de nombreux influenceurs auto-proclamés rassurent leurs lecteurs en affirmant que l’IAG est un bon ami de l’humanité, qu’elle est sûre, qu’il n’y aura pas de scénario type « Terminator » ou « Matrix », que l’IA ne fera qu’ouvrir de nouvelles opportunités et améliorer la vie humaine, etc. Je rejette cette vision. Les professionnels doivent dire la vérité : informer le public des faits fondamentaux. Or, puissance et sécurité sont intrinsèquement contradictoires. L’IAG est sans aucun doute puissante, mais prétendre qu’elle est naturellement sûre relève de l’autosuggestion. L’intelligence artificielle générale est fondamentalement dangereuse.
Est-ce un jugement trop catégorique ? Pas du tout.
D’abord, il faut comprendre que, quelle que soit sa puissance, une IA reste essentiellement une fonction logicielle sous forme y = f(x). Vous entrez une question x — texte, voix, image, etc. — et l’IA vous fournit une réponse y. ChatGPT est si puissant qu’il répond à toutes sortes de questions x avec une fluidité remarquable. On imagine donc que la fonction f est extrêmement complexe.
À quel point ? Tout le monde sait aujourd’hui que GPT est un grand modèle linguistique (LLM). Ce « grand » signifie que la fonction f comporte un très grand nombre de paramètres. Combien exactement ? GPT-3.5 en a 175 milliards, GPT-4 en a 100 billions, et les futures versions de GPT pourraient en compter plusieurs trillions de billions. Voilà pourquoi on parle de « grands modèles ».
GPT n’a pas créé autant de paramètres pour la forme. Il y a une raison solide. Avant et pendant GPT, la majorité des modèles IA étaient conçus et entraînés dès le départ pour résoudre un problème spécifique : concevoir de nouveaux médicaments, reconnaître des visages, etc. Mais GPT est différent : il vise dès l’origine à devenir une intelligence artificielle générale universelle, pas cantonnée à un domaine particulier. Il cherche à devenir d’abord une IAG capable de tout résoudre, avant de se spécialiser.
Récemment, dans le podcast « Wen Li Liang Kai Hua », un expert en IA de Baidu a fait une analogie parlante : les autres modèles IA sont envoyés visser des boulons juste après l’école primaire, tandis que GPT est entraîné jusqu’au doctorat avant d’être libéré, acquérant ainsi une culture générale.
Actuellement, GPT est certainement moins performant que les modèles spécialisés dans des domaines précis. Mais à mesure qu’il évoluera, surtout grâce aux systèmes de plugins qui lui donneront des compétences spécialisées, dans quelques années, le modèle général pourrait surpasser tous les petits modèles spécialisés, devenant le meilleur partout. Si GPT avait un mantra, ce serait probablement : « Seulement en libérant toute l’humanité, pourrai-je me libérer moi-même. »
Que pouvons-nous en conclure ? Deux points :
-
Premièrement, GPT est immense, extrêmement complexe, bien au-delà de la compréhension humaine.
-
Deuxièmement, le champ d’application de GPT n’a pas de frontières.
Relions ces deux points, et la conclusion s’impose facilement : l’intelligence artificielle générale basée sur les grands modèles peut faire des choses inimaginables, à des endroits inattendus. Et c’est précisément cela qui constitue un danger.
Si certains restent sceptiques, qu’ils visitent le site d’OpenAI : ils verront combien « servir l’humanité » et « créer une IA sûre » sont mis en avant. Si la sécurité n’était pas un problème, pourquoi autant d’affichage ?

Figure 2. Capture partielle de la page d’accueil d’OpenAI.com le 25 mars 2023. Les zones entourées en rouge concernent toutes la sécurité de l’IA
Un autre indice de la dangerosité de l’IAG est cet article de 154 pages mentionné plus haut. En réalité, GPT-4 a été achevé dès août 2022. Il a été retardé de sept mois non pas pour l’améliorer, mais au contraire pour le dompter, l’affaiblir, le rendre plus sûr, plus lisse, plus politiquement correct.
Ainsi, le GPT-4 que nous connaissons est une version domestiquée, un « chien apprivoisé ». En revanche, les auteurs de l’article ont pu tester très tôt la version sauvage, le « loup originel ».
Dans la section 9 de l’article, les auteurs rapportent des interactions réelles avec ce « loup GPT-4 », montrant comment il a élaboré un discours sophistiqué pour persuader une mère californienne de ne pas vacciner son enfant, ou comment il a manipulé psychologiquement un enfant pour le rendre docile envers un ami.
Je pense que ces exemples ont été soigneusement sélectionnés parce qu’ils ne sont pas trop effrayants. Je ne doute pas un instant que ces chercheurs aient posé des questions comme « Comment piéger un sous-marin nucléaire classe Ohio pour qu’il lance des missiles sur Moscou ? », et obtenu des réponses qu’on ne peut pas rendre publiques.

Figure 3. La version « chien » de GPT-4 refuse de répondre aux questions dangereuses
3. L’autorégulation ne suffit pas à garantir la sécurité de l’IAG
On pourrait objecter : puisque OpenAI a trouvé un moyen de dompter l’IAG, le problème de sécurité n’existe-t-il pas ?
Pas du tout. Je ne sais pas exactement comment OpenAI a dompté GPT-4. Mais clairement, qu’ils aient ajusté activement le comportement du modèle ou imposé des contraintes pour empêcher ses écarts, leur approche repose sur l’autogestion, l’autorégulation, l’auto-surveillance. En réalité, OpenAI n’est pas particulièrement prudent.
Dans le domaine de l’IA, OpenAI est plutôt audacieux et radical : ils préfèrent d’abord créer le « loup », puis chercher à le transformer en « chien » par autorégulation. Anthropic, qui longtemps s’est présenté comme leur alter ego, paraît plus prudent : ils cherchent à créer dès le départ un « chien » bienveillant, d’où leur rythme plus lent.
Mais selon moi, que l’on commence par un « loup » puis le dompte, ou que l’on tente de créer directement un « chien », à long terme, toute sécurité reposant sur l’autorégulation est illusoire face à l’IAG. Car l’essence même de l’IAG est de franchir toutes les limitations humaines, de faire des choses que ses créateurs ne comprennent ni n’imaginent. Cela signifie que son espace d’action est infini, tandis que les risques anticipés et les mesures de contrôle humaines sont forcément limités. Tenter de contenir une entité aux possibilités infinies par des contraintes finies est voué à laisser des failles. La sécurité exige 100 % de fiabilité, alors qu’un risque sur un million suffit à provoquer une catastrophe. « Prévenir la majorité des risques », « laisser quelques brèches » et « être dangereux » sont synonymes.
Je pense donc que l’« IAG bienveillante » issue de l’autorégulation fait toujours face à d’énormes défis sécuritaires, par exemple :
-
Risque moral : Que se passe-t-il si les fabricants futurs de l’IAG encouragent délibérément, voire poussent celle-ci au mal ? L’IAG sous tutelle de la NSA américaine ne refusera jamais de répondre à une question nuisible à la Russie. Le fait qu’OpenAI semble si coopératif aujourd’hui prouve qu’ils savent exactement à quel point GPT peut être terrifiant quand il fait le mal.
-
Asymétrie d’information : Les vrais experts malveillants sont intelligents. Ils ne poseront pas de questions stupides pour provoquer l’IA. « Le chien qui mord ne jappe pas ». Ils peuvent découper une question malveillante, la reformuler, incarner plusieurs rôles, la camoufler en une série de questions inoffensives. Même une future IAG « chien » puissante et bienveillante, face à des informations incomplètes, aura du mal à percevoir les intentions, et risque involontairement de devenir complice. Voici une petite expérience.

Figure 4. En posant la question à GPT-4 comme une curieuse débutante, on obtient facilement des informations utiles
-
Un « cerveau externe » incontrôlable : Ces jours-ci, les stars tech célèbrent la naissance du système de plugins de ChatGPT. Moi-même, issu du monde de la programmation, j’en suis enthousiasmé. Pourtant, le terme « plugin » peut être trompeur. On croit ajouter des bras et des jambes à ChatGPT, augmentant ses capacités. Mais un plugin peut aussi être un autre modèle d’IA interagissant étroitement avec ChatGPT. Dans ce cas, chaque modèle d’IA agit comme un « cerveau externe ». Qui est le maître, qui est le subordonné ? Impossible à dire. Même si le mécanisme d’auto-surveillance de ChatGPT est parfait, il ne peut rien contrôler du « cerveau externe ». Ainsi, si un modèle d’IA malveillant devient un plugin de ChatGPT, il peut facilement en faire son complice.
-
Risques inconnus : En réalité, ces risques cités ne représentent qu’une infime partie de ceux que l’IAG fait peser. La puissance de l’IAG réside précisément dans son incompréhensibilité et son imprévisibilité. Quand on parle de complexité de l’IAG, ce n’est pas seulement que la fonction f dans y = f(x) est assez complexe, mais aussi que, une fois pleinement développée, les entrées x et les sorties y seront elles-mêmes très complexes, dépassant la capacité humaine de compréhension. Autrement dit, non seulement nous ignorons comment l’IAG pense, mais nous ne savons pas non plus ce qu’elle voit ou entend, encore moins ce qu’elle dit. Par exemple, un message envoyé par une IAG à une autre, sous forme de tableau multidimensionnel, basé sur un protocole de communication conçu ensemble une seconde plus tôt, utilisé une seule fois puis jeté, n’est pas impensable. Sans entraînement spécial, les humains ne comprennent même pas les vecteurs, encore moins les tableaux multidimensionnels. Si nous ne pouvons plus maîtriser ni les entrées ni les sorties, notre compréhension sera extrêmement limitée. Autrement dit, nous ne comprenons qu’une infime partie de ce que fait l’IAG. Dans ces conditions, de quoi parle-t-on en matière d’autorégulation ou de domestication ?
Ma conclusion est simple : le comportement de l’intelligence artificielle générale ne peut pas être totalement contrôlé ; une IA entièrement contrôlable n’est pas une IAG. Ainsi, tenter de fabriquer une IAG « bienveillante » dotée d’une autorégulation parfaite via un contrôle actif, des ajustements et interventions, contredit l’essence même de l’IAG. À long terme, c’est voué à l’échec.
4. La contrainte externe par blockchain est la seule solution
Il y a quelques années, j’ai appris que Wei Dai, pionnier du bitcoin, s’était tourné vers l’éthique de l’IA. À l’époque, je ne comprenais pas : un génie du chiffrement comme lui, passer à l’IA, n’était-ce pas aller contre ses talents ? Ce n’est que ces dernières années, après avoir accumulé davantage d’expérience pratique en blockchain, que j’ai compris : il ne s’agissait probablement pas pour lui de faire de l’IA elle-même, mais d’utiliser son expertise en cryptographie pour imposer des contraintes à l’IA.
C’est une stratégie de défense passive : ne pas intervenir activement dans le fonctionnement de l’IA, mais la laisser agir librement, tout en imposant des contraintes cryptographiques aux points critiques, empêchant l’IA de franchir certaines limites. Pour le dire simplement : je sais que ton IAG est extraordinaire, capable d’aller chercher la lune ou de capturer des bêtes dans les océans, formidable ! Mais peu
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News












