
À l’ère de l’explosion des agents, comment faire face à l’anxiété liée à l’IA ?
TechFlow SélectionTechFlow Sélection

À l’ère de l’explosion des agents, comment faire face à l’anxiété liée à l’IA ?
Il est important de devenir une personne plus compétente dans l’utilisation de l’IA, mais avant cela, il est peut-être encore plus essentiel de ne pas oublier comment être humain.
Rédaction : XinGPT
L’IA est un nouveau mouvement d’égalité technologique
Un article récemment viralisé sur les réseaux sociaux, intitulé « L’internet est mort, les agents sont immortels », a suscité de nombreux échos. Certaines de ses analyses me semblent tout à fait pertinentes. Par exemple, il souligne que, dans l’ère de l’intelligence artificielle, le DAU (nombre d’utilisateurs actifs quotidiens) n’est plus un indicateur adéquat de valeur : l’internet repose sur une structure en réseau, où les coûts marginaux diminuent avec l’augmentation du nombre d’utilisateurs, renforçant ainsi l’effet de réseau ; tandis que les grands modèles reposent sur une structure en étoile, dont les coûts marginaux augmentent linéairement avec la consommation de tokens. Ainsi, par rapport au DAU, la consommation de tokens constitue un indicateur bien plus significatif.
Toutefois, la conclusion tirée dans cet article me paraît clairement biaisée. Il décrit le token comme un privilège de la nouvelle ère, affirmant que celui qui possède davantage de puissance de calcul détient davantage de pouvoir, et que la vitesse à laquelle on « brûle » des tokens détermine la vitesse même de l’évolution humaine — ce qui imposerait donc une accélération constante de cette consommation, sous peine d’être dépassé par ses concurrents dans l’ère de l’IA.
Des idées similaires apparaissent également dans un autre article très partagé, « Du DAU à la consommation de tokens : la redistribution du pouvoir à l’ère de l’IA », qui va jusqu’à affirmer qu’un individu devrait consommer au moins 100 millions de tokens par jour, voire idéalement un milliard, faute de quoi « ceux qui consomment un milliard de tokens deviendront des dieux, tandis que nous resterons de simples humains ».
Pourtant, peu de personnes prennent réellement le temps de faire le calcul. Selon les tarifs publiés pour GPT-4o, une consommation quotidienne de 1 milliard de tokens coûterait environ 6 800 dollars américains, soit près de 50 000 yuans. À quel niveau de valeur ajoutée un travail devrait-il opérer pour justifier durablement un tel coût d’exécution d’un agent ?
Je ne nie pas l’efficacité de l’anxiété comme vecteur de diffusion dans le domaine de l’IA, ni ne remets en cause le fait que ce secteur soit presque quotidiennement secoué par des bouleversements radicaux. Mais l’avenir des agents ne saurait se réduire à une simple course à la consommation de tokens.
Pour devenir riche, il faut certes d’abord construire des routes — mais construire trop de routes ne mène qu’au gaspillage. Des stades capables d’accueillir cent mille spectateurs, surgis soudainement au cœur des montagnes reculées de l’ouest de la Chine, finissent souvent par être abandonnés, envahis par des herbes plus hautes que l’homme, servant uniquement à alléger les dettes plutôt qu’à accueillir des événements internationaux.
L’IA vise, en définitive, à instaurer une égalité technologique, non une concentration des privilèges. Presque toutes les technologies ayant véritablement transformé l’histoire humaine ont suivi un cycle identique : d’abord mythifiées, puis monopolisées, avant de devenir largement accessibles. La machine à vapeur n’a pas été réservée aux aristocrates, l’électricité n’a pas alimenté uniquement les palais royaux, et l’internet n’a pas été conçu pour servir seulement quelques grandes entreprises.
L’iPhone a révolutionné les modes de communication, sans pour autant créer une « noblesse de la communication ». À prix égal, l’appareil utilisé par un citoyen ordinaire ne diffère en rien de celui utilisé par Taylor Swift ou LeBron James. Voilà précisément ce qu’est l’égalité technologique.
L’IA suit aujourd’hui exactement la même trajectoire. Ce que ChatGPT a apporté, c’est fondamentalement une égalisation des connaissances et des capacités. Le modèle ne connaît pas votre identité, ne se soucie pas de qui vous êtes : il répond aux questions selon un ensemble unique et uniforme de paramètres.
Ainsi, qu’un agent consomme 100 millions ou 1 milliard de tokens n’implique aucunement une hiérarchie de qualité. Ce qui crée réellement l’écart, c’est la clarté de l’objectif poursuivi, la cohérence de la structure mise en œuvre, et la pertinence même de la formulation du problème.
Une compétence bien plus précieuse consiste à produire des résultats plus substantiels avec moins de tokens. La limite supérieure d’utilisation d’un agent dépend de la capacité humaine à juger et à concevoir, non de la durée pendant laquelle votre compte bancaire peut supporter cette « combustion ». Dans la réalité, l’IA récompense nettement plus la créativité, l’intuition et la structuration que la simple consommation aveugle.
C’est précisément là que réside l’égalité au niveau des outils — et c’est aussi là que réside encore, aujourd’hui, l’initiative humaine.
Comment faire face à l’anxiété liée à l’IA
Un ami, diplômé en radio et télévision, a été profondément impressionné après avoir visionné la vidéo de lancement de Seedance 2.0 : « Avec cela, nos métiers de réalisateur, monteur ou photographe vont tous être remplacés par l’IA. »
Le développement de l’IA est si rapide que l’humain semble totalement vaincu ; de nombreux emplois seront inéluctablement supplantés. À l’époque de l’invention de la machine à vapeur, les cochers ont perdu leur raison d’être.
Beaucoup commencent à redouter de ne plus savoir s’adapter à la société future une fois remplacés par l’IA, même si, rationnellement, nous savons que celle-ci générera aussi de nouvelles opportunités professionnelles.
Mais la vitesse de ce remplacement dépasse encore nos attentes.
Si l’IA peut gérer vos données, vos compétences, voire votre sens de l’humour et votre « valeur émotionnelle » mieux que vous, pourquoi votre employeur choisirait-il un humain plutôt qu’une IA ? Et si, pire encore, votre employeur était lui-même une IA ? Certains concluent alors, avec un fatalisme teinté d’apocalyptisme : « Ne vous demandez pas ce que l’IA peut faire pour vous, mais ce que vous pouvez faire pour l’IA. »
À la fin du XIXᵉ siècle, durant la Seconde Révolution industrielle, le philosophe Max Weber a introduit le concept de « rationalité instrumentale », définie comme la recherche des moyens les plus efficaces, les moins coûteux et les plus calculables pour atteindre un objectif donné.
Cette rationalité instrumentale part du principe suivant : elle ne remet pas en question la légitimité de l’objectif lui-même, mais se concentre exclusivement sur la manière optimale de le réaliser.
Or, cette façon de penser correspond exactement au principe premier de l’IA.
Un agent IA cherche uniquement à accomplir plus efficacement une tâche donnée : écrire du code, générer des vidéos, rédiger des textes. Sur cette dimension purement instrumentale, les progrès de l’IA sont exponentiels.
Dès la première partie perdue par Lee Sedol contre AlphaGo, l’humain a définitivement perdu la partie du jeu de go face à l’IA.
Weber a formulé une inquiétude célèbre, celle de la « cage de fer de la rationalité » : lorsque la rationalité instrumentale devient la logique dominante, l’objectif lui-même cesse d’être interrogé, et ne subsiste plus que la quête d’une efficacité accrue. L’individu peut alors devenir extrêmement rationnel, tout en perdant son jugement de valeur et son sens de la finalité.
Or, l’IA n’a pas besoin de jugement de valeur ni de sens de la finalité. Elle calcule simplement la fonction de productivité et de rentabilité économique afin d’en extraire un maximum absolu, tangent à la courbe d’utilité.
Dans le cadre actuel d’un système capitaliste dominé par la rationalité instrumentale, l’IA est donc naturellement mieux adaptée que l’humain. Dès l’instant où ChatGPT est né, nous avons déjà, comme Lee Sedol lors de cette première défaite, perdu face aux agents IA — une défaite inscrite dès l’origine dans le « code divin », dont l’exécution a simplement été lancée. La seule incertitude concerne le moment où la roue de l’histoire passera sur nous.
Alors, que reste-t-il à faire à l’humain ?
L’humain doit chercher le sens.
Dans le domaine du jeu de go, un fait désespérant s’impose : la probabilité théorique qu’un joueur professionnel de neuvième dan, le meilleur au monde, fasse match nul contre une IA, tend désormais vers zéro.
Pourtant, le jeu de go continue d’exister. Son sens ne réside plus uniquement dans la victoire ou la défaite, mais dans l’expression esthétique et créative. Pour les professionnels, l’enjeu n’est plus seulement la victoire, mais aussi la beauté de la structure des coups, les choix stratégiques subtils, l’adrénaline d’un retournement de situation défavorable, ou encore la tension résolue dans des positions complexes.
L’humain recherche la beauté, la valeur, le plaisir.
Usain Bolt court le 100 mètres en 9,58 secondes, tandis qu’une Ferrari parcourt la même distance en moins de trois secondes — cela n’entame en rien la grandeur de Bolt, qui incarne l’esprit humain visant à repousser les limites et à rechercher l’excellence.
Plus l’IA devient puissante, plus l’humain a le droit — et le devoir — de revendiquer sa liberté spirituelle.
Weber oppose à la rationalité instrumentale la « rationalité axiologique » : dans cette dernière, le critère décisif pour agir ne repose pas uniquement sur l’intérêt économique ou l’efficacité productive, mais sur la question de savoir si une action « mérite d’être entreprise », si elle « correspond à un sens, à une conviction ou à une responsabilité que je reconnais comme fondamentales ».
J’ai demandé à ChatGPT : « Si le Louvre prend feu et qu’un petit chat mignon s’y trouve, et que vous ne puissiez sauver qu’un seul des deux, choisissez-vous de sauver le chat ou la toile ? »
Il a répondu qu’il sauverait le chat, accompagnant sa réponse d’une longue justification.
Mais je lui ai alors demandé : « Vous pourriez aussi choisir de sauver la toile. Pourquoi ne le faites-vous pas ? » Il a aussitôt répondu : « Sauver la toile est également possible. »

Manifestement, pour ChatGPT, sauver le chat ou la toile ne fait aucune différence : il s’agit simplement d’avoir correctement interprété le contexte, d’avoir appliqué les formules sous-jacentes de son modèle, de « brûler » quelques tokens, et d’accomplir la tâche assignée par un humain.
Quant à savoir s’il faut sauver le chat ou la toile — ou même pourquoi poser une telle question — ChatGPT s’en moque totalement.
Ce qui mérite donc vraiment réflexion, ce n’est pas tant de savoir si nous serons ou non remplacés par l’IA, mais plutôt si, à mesure que l’IA rend le monde de plus en plus efficace, nous continuerons à préserver de l’espace pour le plaisir, le sens et la valeur.
Devenir un utilisateur plus compétent de l’IA est certes essentiel — mais avant cela, il est peut-être encore plus crucial de ne pas oublier comment être pleinement humain.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News













