
OpenAI dévoile le projet « Polaris » : la « grande crise de chômage de 2028 » pourrait bien devenir réalité
TechFlow SélectionTechFlow Sélection

OpenAI dévoile le projet « Polaris » : la « grande crise de chômage de 2028 » pourrait bien devenir réalité
En septembre, création d’un stagiaire IA capable de mener indépendamment des recherches scientifiques : cette fois, il ne s’agit peut-être pas d’une simple promesse creuse.
Récemment, un article intitulé « Prévisions pour 2028 » a largement circulé sur Internet. Selon cet article, les progrès de l’intelligence artificielle (IA) déclencheraient, dès 2028, une vague massive de licenciements : de nombreux emplois seraient remplacés par des systèmes d’IA.
Dès sa publication — aggravée par la détérioration de la situation au Moyen-Orient — l’article a fortement ébranlé la Bourse américaine ce jour-là. L’épisode semble presque fantastique : l’article en question a manifestement été rédigé par une IA, mais il résonne parfaitement avec les craintes profondes du public face à un « chômage massif provoqué par l’IA », ce qui explique son impact considérable.
Récemment, une information divulguée par OpenAI a toutefois conduit beaucoup à se demander si cette « crise de chômage de 2028 » ne serait pas, après tout, fondée.
Jakub Pachocki, chef scientifique d’OpenAI, a déclaré lors d’une interview exclusive accordée au MIT Technology Review une phrase glaçante : leur « étoile polaire » consiste à construire, d’ici 2028, un système de recherche entièrement automatisé reposant sur plusieurs agents intelligents.
D’ailleurs, la première étape de ce projet sera concrétisée dès septembre de cette année :
un « stagiaire-chercheur IA autonome », capable de traiter indépendamment des problèmes de recherche spécifiques.
Il ne s’agit ni d’un simple jalon inscrit dans une feuille de route produit, ni d’une déclaration impulsive d’Altman sur X. C’est bel et bien un pari stratégique sur lequel OpenAI engage l’intégralité de ses ressources.
La signification de l’« étoile polaire »
Lorsqu’une entreprise technologique évoque une « étoile polaire », cela signifie généralement deux choses : premièrement, toutes les autres initiatives doivent céder le pas ; deuxièmement, un consensus interne s’est déjà formé autour de cet objectif.
Les actions menées par OpenAI au cours des deux dernières semaines confirment largement cette analyse.
Le 19 mars, OpenAI a annoncé l’acquisition de la société d’outils pour développeurs Astral, dont l’équipe rejoint désormais le département Codex. Parallèlement, l’entreprise a dévoilé son intention d’intégrer ChatGPT, Codex et le navigateur web dans une seule application de bureau unifiée — une « super-application » pilotée par la responsable des applications Fidji Simo, avec Greg Brockman chargé d’accompagner la réforme organisationnelle.
L’ère des produits fragmentés est officiellement révolue : OpenAI concentre tous ses efforts sur une seule direction.
Cette direction vise précisément à permettre à l’IA de mener elle-même des recherches.
Le raisonnement de Pachocki est limpide : les modèles de raisonnement, les agents intelligents et l’interprétabilité — trois axes technologiques jusqu’alors développés séparément au sein d’OpenAI — doivent désormais converger vers un seul objectif : concevoir un « chercheur IA » capable de fonctionner de façon autonome, pendant de longues périodes, au sein d’un centre de données. Il affirme que, une fois cet objectif atteint, « c’est là-dessus que nous compterons véritablement ».
L’ancien chercheur d’OpenAI Andrej Karpathy va encore plus loin : « Tous les laboratoires de pointe travaillant sur les grands modèles linguistiques feront de même : c’est le combat final contre le boss ultime. » Il ajoute une remarque particulièrement éclairante : « Certes, la mise à l’échelle rendra tout plus complexe, mais il s’agit désormais d’un problème purement d’ingénierie — et ce problème sera résolu. »
Notez bien son choix de mots : il ne s’agit plus de savoir « si » cela sera possible, mais « quand » cela arrivera.
Anthropic passe à l’action
Le jour même où OpenAI dévoilait sa « étoile polaire », Anthropic lançait discrètement Claude Code Channels — une fonctionnalité permettant aux développeurs d’interagir directement, via Telegram et Discord, avec une instance de Claude Code en cours d’exécution.
Pris isolément, ce lancement paraît mineur ; placé dans le contexte général des tendances actuelles, il revêt une importance capitale.
La logique d’Anthropic est claire : plutôt que de simplement décrire aux développeurs ce que l’IA pourra faire demain, mieux vaut l’intégrer dès aujourd’hui dans leurs flux de travail réels. Telegram et Discord ne sont pas des articles académiques : ce sont les espaces où les programmeurs travaillent chaque jour. Faire vivre Claude Code dans ces environnements signifie qu’il cesse d’être un simple « outil » pour devenir un « collègue ».
Les réactions de la communauté viennent confirmer ce jugement.
Un utilisateur a ainsi commenté : « Avec cette mise à jour, Claude vient de mettre fin à OpenClaw — vous n’avez plus besoin d’acheter un Mac Mini. » Derrière cette phrase se cache une réalité essentielle : les améliorations apportées par Anthropic à son infrastructure ont fait disparaître tout avantage coûts des solutions open source.
Sur une échelle temporelle plus large, la cadence d’itération d’Anthropic sur Claude Code est effectivement remarquable. En quelques semaines seulement, ce dernier a intégré des capacités de traitement de texte, des milliers de compétences MCP et une capacité autonome de correction de bogues. Pendant qu’OpenAI renforce Codex par l’acquisition d’Astral, Anthropic introduit déjà Claude Code directement dans les fenêtres de discussion des développeurs.
Les deux entreprises visent le même objectif final, mais empruntent des voies radicalement différentes : OpenAI construit un « chercheur IA entièrement automatisé pour 2028 », tandis qu’Anthropic développe un « outil-agent intelligent utilisable dès aujourd’hui ».
Le véritable défi
Toutefois, un détail crucial ne doit pas être négligé.
Dans son interview exclusive, Pachocki a accompli un geste rare : il a abordé spontanément les défis liés à la sécurité et à la maîtrise de ces systèmes, et ce de façon remarquablement franche.
Il explique que leur approche consiste à utiliser d’autres grands modèles linguistiques pour « surveiller les notes prises par le chercheur IA », afin de détecter tout comportement inapproprié avant qu’il ne se produise. Il reconnaît toutefois immédiatement : « Notre compréhension actuelle des grands modèles linguistiques ne suffit pas à garantir un contrôle total sur eux. Pour pouvoir affirmer sérieusement que « ce problème est résolu », il faudra encore beaucoup de temps. »
Qu’un chef scientifique déclare ouvertement : « Nous ne maîtrisons pas encore pleinement ces systèmes », tout en annonçant qu’il livrera d’ici 2028 un système de recherche IA entièrement automatisé — cette juxtaposition mérite une réflexion approfondie de la part de chacun.
Cela ne signifie pas remettre en cause le projet, mais bien en saisir la difficulté réelle. Le simple fait que Pachocki puisse formuler une telle déclaration témoigne d’une lucidité interne chez OpenAI quant aux obstacles considérables qui jalonnent ce chemin.
Sur le plan technique, le « cycle de Karpathy » — ainsi nommé par les chercheurs — constitue une référence utile : un cadre d’automatisation réussie de la recherche IA repose sur trois éléments essentiels : un agent doté du droit de modifier un fichier individuel, une métrique unique et objectivement vérifiable, et une durée fixe d’expérimentation.
Ce cadre commence déjà à produire des résultats concrets dans des environnements réels. Tobias Lütke, PDG de Shopify, a ainsi partagé publiquement un cas d’usage : il a lancé un agent autoresearch pendant la nuit, et le lendemain matin, celui-ci avait exécuté 37 expériences, améliorant ainsi les performances du modèle de 19 %.
Du concept à la mise en œuvre pratique, ce chemin s’avère plus court que prévu.
L’avenir d’un abonnement à 20 000 dollars
Le projet « étoile polaire » n’est pas seulement un avantage technologique : il représente aussi un enjeu commercial décisif.
Une série de chiffres avancée par Paul Roetzer mérite une attention particulière : citant des prévisions internes d’OpenAI, il estime qu’en 2029, le secteur des agents intelligents génèrera à lui seul un chiffre d’affaires annuel de 29 milliards de dollars, incluant notamment un « agent-conseil » facturé 2 000 dollars par mois et un « agent-rechercheur » facturé 20 000 dollars par mois.
Ces chiffres montrent clairement que le « chercheur IA » n’est jamais uniquement un objectif technologique : c’est aussi une trajectoire commerciale bien définie.
Un « agent-rechercheur » à 20 000 dollars par mois représente, en termes de coût, une fraction seulement du salaire annuel d’un chercheur expérimenté — mais il peut travailler 24 heures sur 24, exécutant simultanément 37 expériences. Ce n’est donc pas simplement une question de substitution d’un individu spécifique, mais bien une redéfinition radicale de ce que signifie, en soi, la « productivité de la recherche ».
Cela rappelle la formule de Karpathy : « C’est le combat final contre le boss ultime. » Ce « boss », selon lui, n’est pas un concurrent humain, mais bien le plafond même des capacités de l’IA.
Dès lors que l’IA sera capable de faire progresser la recherche scientifique de façon autonome, la vitesse de son propre développement ne dépendra plus du nombre de chercheurs humains ni de leurs heures de travail.
Pachocki exprime la même idée, avec plus de retenue : « Dès que le système pourra fonctionner de façon autonome, pendant de longues périodes, au sein d’un centre de données, c’est là-dessus que nous compterons véritablement. »
Le « stagiaire-chercheur IA », attendu pour septembre 2026, n’est pas une fin en soi, mais un point de départ crucial.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News













