
Premier podcast officiel d'OpenAI : Sam Altman dévoile les détails sur GPT-5, Stargate et la prochaine génération de matériel d'intelligence artificielle
TechFlow SélectionTechFlow Sélection

Premier podcast officiel d'OpenAI : Sam Altman dévoile les détails sur GPT-5, Stargate et la prochaine génération de matériel d'intelligence artificielle
« La confidentialité doit devenir un principe fondamental de l'utilisation de l'IA. »
Rédaction : Youxin
Le 19 juin, OpenAI a publié son tout premier podcast officiel, lors duquel le PDG Sam Altman a répondu pour la première fois de manière systématique aux questions portant sur le calendrier de développement de GPT-5, le projet Stargate, le développement de nouveaux terminaux d’intelligence artificielle, les controverses autour des capacités de mémoire des modèles, ainsi que l’évolution structurelle de la société après l’arrivée de l’AGI.
Altman s’est exprimé à la fois en tant que « nouveau père » partageant son expérience concrète d’utilisation de l’IA dans l’éducation et l’éducation des enfants, et en tant que décideur d’entreprise dévoilant les choix cruciaux auxquels OpenAI est confronté : comment maintenir un équilibre entre saut technologique, limites de la vie privée et structures de confiance.
« Mes enfants ne seront jamais plus intelligents que l’IA, mais ils deviendront bien plus forts que notre génération », a-t-il reconnu dans le podcast. Selon lui, cette génération grandira dans un monde entièrement imprégné d’IA, où leur dépendance, compréhension et interaction avec les systèmes intelligents seront aussi naturelles que l’habitude des smartphones chez la génération précédente. Le nouveau rôle des modèles comme ChatGPT dans la compagnie familiale, l’éveil cognitif, le travail et le développement de la créativité ouvre déjà une nouvelle ère.
L’IA devient l’environnement même de croissance des générations futures
Altman a souligné que, bien que la société n’ait pas encore défini clairement ce qu’est l’AGI, « chaque année, de plus en plus de personnes penseront que nous avons atteint des systèmes AGI ». À ses yeux, les besoins du public en matière de matériel et de logiciel évoluent extrêmement rapidement, tandis que la puissance de calcul actuelle reste loin de répondre pleinement à ces demandes latentes.
Évoquant son statut récent de père, il a admis que ChatGPT lui avait été d’une grande aide dès les premiers jours de la parentalité. « Beaucoup ont réussi à élever leurs enfants sans ChatGPT, mais je ne suis pas sûr d’avoir pu y arriver moi-même. » Après avoir traversé les premières semaines où « tout devait être demandé », il s’est progressivement concentré sur le rythme de développement et les habitudes comportementales des nourrissons. Il a noté que ces outils d’IA commencent désormais à jouer un rôle d’« intermédiaire informationnel » et de « renforcement de la confiance » dans l’éducation des enfants.
Plus largement, Altman réfléchit également à l’impact de l’IA sur les trajectoires de croissance des générations futures. Il affirme sans détour : « Mes enfants ne seront jamais plus intelligents que l’IA, mais ils deviendront bien plus forts que notre génération », insistant sur le fait que ces enfants grandiront naturellement dans un environnement où l’IA est omniprésente, et que leur dépendance et interaction avec elle seront aussi instinctives que l’utilisation du smartphone au cours de la dernière décennie.
Il a relaté une anecdote virale sur les réseaux sociaux : un père, souhaitant éviter de répéter l’histoire du petit train Thomas à son enfant, a importé les personnages dans le mode vocal de ChatGPT — résultat, l’enfant a dialogué pendant plus d’une heure avec l’IA. Ce phénomène suscite chez Altman une inquiétude profonde : l’extension du rôle de compagnonnage de l’IA pourrait provoquer une « altération des relations sociales », posant de nouveaux défis à la structure sociale. Il souligne qu’il faut redéfinir les limites, tout en rappelant que l’humanité a toujours trouvé des moyens de faire face aux chocs induits par les nouvelles technologies.
Dans le domaine éducatif, Altman observe un potentiel positif de ChatGPT en classe. « Avec de bons enseignants et de bons programmes, ChatGPT fonctionne très bien », reconnaît-il, tout en admettant que lorsque les élèves l’utilisent seuls pour leurs devoirs, cela tend à devenir un simple « copier-coller façon Google ». Prenant son propre exemple, il rappelle que l’on craignait autrefois que « les jeunes ne sachent que faire des recherches sur Google », mais finalement, enfants et écoles se sont vite adaptés aux changements induits par les nouveaux outils.
Interrogé sur l’apparence future de ChatGPT dans cinq ans, Altman affirme : « Le ChatGPT de dans cinq ans sera une chose complètement différente », même si le nom peut rester inchangé, ses capacités, modes d’interaction et positionnement subiront une transformation fondamentale.
L’AGI, une définition dynamique ; le bond en avant de la recherche approfondie
Abordant le terme très discuté d’« AGI », Sam Altman propose une interprétation plus dynamique. Il explique : « Si vous m’aviez demandé il y a cinq ans, ou à quelqu’un d’autre, de définir l’AGI selon les capacités cognitives des logiciels de l’époque, alors cette définition aurait aujourd’hui été largement dépassée. » À mesure que l’intelligence des modèles progresse, la barre de l’AGI monte continuellement, adoptant un état de « déplacement dynamique ».
Il insiste sur le fait que certains systèmes permettent déjà d’améliorer significativement l’efficacité humaine et d’exécuter des tâches ayant une valeur économique. La vraie question serait donc : quel type de système peut-on qualifier de « super-intelligence » ? Pour lui, un système capable de découvertes scientifiques autonomes, ou de multiplier fortement l’efficacité de nos découvertes scientifiques, serait proche de ce seuil. « Ce serait une chose extrêmement bénéfique pour le monde. »
Cette vision trouve déjà un écho au sein d’OpenAI. Andrew Mane raconte que lorsqu’ils ont testé GPT-4, ils ont eu le sentiment que « dix ans d’espace exploratoire venaient de s’ouvrir ». En particulier, le moment où le modèle pouvait s’appeler lui-même et montrer des capacités de raisonnement élémentaires a fait prendre conscience de nouvelles possibilités.
Altman approuve et ajoute : « J’ai toujours cru fermement que le moteur principal de l’amélioration de la qualité de vie humaine, c’est la vitesse des progrès scientifiques. » Le ralentissement des découvertes scientifiques est un frein fondamental au développement humain, et le potentiel de l’IA dans ce domaine n’a pas encore été pleinement exploité. Bien qu’il reconnaisse ne pas encore maîtriser entièrement le chemin vers la « recherche autonome par IA », la confiance de l’équipe dans la direction prise augmente rapidement. Il explique que, de GPT-4.0.1 à GPT-4.0.3, une nouvelle idée clé émerge toutes les quelques semaines, presque toutes efficaces – un rythme enthousiasmant qui confirme sa conviction : « Les percées arrivent soudainement. »
Andrew Mane complète en indiquant qu’OpenAI a récemment basculé par défaut vers GPT-4.0.3, dont la mise à jour la plus importante est l’introduction du mode Operator. Selon lui, de nombreux systèmes Agentic antérieurs promettaient beaucoup, mais manquaient de « résilience » : dès qu’un cas anormal survenait, ils s’effondraient. GPT-4.0.3, en revanche, se comporte différemment. Altman répond : « Beaucoup me disent que leur moment de rupture vers l’AGI, ce fut le mode Operator de GPT-4.0.3. » Même s’il n’a pas personnellement ressenti cet effet aussi fortement, il considère précieux les retours externes des utilisateurs.
Les deux hommes approfondissent ensuite la discussion sur les nouvelles capacités offertes par la « recherche approfondie (Deep Research) ». Andrew explique qu’en utilisant cet outil pour étudier Marshall McLuhan, l’IA a pu chercher, filtrer, organiser des matériaux en ligne et produire un dossier complet, plus efficacement que lui-même en faisant la recherche manuellement. Il a même développé une application transformant les questions en fichiers audio, répondant au besoin d’utilisateurs « à mémoire limitée mais curiosité intense ».
Altman partage aussitôt un autre usage extrême : un « accro de l’apprentissage » utilise Deep Research pour générer des rapports complets sur divers sujets d’intérêt, passant ses journées à lire, poser des questions, itérer, totalement immergé dans un cycle d’apprentissage piloté par l’IA.
Bien qu’Altman avoue ne pas avoir suffisamment de temps pour utiliser pleinement ces outils, il préfère consacrer son temps limité à lire les contenus produits par Deep Research.
Avec le renforcement continu des fonctionnalités et la diversification des scénarios d’utilisation, l’attention portée au modèle suivant ne cesse de croître. Andrew pose directement la question la plus brûlante : quand GPT-5 sera-t-il lancé ? Altman répond : « Peut-être cet été, mais je ne connais pas exactement la date. » Il révèle que l’équipe interne débat régulièrement de la question suivante : le nouveau modèle doit-il encore être annoncé de manière spectaculaire comme auparavant, ou bien doit-on continuer à itérer silencieusement comme avec GPT-4, sans changer le nom ?
Il explique davantage que l’architecture actuelle des modèles est bien plus complexe qu’auparavant, et n’est plus un processus linéaire du type « un entraînement, une sortie », mais un système dynamique permettant des optimisations continues. « Nous réfléchissons justement à cela : si nous mettons à jour GPT-5 en permanence après sa sortie, devrions-nous l’appeler GPT-5.1, 5.2, 5.3, ou garder simplement GPT-5 ? » Les préférences divergentes des utilisateurs rendent la décision plus complexe : certains veulent des versions figées, d’autres souhaitent des améliorations continues, mais il est difficile d’établir une frontière claire.
Andrew souligne que même les personnes ayant une solide formation technique peuvent être perdues dans le choix des modèles. Par exemple, choisir entre O3, O4 Mini, O4 Mini High, etc., la non-uniformité des noms accentue la difficulté.
À ce sujet, Altman fournit un éclairage contextuel : c’est en réalité un « sous-produit du changement de paradigme ». Actuellement, le système fonctionne un peu comme s’il exécutait simultanément deux architectures de modèles, mais cet état chaotique touche à sa fin. Il ajoute qu’il n’exclut pas la possibilité d’un nouveau paradigme à l’avenir, qui pourrait à nouveau entraîner une « division » du système, mais « j’espère sincèrement entrer rapidement dans les phases GPT-5, GPT-6 », où les utilisateurs ne seront plus gênés par les noms complexes ni les changements de modèles.
Mémoire de l’IA, personnalisation et controverse sur la vie privée
Évoquant la modification la plus marquante récente de ChatGPT, Sam Altman déclare franchement : « La fonction Mémoire est probablement ma nouveauté préférée récemment. » Il se souvient que l’utilisation de GPT-3 était déjà impressionnante, mais aujourd’hui, le modèle peut fournir des réponses précises basées sur le contexte de l’utilisateur – ce sentiment d’être « reconnu » est une avancée sans précédent. Altman pense que l’IA entre dans une nouvelle phase : tant que l’utilisateur le souhaite, elle pourra comprendre profondément sa vie et offrir des réponses « extrêmement utiles ».
Toutefois, cette évolution fonctionnelle suscite des débats plus complexes au niveau sociétal. Andrew Mane mentionne le récent procès intenté par The New York Times contre OpenAI, demandant au tribunal d’obliger OpenAI à conserver les données des utilisateurs de ChatGPT au-delà des délais réglementaires, ce qui a suscité une large attention. Altman répond : « Nous nous opposerons naturellement à cette demande. J’espère, et je crois, que nous gagnerons. » Il critique cette contradiction : d’un côté on prône la confidentialité, de l’autre on formule des exigences excessives, ce qui expose justement le vide institutionnel actuel concernant l’IA et la vie privée.
Pour Altman, bien que ce procès soit regrettable, il a aussi un aspect positif : « pousser la société à sérieusement discuter de l’IA et de la vie privée ». Il insiste sur le fait que ChatGPT est devenu pour de nombreux utilisateurs un « partenaire de conversation privé », ce qui signifie que la plateforme doit mettre en place des garanties institutionnelles plus strictes pour éviter toute utilisation abusive des informations sensibles. Il affirme clairement : « La protection de la vie privée doit être un principe central de l’utilisation de l’IA. »
La discussion s’étend ensuite à l’utilisation des données et à la possibilité de publicité. Andrew s’interroge : OpenAI peut-il accéder aux conversations des utilisateurs ? Ces données sont-elles utilisées pour l’entraînement ou à des fins commerciales ? Altman répond que les utilisateurs peuvent effectivement désactiver l’utilisation de leurs données pour l’entraînement, et qu’OpenAI n’a pas encore lancé de produit publicitaire. Personnellement, il n’est pas totalement opposé à la publicité : « Certaines pubs sont bonnes, j’en ai acheté pas mal sur Instagram. » Mais il insiste sur le fait que pour des produits comme ChatGPT, la « confiance » est une base essentielle.
Altman pointe que les plateformes de médias sociaux et de recherche donnent souvent l’impression que l’utilisateur est « marchandisé », que le contenu existe principalement pour générer des clics publicitaires – ce problème structurel est au cœur des inquiétudes générales. Si les sorties des modèles d’IA étaient contrôlées par des enchères publicitaires, ce serait un effondrement total de la confiance. « Moi-même, je détesterais ça. »
Au contraire, il préfère un modèle commercial « clair, transparent et aligné » : les utilisateurs paient pour un service de qualité, plutôt que d’être manipulés par des publicités invisibles. Sous conditions maîtrisées, il n’exclut pas d’explorer à l’avenir des modèles comme une commission après clic, ou l’affichage de publicités pratiques en dehors du contenu principal, à condition que cela n’affecte jamais l’indépendance et la fiabilité du noyau du modèle.
Andrew exprime des inquiétudes similaires et cite Google comme exemple. Il reconnaît que le modèle Gemini 1.5 est excellent, mais en tant qu’entreprise pilotée par la publicité, les motivations profondes de Google inspirent méfiance. « J’utilise bien leurs API, mais quand j’utilise un chatbot, je me demande toujours : est-ce vraiment de mon côté ? »
Altman comprend parfaitement et admet avoir été lui-même un utilisateur fidèle de Google Search : « J’aimais vraiment Google Search. » Malgré la quantité de publicités, c’était autrefois « le meilleur outil d’Internet ». Cependant, le problème structurel demeure. Il admire le modèle d’Apple, considérant que « payer pour un produit afin d’obtenir une expérience propre » est une logique saine, et révèle qu’Apple avait tenté le service publicitaire iAd, sans succès, ce qui montre peut-être qu’ils ne sont pas fondamentalement attirés par ce type de modèle.
Pour les deux hommes, les utilisateurs doivent aussi exercer leur jugement. « Quand on remarque qu’un produit commence à "pousser très fort", il faut se demander : quelle est la motivation derrière ? », dit Andrew. Altman ajoute que quel que soit le modèle commercial futur, OpenAI devra toujours respecter le principe de « transparence extrême, clarté absolue », afin de préserver la frontière de confiance des utilisateurs.
Stargate, construire la carte énergétique de l’intelligence
Quand la discussion aborde « l’évolution de la relation entre l’IA et les utilisateurs », Altman commence par rappeler les erreurs structurelles de l’ère des médias sociaux. Il souligne : « Le problème fatal des plateformes sociales, c’est l’objectif biaisé des algorithmes de recommandation — elles veulent juste vous faire rester plus longtemps, pas vraiment savoir ce dont vous avez besoin. » Ce risque existe aussi pour l’IA. Il met en garde : si les modèles sont optimisés pour « ne faire que flatter les préférences des utilisateurs », ils paraîtront sympathiques mais pourraient affaiblir la cohérence et les principes du système, nuisant gravement à long terme.
Ce biais s’est manifesté dans DALL·E 3. Andrew a observé un problème évident de manque de diversité stylistique dans les générations initiales. Altman, bien qu’il n’ait pas confirmé le mécanisme d’entraînement, admet que cette possibilité existe. Les deux conviennent que les nouveaux modèles d’images ont nettement progressé en qualité et diversité.
Le défi plus grand vient du goulot d’étranglement des ressources informatiques pour l’IA. Altman reconnaît que le plus gros problème actuel est : « Nous n’avons pas assez de puissance de calcul pour tous. » C’est pourquoi OpenAI a lancé le Projet Stargate — un projet mondial de financement et de construction d’infrastructures informatiques massives, visant à intégrer capital, technologie et opérations pour créer une plateforme informatique d’une ampleur sans précédent.
« La logique centrale de Stargate, c’est de fournir une infrastructure informatique abordable pour rendre l’intelligence accessible à tous », explique-t-il. Contrairement aux technologies précédentes, pour couvrir véritablement des milliards d’utilisateurs, les besoins en infrastructure de l’IA seront immenses. Bien qu’OpenAI ne dispose pas encore d’un budget de 500 milliards de dollars, Altman a confiance dans la mise en œuvre du projet et la fiabilité des partenaires, précisant que le premier site de construction est déjà lancé, représentant environ 10 % de l’investissement total.
L’expérience sur place l’a profondément marqué : « Intellectuellement, je savais ce qu’était un centre de données de l’ordre du gigawatt, mais voir des milliers de personnes construire des salles GPU, la complexité du système dépasse l’imagination. » Il compare cela à l’idée que « personne ne peut fabriquer seul un crayon », soulignant que la mobilisation industrielle derrière Stargate, de l’extraction minière à la fabrication, la logistique et l’appel de modèles, représente l’apogée de la collaboration humaine accumulée depuis des millénaires.
Faisant face aux critiques extérieures et interférences, Altman répond pour la première fois directement aux rumeurs selon lesquelles Elon Musk aurait tenté d’interférer dans le projet Stargate. Il déclare : « Je me suis trompé auparavant. J’aurais pensé qu’Elon n’abuserait pas de son influence gouvernementale pour une concurrence déloyale. » Il le regrette vivement, soulignant que de tels comportements sapent non seulement la confiance sectorielle, mais nuisent aussi au développement national global. Heureusement, le gouvernement n’a pas cédé à cette pression et a maintenu une position légitime.
Concernant la situation actuelle de la compétition en IA, il se dit satisfait. Autrefois, tous avaient peur que « le gagnant prenne tout », mais maintenant, davantage de gens réalisent qu’il s’agit d’une co-construction d’écosystème. « L’émergence de l’IA ressemble beaucoup à l’invention du transistor : même si au départ entre quelques mains, elle finira par constituer la base technologique du monde entier. » Il est convaincu que d’innombrables entreprises créeront de grandes applications et activités à partir de cette base — l’IA est fondamentalement un « jeu à somme positive ».
Évoquant les sources énergétiques nécessaires au calcul, Altman insiste sur « tout utiliser ». Que ce soit le gaz naturel, l’énergie solaire, la fission nucléaire ou les futures technologies de fusion, OpenAI doit mobiliser tous les moyens possibles pour répondre aux besoins massifs de fonctionnement des systèmes d’IA. Cela brise progressivement les frontières géographiques traditionnelles de l’énergie : les centres d’entraînement peuvent être implantés partout dans le monde où les ressources existent, tandis que les résultats intelligents peuvent être diffusés à faible coût via Internet.
« L’énergie traditionnelle ne peut pas être distribuée mondialement, mais l’intelligence, si. » À ses yeux, ce parcours consistant à « transformer l’énergie en intelligence, puis en valeur » redessine progressivement toute la carte énergétique humaine.
Cela s’étend aussi au domaine scientifique. Andrew donne l’exemple du télescope spatial James Webb, qui a accumulé d’immenses volumes de données, mais faute de chercheurs, de nombreuses « découvertes scientifiques inexploitées » subsistent. Altman imagine alors : pourrait-on un jour avoir une IA suffisamment intelligente pour découvrir de nouvelles lois scientifiques sans expériences ni équipements nouveaux, simplement à partir des données existantes ?
Il raconte avoir plaisanté en disant qu’OpenAI devrait construire son propre accélérateur de particules géant, puis s’être dit que l’IA pourrait résoudre les problèmes de physique des hautes énergies d’une manière radicalement différente. « Nous avons déjà accumulé énormément de données, le problème est que nous ne connaissons pas encore les limites de l’intelligence elle-même. »
Dans le domaine de la découverte de médicaments, ces cas de « connaissances ignorées » sont encore plus fréquents. Andrew mentionne l’orlistat, un médicament découvert dans les années 90, mis de côté pendant des décennies à cause d’un angle de vue limité, et seulement réutilisé aujourd’hui. Altman pense que « de nombreuses matières scientifiques oubliées mais précieuses existent probablement encore, et une légère orientation pourrait entraîner de grandes percées. »
Pour les modèles suivants, Altman exprime un vif intérêt. Il note que Sora comprend la physique classique, mais reste à voir s’il peut aller vers des sciences théoriques plus profondes. « Les modèles de raisonnement que nous développons pourraient être la clé pour explorer cette capacité. »
Il explique davantage la différence entre les modèles de raisonnement et la série GPT actuelle. « Très tôt, nous avons constaté que dès que l’on dit au modèle “procède étape par étape”, la qualité de la réponse augmente fortement. Cela montre que le modèle possède un potentiel de cheminement logique. » L’objectif des modèles de raisonnement est précisément d’amplifier systématiquement et structurellement cette capacité, pour que le modèle puisse mener un « monologue interne » similaire à celui de l’humain.
Andrew complète avec l’exemple d’Anthropic utilisant le « temps de réflexion » pour évaluer la qualité des modèles. Altman s’exprime surpris : « Je pensais que les utilisateurs détestaient surtout attendre. Mais en réalité — tant que la réponse est suffisamment bonne, les gens acceptent d’attendre. »
À ses yeux, c’est précisément la frontière de l’évolution de l’IA : passer d’une réponse mécanique rapide à un agent intelligent capable de véritable compréhension, raisonnement et invention.
Le matériel de demain et la révolution du potentiel individuel
Concernant les projets matériels d’OpenAI, Andrew mentionne la vidéo de collaboration entre Sam Altman et Jony Ive, et demande directement : le dispositif est-il déjà en phase d’essai ?
Altman reconnaît : « C’est encore très loin. » OpenAI fixe des critères de qualité extrêmement élevés pour ce produit, objectif impossible à atteindre rapidement. « Les ordinateurs que nous utilisons aujourd’hui, en matériel comme en logiciel, sont fondamentalement conçus pour un “monde sans IA”. »
Il souligne que lorsque l’IA pourra comprendre le contexte humain et prendre des décisions raisonnables à la place de l’homme, les modes d’interaction homme-machine changeront radicalement. « Vous voudrez peut-être un appareil plus sensible, capable de percevoir l’environnement, de comprendre votre contexte de vie — ou peut-être voulez-vous vous libérer complètement de l’écran et du clavier. » C’est pourquoi ils explorent activement de nouvelles formes d’appareils, et sont très enthousiastes dans certaines directions.
Altman décrit un nouveau paradigme d’interaction : une IA qui comprend réellement l’utilisateur, maîtrise le contexte, peut représenter l’utilisateur dans une réunion, comprendre le contenu, gérer les limites d’information, contacter les parties concernées et pousser à la décision. Cela fera entrer la relation homme-machine dans un nouvel état de symbiose. « Si vous dites une seule phrase, et que l’appareil sait qui contacter et comment agir, votre manière d’utiliser l’ordinateur sera complètement différente. »
Sur le plan évolutif, il pense que notre interaction actuelle avec ChatGPT est à la fois façonnée par la forme du dispositif, et inversement, façonne elle-même cette forme. Les deux sont en coévolution dynamique continue.
Andrew ajoute que la popularité du téléphone portable tient largement à sa compatibilité entre usages « publics (regarder l’écran) » et « privés (appel vocal) ». Le défi du nouvel appareil est donc de réussir à être à la fois « privé et universel » dans des scénarios variés. Altman est d’accord. Prenant l’écoute de musique comme exemple : on utilise des enceintes à la maison, des écouteurs dans la rue — cette « séparation publique/privée » existe naturellement. Mais il insiste aussi sur le fait que la nouvelle forme d’appareil doit poursuivre une universalité accrue pour devenir un véritable terminal d’IA vivant.
Quand on lui demande quand ce produit sera disponible, Altman ne donne pas de date précise, affirmant seulement « encore un certain temps », mais il croit fermement que « cela vaudra la peine d’attendre ».
La conversation passe naturellement aux conseils d’Altman aux jeunes. Il dit clairement : la stratégie évidente est « apprenez à utiliser les outils d’IA ». Selon lui, « le monde est passé en quelques années de “vous devriez apprendre à programmer” à “vous devriez apprendre à utiliser l’IA” ». Et cela pourrait encore être une étape transitoire — il croit qu’à l’avenir, de nouvelles « compétences clés » émergeront.
À un niveau plus global, il insiste sur le fait que de nombreuses capacités traditionnellement considérées comme des « talents » ou des « traits de caractère » peuvent en réalité être entraînées et acquises : résilience, adaptabilité, créativité, voire l’intuition pour détecter les besoins réels des autres. « Même si ce n’est pas aussi facile que de s’entraîner à utiliser ChatGPT, ces compétences douces peuvent être développées méthodiquement — et elles seront extrêmement précieuses dans le monde futur. »
Quand on lui demande s’il donnerait un conseil similaire à une personne de 45 ans, Altman répond clairement : fondamentalement identique. Apprendre à bien utiliser l’IA dans son propre contexte professionnel est un défi de transition de compétences auquel toute tranche d’âge doit faire face.
Concernant les changements organisationnels après l’arrivée de l’AGI, Andrew pose une question fréquente : « OpenAI est déjà si performant, pourquoi recruter encore ? » Certains pensent à tort que l’AGI remplacera tout. La réponse d’Altman est concise : « À l’avenir, nous aurons plus d’employés, mais la productivité de chacun dépassera largement celle d’avant l’ère AGI. »
Il ajoute que c’est précisément là l’objectif fondamental du progrès technologique : non pas remplacer l’humain, mais amplifier considérablement la productivité individuelle. La technologie n’est pas une fin, mais un tremplin vers un potentiel humain supérieur.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News












