
Sam Altman : L'année prochaine, OpenAI entrera dans l'ère des systèmes d'intelligence artificielle
TechFlow SélectionTechFlow Sélection

Sam Altman : L'année prochaine, OpenAI entrera dans l'ère des systèmes d'intelligence artificielle
Améliorer la « capacité de raisonnement » reste l'objectif principal de ce fabricant de grands modèles.
Rédaction : 21VC
Traduction : Mu Mu
Édition : Wen Dao
Après GPT-4, quel grand projet OpenAI prépare-t-il pour l'année prochaine ? Quel est le véritable avantage concurrentiel d'OpenAI ? Quelle est la valeur des agents d'intelligence artificielle (IA) ? De nombreux anciens employés ont quitté l'entreprise — OpenAI va-t-elle désormais privilégier des jeunes plus motivés et dynamiques ?
Le 4 novembre, Sam Altman (désormais appelé « Altman »), PDG d'OpenAI, a répondu à ces questions lors du podcast « The Twenty Minute VC ». Il a clairement indiqué que l'amélioration des capacités de raisonnement restait au cœur de la stratégie d'OpenAI.
Lorsque l'animateur du podcast et fondateur de 21VC, Harry Stebbings (désormais appelé « Stebbings »), a demandé quelles opportunités OpenAI laisse encore aux entrepreneurs en IA, Altman a estimé que toute entreprise axée uniquement sur la correction des insuffisances des modèles actuels perdrait rapidement son avantage face à l'évolution rapide des modèles d'OpenAI. Les entrepreneurs devraient plutôt construire des activités qui tirent profit de l'amélioration continue des modèles — une perspective riche en opportunités.
Pour Altman, la manière dont on parle aujourd'hui de l’IA commence à être dépassée. Par rapport aux modèles, ce sont les systèmes qui méritent davantage d’attention. L’année prochaine marquera une étape cruciale dans la transition d’OpenAI vers les systèmes d’intelligence artificielle.
Voici un extrait des points clés du dialogue entre Stebbings et Altman :
OpenAI prévoit de créer des outils sans code
Stebbings : Commençons directement avec une question d’un auditeur. La direction future d’OpenAI consistera-t-elle à lancer davantage de modèles comme GPT-3.5 ou à entraîner des modèles encore plus grands et puissants ?
Altman : Nous allons optimiser nos modèles de manière globale. Améliorer les capacités de raisonnement est actuellement au cœur de notre stratégie. Je pense que des capacités de raisonnement avancées permettront de débloquer toute une série de fonctionnalités que nous attendons — par exemple, contribuer substantiellement à la recherche scientifique ou écrire du code extrêmement complexe — ce qui accélérera considérablement le développement et le progrès social. Vous pouvez vous attendre à des itérations rapides et continues des modèles GPT ; c’est là que nous concentrerons nos efforts prioritaires à l’avenir.

Sam Altman lors de son entretien avec Harry Stebbings, fondateur de 21VC
Stebbings : OpenAI prévoit-elle à l’avenir de développer des outils sans code destinés aux non-techniciens afin qu’ils puissent facilement concevoir et étendre des applications d’IA ?
Altman : Nous progressons incontestablement dans cette direction. Notre objectif initial est d’améliorer radicalement l’efficacité des programmeurs, mais à long terme, notre but est de créer des outils sans code de premier ordre. Bien qu’il existe déjà certaines solutions sans code sur le marché, elles ne permettent pas encore de créer entièrement une startup sans écrire une seule ligne de code.
Stebbings : Dans quels domaines technologiques OpenAI envisage-t-elle de s’étendre ? Étant donné qu’OpenAI pourrait dominer au niveau applicatif, investir massivement dans l’optimisation des systèmes existants serait-il une perte de ressources pour les startups ? Comment les fondateurs doivent-ils aborder cette question ?
Altman : Nous visons constamment à améliorer nos modèles. Si votre activité repose uniquement sur la correction de petites lacunes présentes dans les modèles actuels, alors dès lors que nos modèles deviendront suffisamment performants pour combler ces lacunes, votre modèle économique perdra toute pertinence.
En revanche, si vous parvenez à construire une entreprise capable de tirer profit de l’évolution continue des modèles, cela représentera une immense opportunité. Imaginez que quelqu’un vous dise que GPT-4 deviendra exceptionnellement puissant, capable d’accomplir des tâches aujourd’hui jugées impossibles — cela vous permettrait de planifier et développer votre entreprise avec une vision bien plus longue.
Stebbings : Nous avons discuté avec l’investisseur en capital-risque Brad Gerstner de l’impact potentiel d’OpenAI sur certains marchés spécifiques. Selon votre point de vue de fondateur, quelles entreprises risquent d’être affectées par OpenAI, et lesquelles pourraient résister ? En tant qu’investisseurs, comment devrions-nous évaluer cette situation ?
Altman : L’intelligence artificielle créera des milliers de milliards de dollars de valeur. Elle donnera naissance à de nouveaux produits et services, rendant possibles des choses auparavant irréalisables ou trop coûteuses. Dans certains domaines, nous espérons que les modèles seront si puissants que l’atteinte des objectifs deviendra presque automatique ; dans d’autres, grâce à des produits et services excellents, cette nouvelle technologie sera encore renforcée.
Au début, environ 95 % des startups semblaient miser sur le fait que les modèles n’iraient pas en s’améliorant — ce qui m’a surpris. Aujourd’hui, je n’en suis plus étonné. Dès la sortie de GPT-3.5, nous pressentions déjà le potentiel de GPT-4, sachant qu’il serait très puissant.
Donc, si vos outils visent simplement à compenser les faiblesses des modèles, ces faiblesses deviendront de moins en moins pertinentes à mesure que les modèles s’améliorent.
Quand les modèles étaient mauvais, on avait tendance à développer des produits corrigeant leurs défauts, plutôt que de construire des produits révolutionnaires comme un « professeur IA » ou un « conseiller médical IA ». À l’époque, j’avais l’impression que 95 % des gens pariaient sur le fait que les modèles n’évolueraient pas, contre seulement 5 % qui croyaient à leur amélioration.
Maintenant, la donne a changé. Les gens comprennent la vitesse d’amélioration et notre trajectoire. Ce problème n’est plus aussi saillant, mais à l’époque, nous étions très inquiets car nous redoutions que les entreprises axées sur la compensation des défauts des modèles se retrouvent en difficulté.
Stebbings : Vous avez dit que « l’intelligence artificielle créera des milliers de milliards de dollars de valeur ». Masayoshi Son (fondateur et PDG de SoftBank) prévoit quant à lui que « l’IA créera chaque année une valeur de 9 000 milliards de dollars », couvrant ainsi ses dépenses en capital jugées « nécessaires à hauteur de 9 000 milliards ». Qu’en pensez-vous ?
Altman : Je ne peux pas donner un chiffre précis. Mais il est évident que d’énormes investissements conduiront à une création massive de valeur, comme cela a toujours été le cas lors des grandes révolutions technologiques — et l’IA en est clairement une.
L’année prochaine sera cruciale pour nous : nous entrerons dans l’ère des systèmes d’IA de nouvelle génération. Concernant le développement d’agents logiciels sans code, je ne sais pas combien de temps cela prendra — ce n’est pas encore réalisable aujourd’hui. Mais si nous y parvenions, le fait que chacun puisse facilement obtenir tout le logiciel d’entreprise dont il a besoin libérerait une immense valeur économique. Si, en plus, vous maintenez la même productivité tout en rendant cela plus pratique et moins cher, l’impact serait colossal.
Je crois que nous verrons de nombreux exemples similaires, notamment dans les domaines de la santé et de l’éducation, qui représentent chacun des milliers de milliards de dollars de marché. Si l’IA peut y impulser de nouvelles solutions, peu importe le chiffre exact — l’essentiel est qu’elle créera une valeur incroyable.
Un excellent agent IA possède des capacités dépassant celles des humains
Stebbings : Quel rôle jouera l’open source dans l’avenir de l’intelligence artificielle ? Au sein d’OpenAI, comment se déroulent les discussions sur la question de savoir si certains modèles devraient être open source ?
Altman : L’open source joue un rôle crucial dans l’écosystème de l’IA. Il existe déjà d’excellents modèles open source. Je pense qu’il est également essentiel de proposer des services et API de haute qualité. Pour moi, il est pertinent de combiner ces éléments en une offre complète, permettant à chacun de choisir la solution qui correspond le mieux à ses besoins.
Stebbings : Outre l’open source, nous pouvons aussi servir les clients via des « agents ». Comment définissez-vous un « agent » ? Qu’est-ce qu’un agent selon vous, et qu’est-ce qu’il n’est pas ?
Altman : Je vois un agent comme un programme capable d’exécuter des tâches prolongées presque sans supervision humaine.
Stebbings : Pensez-vous que les gens se trompent sur la nature des agents ?
Altman : Plutôt que parler d’erreur, disons que nous ne comprenons pas encore pleinement le rôle que joueront les agents dans le monde futur.
Un exemple souvent cité est celui d’un agent IA qui réserve un restaurant — par exemple, via OpenTable ou en téléphonant directement au restaurant. Cela fait gagner du temps, mais ce qui est vraiment passionnant, c’est que l’agent puisse faire des choses que les humains ne peuvent pas faire — par exemple, contacter simultanément 300 restaurants pour trouver le plat idéal ou celui offrant un service particulier. Pour un humain, c’est presque impossible, mais si tous les agents sont des IA, ils peuvent traiter ces tâches en parallèle, et le problème est résolu.
Cet exemple simple illustre bien comment les agents dépassent les capacités humaines. Encore plus intéressant, un agent ne se contente pas de réserver un restaurant : il peut agir comme un collègue expérimenté et intelligent, collaborer avec vous sur un projet, ou accomplir seul une tâche qui prendrait deux jours, voire deux semaines, ne vous contactant qu’en cas de problème, et vous livrant finalement un résultat excellent.
Stebbings : Ce modèle d’agent aura-t-il un impact sur la tarification des SaaS (logiciels en tant que service) ? Traditionnellement, les SaaS facturent par utilisateur. Or, les agents remplacent effectivement des travailleurs humains. Comment voyez-vous l’évolution des modèles de tarification, surtout si les agents IA deviennent des employés centraux pour les entreprises ?
Altman : Je ne peux qu’émettre des hypothèses, car nous ne le savons pas encore. J’imagine un scénario où la tarification se fonderait sur les ressources informatiques utilisées — par exemple, 1 GPU, 10 GPUs ou 100 GPUs nécessaires pour traiter une tâche. Dans ce cas, la tarification ne serait plus basée sur le nombre d’utilisateurs ni même sur le nombre d’agents, mais sur la quantité réelle de calcul consommée.
Stebbings : Devons-nous alors concevoir des modèles spécifiquement destinés aux agents ?
Altman : Oui, il faut beaucoup d’infrastructure pour supporter les agents, mais je pense que GPT-3.5 a déjà montré la voie : un modèle généraliste capable d’accomplir des tâches complexes d’agent.
Les modèles sont des actifs dépréciés, mais l’expérience acquise vaut plus que le coût
Stebbings : Beaucoup pensent que, avec la marchandisation croissante des modèles, ceux-ci deviennent des actifs dépréciés. Que pensez-vous de cette idée ? Actuellement, l’entraînement des modèles devient de plus en plus intensif en capital — cela signifie-t-il que seules quelques entreprises peuvent se le permettre ?
Altman : Oui, les modèles peuvent être considérés comme des actifs dépréciés, mais affirmer qu’ils valent moins que leur coût d’entraînement est totalement erroné. En réalité, lors de l’entraînement des modèles, nous bénéficions d’un effet de rendement croissant : les connaissances et l’expérience acquises nous aident à entraîner plus efficacement les modèles suivants.
Je pense que les revenus générés prouvent déjà la rentabilité de ces investissements. Bien sûr, toutes les entreprises ne parviennent pas à cet effet. Aujourd’hui, beaucoup entraînent des modèles très similaires, mais si vous êtes légèrement en retard ou si vous n’avez pas un produit capable d’attirer durablement les utilisateurs et de créer de la valeur, il sera plus difficile de rentabiliser l’investissement.
Nous avons la chance d’avoir ChatGPT, utilisé par des centaines de millions d’utilisateurs. Même si les coûts sont élevés, nous pouvons les amortir grâce à une base d’utilisateurs massive.
Stebbings : Comment les modèles d’OpenAI maintiendront-ils leur différenciation à l’avenir ? Sur quels aspects souhaitez-vous le plus marquer la différence ?
Altman : La capacité de raisonnement est actuellement notre priorité absolue. Je crois que ce sera la clé de la prochaine grande phase de création de valeur. En outre, nous travaillons activement sur le développement de modèles multimodaux, et nous intégrerons de nouvelles fonctionnalités que nous jugeons essentielles pour les utilisateurs.
Stebbings : Dans le nouveau paradigme du « temps de raisonnement » de GPT-3.5, comment la capacité visuelle va-t-elle évoluer ?
Altman : Sans trop en dire, j’anticipe un développement rapide des modèles d’image.
Stebbings : Certains considèrent que les modèles d’Anthropic surpassent parfois ceux d’OpenAI dans les tâches de programmation. Qu’en pensez-vous ? Cette évaluation est-elle juste ? Comment les développeurs doivent-ils choisir entre OpenAI et d’autres fournisseurs ?
Altman : Anthropic dispose effectivement d’un modèle remarquable dans le domaine de la programmation, et leur travail est impressionnant. Je pense que les développeurs utilisent souvent plusieurs modèles simultanément. Je ne sais pas comment cela évoluera à mesure que le domaine avancera. Mais je crois fermement que l’IA sera omniprésente à l’avenir.
La manière dont nous parlons aujourd’hui de l’IA est probablement un peu dépassée. Je prédis que nous passerons progressivement des discussions sur les « modèles » à celles sur les « systèmes », mais cela prendra du temps.
Stebbings : Concernant l’extension des modèles, combien de temps la loi d’échelle continuera-t-elle de s’appliquer ? On pensait autrefois qu’elle ne durerait pas, mais elle semble plus tenace que prévu.
Altman : Sans entrer dans les détails, la question centrale est celle-ci : la trajectoire d’amélioration des capacités des modèles va-t-elle se poursuivre comme aujourd’hui ? Je crois que oui, et pendant une période assez longue.
Stebbings : Avez-vous déjà douté de cela ?
Altman : Nous avons rencontré des comportements que nous ne comprenions pas, subi des échecs d’entraînement, testé de nouveaux paradigmes. Quand on approche des limites d’un paradigme, il faut trouver le prochain point de rupture.
Stebbings : Quel a été le défi le plus difficile à relever dans ce processus ?
Altman : Pendant le développement de GPT-4, nous avons connu des problèmes extrêmement complexes, au point de nous sentir bloqués, ne sachant plus comment avancer. Finalement, nous avons réussi à les surmonter. Mais pendant un moment, nous avons été désorientés sur la façon de faire progresser les modèles.
De plus, la transition vers GPT-3.5 et le concept de modèle de raisonnement étaient des objectifs que nous poursuivions depuis longtemps, mais la voie de recherche a été pleine de difficultés et de détours.
Stebbings : Dans un tel processus long et ardu, comment maintenir le moral de l’équipe ? Quand un entraînement risque d’échouer, comment conservez-vous la motivation ?
Altman : Les membres de notre équipe sont passionnés par la création d’une intelligence artificielle générale (IAG), un objectif hautement mobilisateur. Nous savons tous que ce n’est pas une voie facile, que le succès ne viendra pas sans effort. Comme le dit un proverbe : « Je ne demande jamais à Dieu de se ranger de mon côté, mais de me permettre de me ranger du sien. »
Travailler dans le domaine de l’apprentissage profond, c’est comme s’engager dans une cause juste. Malgré les revers inévitables, nous finissons toujours par progresser. Cette conviction solide nous aide énormément.
Stebbings : Quelle est votre préoccupation concernant la chaîne d’approvisionnement en semi-conducteurs et les tensions internationales ?
Altman : Je ne peux pas quantifier cette inquiétude, mais oui, elle est réelle. Ce n’est peut-être pas mon souci numéro un, mais parmi toutes mes préoccupations, elle figure assurément dans les 10 % les plus élevés.
Stebbings : Puis-je vous demander quel est votre plus grand souci ?
Altman : En général, ce qui m’inquiète le plus, c’est la complexité extrême de tout ce que nous essayons d’accomplir dans ce domaine. Bien que je croie que tout finira par se régler, le système est d’une complexité redoutable.
Cette complexité existe à tous les niveaux — au sein d’OpenAI, dans chaque équipe. Prenons les semi-conducteurs : il faut équilibrer l’alimentation électrique, prendre les bonnes décisions réseau, garantir un approvisionnement suffisant en puces, anticiper les risques potentiels, et veiller à ce que les progrès de la recherche soient synchronisés avec ces contraintes, sous peine d’être pris au dépourvu ou de gaspiller des ressources.
La chaîne d’approvisionnement semble une ligne droite, mais en réalité, la complexité de l’écosystème à chaque niveau dépasse tout ce que j’ai vu dans d’autres industries. C’est en partie cela qui m’inquiète le plus.
Stebbings : Vous avez mentionné une complexité sans précédent. Beaucoup comparent la vague actuelle d’IA à la bulle Internet, notamment en termes d’enthousiasme. Je pense que la différence réside dans l’échelle des investissements. Larry Ellison (cofondateur d’Oracle) a affirmé que le coût d’entrée dans la course aux modèles fondamentaux était de 100 milliards de dollars. Êtes-vous d’accord ?
Altman : Non, je ne pense pas que les coûts soient aussi élevés. Mais il y a un phénomène intéressant : les gens aiment comparer les nouvelles révolutions technologiques aux précédentes pour les rendre plus familières. Globalement, ce n’est pas une bonne habitude, mais je comprends pourquoi ils le font. Je trouve aussi que les analogies choisies pour l’IA sont particulièrement maladroites — l’Internet est clairement très différent de l’IA.
Vous citez un exemple de coût — que l’on ait besoin de 10 ou 100 milliards pour être compétitif — mais une caractéristique marquante de la révolution Internet a été la facilité de démarrage. Une autre similitude avec Internet, c’est que pour beaucoup d’entreprises, l’IA n’est qu’une extension d’Internet : d’autres construiront les modèles d’IA, et vous pourrez les utiliser pour créer d’excellents produits. C’est voir l’IA comme une nouvelle manière de construire la technologie. Mais si vous voulez construire l’IA elle-même, c’est complètement différent.
Une autre comparaison fréquente est celle de l’électricité, mais je pense qu’elle ne convient pas bien non plus.
Bien que je pense qu’il ne faut pas trop compter sur les analogies, mon comparatif préféré est celui du transistor — une découverte physique nouvelle, dotée d’une évolutivité incroyable, qui s’est rapidement diffusée partout. Toute l’industrie technologique en a bénéficié. Nos produits et services en contiennent des milliards, mais vous ne considérez pas les entreprises qui les créent comme des « entreprises de transistors ».
C’est un processus industriel très complexe et coûteux, avec une chaîne d’approvisionnement gigantesque. Cette simple découverte physique a alimenté une croissance économique durable, même si la plupart du temps, on n’en est pas conscient — on pense juste : « Ce truc m’aide à traiter l’information. »
Privilégier l’excellence, pas l’âge
Stebbings : Comment pensez-vous que le talent humain est gaspillé ?
Altman : Il existe dans le monde de très nombreuses personnes talentueuses qui, parce qu’elles travaillent dans des entreprises inadaptées, vivent dans des pays qui ne soutiennent pas les bonnes entreprises, ou pour d’autres raisons, ne peuvent pas pleinement réaliser leur potentiel.
L’un des aspects qui m’enthousiasme le plus dans l’IA, c’est qu’elle pourrait nous aider à mieux exploiter le potentiel de chacun — alors que nous sommes loin d’y arriver aujourd’hui. Je crois qu’il existe de nombreux chercheurs en IA potentiels exceptionnels dont les parcours de vie sont différents.
Stebbings : Vous avez connu une croissance fulgurante ces dernières années. En regardant en arrière sur la dernière décennie, quel est le changement le plus important que vous ayez opéré en tant que leader ?
Altman : Pour moi, ces dernières années ont été marquées par une vitesse de changement extraordinaire. Une entreprise normale met beaucoup de temps pour passer de zéro à 100 millions de dollars de revenus, puis de 100 millions à 1 milliard, et de 1 milliard à 10 milliards. Nous, nous devons faire cela en deux ans. Passer d’un laboratoire de recherche pur à une entreprise servant massivement des clients — ce changement rapide m’a privé du temps d’apprentissage.
Stebbings : Qu’aimeriez-vous apprendre davantage ?
Altman : Comment guider l’entreprise vers une croissance de 10 fois, plutôt que de 10 %. Pour passer d’une entreprise de plusieurs milliards à une entreprise de plusieurs dizaines de milliards, il faut des transformations profondes, pas simplement répéter ce qu’on faisait la semaine précédente.
Mais le défi de la croissance rapide, c’est qu’on n’a pas assez de temps pour consolider les bases. J’ai sous-estimé l’effort nécessaire pour suivre le rythme et continuer à avancer dans un tel environnement.
La communication interne, le partage d’information, la gestion structurée, et l’équilibre entre les besoins à court terme et le développement à long terme — tout cela est crucial. Par exemple, pour garantir l’exécution dans les un à deux ans à venir, il faut anticiper les ressources de calcul, les espaces de bureau, etc. Planifier efficacement dans un tel contexte est extrêmement difficile.
Stebbings : Keith Rabois (investisseur en capital-risque) a dit avoir appris de Peter Thiel (cofondateur de PayPal) qu’il fallait embaucher des jeunes de moins de 30 ans, car c’est la clé pour bâtir une grande entreprise. Que pensez-vous de ce conseil — recruter des jeunes très dynamiques et ambitieux est-il la seule méthode ?
Altman : J’avais environ 30 ans quand j’ai cofondé OpenAI — pas très jeune, mais ça a l’air d’avoir fonctionné (rires). Donc oui, c’est une voie possible.
Stebbings : Mais les jeunes, aussi dynamiques et ambitieux soient-ils, manquent peut-être d’expérience ; ou alors opter pour des talents expérimentés et déjà éprouvés ?
Altman : La réponse évidente est que les deux types de talents peuvent réussir, comme nous le faisons chez OpenAI. Avant cet entretien, je discutais justement d’un jeune recruté, peut-être à peine une vingtaine d’années, mais dont le travail est excellent. Je me demandais si nous pouvions trouver davantage de talents comme lui — apportant une nouvelle perspective et une énergie vive.
Mais d’un autre côté, si vous concevez l’un des systèmes de calcul les plus complexes et coûteux de l’histoire humaine, vous ne confierez pas cette responsabilité à un jeune débutant. Nous avons donc besoin des deux. Je pense que l’essentiel est de maintenir des standards élevés en matière de talents, plutôt que de favoriser un groupe d’âge particulier.
Je suis particulièrement reconnaissant envers Y Combinator (accélérateur de startups), car il m’a appris que le manque d’expérience ne signifie pas absence de valeur. De nombreux talents en début de carrière ont un fort potentiel et peuvent créer une immense valeur. Notre société devrait investir davantage dans ces talents — c’est une chose très positive.
Stebbings : J’ai récemment entendu une citation : « Le fardeau le plus lourd dans la vie n’est ni le fer ni l’or, mais les décisions non prises. » Pour vous, quelle décision non prise vous pèse le plus ?
Altman : Cette réponse change chaque jour — aucune décision non prise n’est particulièrement lourde. Bien sûr, nous faisons face à des choix importants — par exemple, choisir une direction produit ou concevoir l’ordinateur de la prochaine génération — ce sont des décisions importantes et risquées.
Dans ces cas, je peux reporter la décision, mais le plus souvent, le défi vient du nombre quotidien de dilemmes 51 % contre 49 %. Ces décisions me sont soumises parce qu’elles sont difficiles — je n’ai pas forcément plus de légitimité que les autres membres de l’équipe pour trancher, mais je dois décider.
Donc, le cœur du problème, c’est la quantité de décisions, pas une décision particulière.
Stebbings : Face à un dilemme 51 % contre 49 %, avez-vous une personne attitrée à consulter ?
Altman : Non, je pense que compter sur une seule personne pour tout n’est pas la bonne approche. Pour moi, mieux vaut identifier 15 ou 20 personnes ayant une bonne intuition et une expertise spécifique, et consulter les meilleurs experts selon les sujets, plutôt que de dépendre d’un seul conseiller.
Questions rapides
Stebbings : Supposons que vous soyez aujourd’hui un jeune de 23 ou 24 ans, avec l’infrastructure actuelle, que choisiriez-vous de faire ?
Altman : Je choisirais un domaine vertical soutenu par l’IA, comme l’éducation. Je créerais le meilleur produit d’éducation assistée par IA, permettant aux gens d’apprendre n’importe quel sujet. D’autres exemples : un avocat IA, un ingénieur CAO IA, etc.
Stebbings : Vous avez mentionné écrire un livre. Quel titre lui donneriez-vous ?
Altman : Je n’ai pas encore décidé. Je n’y ai pas beaucoup réfléchi, mais je sens que son existence stimulerait beaucoup de potentiel humain. Peut-être quelque chose lié au « potentiel humain ».
Stebbings : Dans le domaine de l’IA, y a-t-il un axe négligé sur lequel les gens devraient investir plus de temps ?
Altman : Je souhaiterais voir une IA capable de comprendre toute votre vie. Pas besoin d’un contexte infini, mais d’un moyen d’avoir un agent IA qui connaît toutes vos données et vous assiste.
Stebbings : Au cours du dernier mois, quoi vous a surpris ?
Altman : Un résultat de recherche que je ne peux pas révéler, mais qui est stupéfiant.
Stebbings : Qui est votre concurrent que vous respectez le plus ? Pourquoi ?
Altman : Je respecte sincèrement tout le monde dans ce domaine. Il y a tellement de talents exceptionnels et de travaux remarquables. Je ne cherche pas à esquiver la question — partout, on trouve des gens brillants faisant un excellent travail.
Stebbings : Un en particulier ?
Altman : Non, aucun en particulier.
Stebbings : Quelle est votre API OpenAI préférée ?
Altman : La nouvelle API en temps réel est excellente. Nous avons maintenant un vaste business d’API, avec beaucoup de bons produits.
Stebbings : Qui admirez-vous le plus dans le domaine de l’IA aujourd’hui ?
Altman : Je tiens à mentionner l’équipe de Cursor. Ils ont créé avec l’IA une expérience magique, générant beaucoup de valeur. Beaucoup n’ont pas réussi à assembler tous les éléments — eux l’ont fait. Je fais exprès de ne pas citer les gens d’OpenAI, sinon la liste serait trop longue.
Stebbings : Qu’en pensez-vous du compromis entre latence et précision ?
Altman : Il faut un bouton réglable entre les deux. Comme maintenant, vous voulez que je réponde vite, je n’ai pas envie de réfléchir plusieurs minutes — la latence compte. Si vous attendez une grande découverte, vous accepterez peut-être d’attendre des années. La réponse est : cela doit être contrôlable par l’utilisateur.
Stebbings : Quand vous pensez à l’insécurité en leadership, quel aspect aimeriez-vous améliorer ? En tant que dirigeant et PDG, que voudriez-vous développer davantage ?
Altman : Cette semaine, je me sens plus incertain que jamais sur les détails de notre stratégie produit. Globalement, je pense que le produit est mon point faible. Maintenant, l’entreprise a besoin que je fournisse une vision produit plus claire. Nous avons un excellent responsable produit et une excellente équipe, mais c’est un domaine où j’aimerais exceller davantage — je le ressens particulièrement ces derniers temps.
Stebbings : Vous avez embauché Kevin Scott (CTO d’OpenAI), que je connais depuis longtemps — il est excellent. Quelles qualités font de Kevin un leader produit de classe mondiale ?
Altman : « Discipline » est le premier mot qui me vient.
Stebbings : Plus précisément ?
Altman : Il est extrêmement concentré sur les priorités, sait dire non, pense du point de vue de l’utilisateur à la raison d’agir ou de ne pas agir, très rigoureux, sans idées fantaisistes.
Stebbings : Envisagez l’avenir sur cinq et dix ans. Si vous aviez une baguette magique, comment décririez-vous la vision d’OpenAI dans cinq et dix ans ?
Altman : Je peux facilement imaginer les deux prochaines années. Mais si nous faisons les bons choix et commençons à créer des systèmes extrêmement puissants — par exemple, accélérant les progrès scientifiques — cela entraînera des avancées technologiques incroyables.
Je pense que dans cinq ans, nous verrons une vitesse de progrès technologique stupéfiante, dépassant toutes les attentes. La société pourrait avoir l’impression que « le moment de l’IAG est arrivé… puis passé ». Nous découvrirons beaucoup de nouvelles choses, pas seulement en recherche IA, mais dans d’autres domaines scientifiques.
D’un autre côté, je pense que les changements sociaux induits seront relativement limités.
Par exemple, il y a cinq ans, si vous aviez demandé aux gens si un ordinateur passerait le test de Turing, ils auraient probablement répondu non. Si vous leur aviez dit oui, ils auraient pensé que cela transformerait radicalement la société. Aujourd’hui, nous avons globalement passé le test de Turing, mais les changements sociaux n’ont pas été aussi violents.
C’est ce que j’anticipe pour l’avenir : des progrès technologiques dépassant toutes les attentes, mais des changements sociaux lents. Je pense que c’est un état bon et sain. À long terme, la technologie transformera profondément la société, mais sur cinq à dix ans, cela ne se reflétera pas aussi rapidement.
Bienvenue dans la communauté officielle TechFlow
Groupe Telegram :https://t.me/TechFlowDaily
Compte Twitter officiel :https://x.com/TechFlowPost
Compte Twitter anglais :https://x.com/BlockFlow_News














