Le PDG d’OpenAI, Sam Altman, a effectué une tournée en Europe ces derniers jours, rencontrant des chefs de gouvernements et des communautés de startups pour parler de la réglementation de l’IA, de ChatGPT et au-delà. Lors de sa dernière apparition sur scène à la Station F à Paris, Altman a répondu aux questions d’entrepreneurs locaux et a partagé son point de vue sur l’intelligence artificielle.
Il y a quelques jours, Altman rencontré Emmanuel Macron. La directrice de Station F, Roxanne Varza, l’a d’abord interrogé sur le contenu de la conversation. Comme prévu, la discussion a surtout tourné autour de la réglementation. « C’était génial, nous avons discuté de la façon de trouver le juste équilibre entre la protection avec cette technologie et de la laisser s’épanouir », a déclaré Altman.
Il a ensuite expliqué pourquoi il voyageait d’un pays à l’autre à un rythme effréné. « La raison de faire ce voyage est de sortir de la bulle technologique de la Bay Area », a-t-il déclaré.
Altman a ensuite énuméré certaines des raisons pour lesquelles il est enthousiasmé par l’état actuel de l’intelligence artificielle. Selon lui, l’IA connaît un moment parce qu’elle est assez douée pour beaucoup de choses différentes, et pas seulement une chose. Par exemple, l’IA peut être particulièrement utile en matière d’éducation et nous pourrions être sur le point d’opérer un changement majeur dans l’éducation dans le monde.
Bien sûr, il a également mentionné comment GPT et d’autres modèles d’IA ont été utiles pour améliorer la productivité dans une grande variété de travaux, y compris le développement de logiciels.
La discussion s’est alors déplacée vers la réglementation. Il y a quelques jours, lors d’un événement similaire à l’University College de Londres, Altman a averti qu’une réglementation européenne excessive pourrait conduire OpenAI à quitter complètement le continent. Alors qu’il faisait déjà marche arrière sur Twitter, en disant que « nous sommes ravis de continuer à opérer ici et bien sûr n’avons pas l’intention de partir », a-t-il passé un certain temps à expliquer sa pensée.
« Nous prévoyons de nous conformer, nous aimons vraiment l’Europe et nous voulons offrir nos services en Europe, mais nous voulons juste être en mesure de nous assurer que nous en sommes techniquement capables », a déclaré Altman.
Dans cette session de questions-réponses, Altman est apparu comme un optimiste radical, affirmant qu’il y aura des percées technologiques majeures (autour de la fusion nucléaire en particulier) qui résoudront le changement climatique dans un avenir proche. De même, il a posé des questions difficiles au public, mais il croit toujours que les avantages de l’intelligence artificielle l’emportent largement sur les inconvénients.
« La discussion a été trop centrée sur les points négatifs », a déclaré Altman. « Il semble que l’équilibre s’est effondré compte tenu de toute la valeur que les gens retirent de ces outils ces jours-ci. »
Il a demandé une fois de plus un « cadre réglementaire mondial » similaire à la réglementation nucléaire ou biotechnologique. «Je pense que ça va arriver à un bon endroit. Je pense qu’il est important que nous le fassions. La clarté de la réglementation est une bonne chose », a-t-il déclaré.
Modèles de concurrence et d’amélioration
Quelle est la prochaine étape pour OpenAI ? La feuille de route est assez simple. Altman dit que l’équipe travaille sur « des modèles meilleurs, plus intelligents, moins chers, plus rapides et plus performants ».
Le succès d’OpenAI et de ChatGPT a également conduit à plus de concurrence. Il existe d’autres entreprises et laboratoires d’IA travaillant sur de grands modèles de langage et sur l’IA générative en général. Mais Altman considère la concurrence comme une bonne chose.
« Les gens qui se font concurrence pour créer des modèles de mieux en mieux, c’est génial », a-t-il déclaré. « Tant que nous ne sommes pas en concurrence d’une manière qui mettrait la sécurité en danger – si nous sommes en concurrence pour des modèles tout en élevant la barre en matière de sécurité – je pense que c’est une bonne chose. »
En fait, il n’y aura pas un seul modèle qui les gouvernera tous. Certains modèles deviendront plus spécialisés. Certains modèles seront meilleurs à certaines tâches que d’autres. « Il va y avoir une tonne de modèles dans le monde. Je pense que la trajectoire sur laquelle nous nous trouvons est que ce sera une activation fondamentale de la technologie », a déclaré Altman.
L’IA comme outil pour augmenter les humains
À bien des égards, Altman considère l’IA comme un outil qui peut être exploité par les humains pour créer de nouvelles choses, libérer du potentiel et changer la façon dont nous devrions penser à des problèmes spécifiques. Par exemple, il ne croit pas que l’IA présente un risque pour l’emploi.
« Cette idée que l’intelligence artificielle va progresser à un point où les humains n’ont plus de travail à faire ou n’ont aucun but ne m’a jamais touché », a déclaré Altman. « Il y aura des gens qui choisiront de ne pas travailler, et je pense que c’est formidable. Je pense que cela devrait être un choix valable et qu’il existe de nombreuses autres façons de trouver un sens à la vie. Mais je n’ai jamais vu de preuves convaincantes que ce que nous faisons avec de meilleurs outils revient à travailler moins.
Par exemple, en parlant de journalisme, Altman dit que l’IA peut aider les journalistes à se concentrer sur ce qu’ils font le mieux : plus d’investigations et passer plus de temps à trouver de nouvelles informations qui méritent d’être partagées. « Et si chacun de vos journalistes avait une équipe de 100 personnes travaillant pour lui dans différents domaines ? il a dit.
Et c’est probablement l’effet le plus vertigineux de la vague d’IA actuelle. Dans l’esprit d’Altman, l’intelligence artificielle s’adaptera aux besoins humains et les humains s’adapteront à ce que l’intelligence artificielle peut faire. « Cette technologie et cette société vont coévoluer. Les gens l’utiliseront de différentes manières et pour différentes raisons », a déclaré Altman.