lundi, novembre 25, 2024

ChatGPT est-il un « virus qui a été diffusé dans la nature » ?

Il y a plus de trois ans, cet éditeur s’est assis avec Sam Altman pour un petit événement à San Francisco peu de temps après avoir quitté son poste de président de Y Combinator pour devenir PDG de la société d’intelligence artificielle qu’il a cofondée en 2015 avec Elon Musk. et d’autres, OpenAI.

À l’époque, Altman décrivait le potentiel d’OpenAI dans un langage qui semblait étrange à certains. Altman a déclaré, par exemple, que l’opportunité avec l’intelligence artificielle générale – l’intelligence artificielle qui peut résoudre les problèmes aussi bien qu’un humain – est si grande que si OpenAI réussissait à le casser, la tenue pourrait « peut-être capturer le cône de lumière de toute valeur future ». dans l’univers. » Il a dit que l’entreprise « allait devoir ne pas publier de recherche » parce qu’elle était si puissante. Lorsqu’on lui a demandé si OpenAI était coupable de semer la peur – Musk a appelé à plusieurs reprises toutes les organisations développant l’IA à être réglementé — Altman a parlé des dangers de ne pas penser aux «conséquences sociétales» lorsque «vous construisez quelque chose sur une courbe exponentielle».

Le public a ri à divers moments de la conversation, ne sachant pas à quel point il fallait prendre Altman au sérieux. Personne ne rit maintenant, cependant. Alors que les machines ne sont pas encore aussi intelligentes que les gens, la technologie qu’OpenAI a publiée depuis en surprend plus d’un (dont Musc), certains critiques craignant que cela ne cause notre perte, en particulier avec des technologies plus sophistiquées qui devraient bientôt arriver.

En effet, bien que les gros utilisateurs insistent sur le fait que ce n’est pas si intelligent, le modèle ChatGPT qu’OpenAI a mis à la disposition du grand public la semaine dernière est tellement capable de répondre à questions comme une personne que les professionnels à travers une gamme d’industries essaient de traiter les implications. Les éducateurs, par exemple, se demandent comment ils pourront distinguer l’écriture originale des essais générés par algorithme qu’ils sont tenus de recevoir – et cela peut échapper aux logiciels anti-plagiat.

Paul Kedrosky n’est pas un éducateur en soi. C’est un économiste, un capital-risqueur et un boursier du MIT qui se qualifie de « normal frustré avec un penchant pour la réflexion sur les risques et les conséquences imprévues dans les systèmes complexes ». Mais il fait partie de ceux qui s’inquiètent soudain pour notre avenir collectif, tweeter hier: « [S]Honte à OpenAI pour avoir lancé cette bombe nucléaire de poche sans restrictions dans une société non préparée. Kedrosky a écrit: «Je pense évidemment que ChatGPT (et ses semblables) devrait être retiré immédiatement. Et, si jamais réintroduit, uniquement avec des restrictions strictes.

Nous avons discuté avec lui hier de certaines de ses préoccupations et des raisons pour lesquelles il pense qu’OpenAI est à l’origine de ce qu’il considère comme le « changement le plus perturbateur que l’économie américaine ait connu depuis 100 ans », et pas dans le bon sens.

Notre chat a été modifié pour plus de longueur et de clarté.

TC : ChatGPT est sorti mercredi dernier. Qu’est-ce qui a déclenché votre réaction sur Twitter ?

PK : J’ai joué avec ces interfaces utilisateur conversationnelles et ces services d’intelligence artificielle dans le passé, et c’est évidemment un énorme pas en avant. Et ce qui m’a particulièrement troublé ici, c’est la brutalité désinvolte de celui-ci, avec des conséquences massives pour une foule d’activités différentes. Ce ne sont pas seulement les plus évidents, comme la rédaction d’essais au lycée, mais dans à peu près tous les domaines où il y a une grammaire – [meaning] une manière organisée de s’exprimer. Cela pourrait être du génie logiciel, des dissertations de lycée, des documents juridiques. Tous sont facilement mangés par cette bête vorace et recrachés sans compensation pour tout ce qui a été utilisé pour l’entraîner.

J’ai entendu un collègue de l’UCLA qui m’a dit qu’il n’avait aucune idée de ce qu’il fallait faire des essais à la fin du trimestre actuel, où ils en recevaient des centaines par cours et des milliers par département, car ils n’avaient plus aucune idée de ce qui est faux et de ce qui est ne pas. Donc, faire cela avec tant de désinvolture — comme quelqu’un me l’a dit plus tôt aujourd’hui — rappelle le soi-disant [ethical] hacker chapeau blanc qui trouve un bogue dans un produit largement utilisé, puis informe le développeur avant que le grand public ne le sache afin que le développeur puisse patcher son produit et que nous n’ayons pas de dévastation massive et de pannes de réseaux électriques. C’est le contraire, où un virus a été libéré dans la nature sans se soucier des conséquences.

J’ai l’impression que ça pourrait dévorer le monde.

Certains pourraient dire : « Eh bien, avez-vous ressenti la même chose lorsque l’automatisation est arrivée dans les usines automobiles et que les travailleurs de l’automobile ont été licenciés ? » Parce que c’est une sorte de phénomène plus large. Mais c’est très différent. Ces technologies d’apprentissage spécifiques sont auto-catalytiques ; ils apprennent des demandes. Ainsi, les robots dans une usine de fabrication, bien que perturbateurs et créant des conséquences économiques incroyables pour les personnes qui y travaillent, ne se sont pas ensuite retournés et ont commencé à absorber tout ce qui se passait à l’intérieur de l’usine, se déplaçant secteur par secteur, alors que ce n’est pas seulement ce à quoi nous pouvons nous attendre mais ce à quoi vous devez vous attendre.

Musk a quitté OpenAI en partie désaccords sur le développement de l’entreprise, a-t-il déclaré en 2019, et il parle depuis longtemps de l’IA comme d’une menace existentielle. Mais les gens se moquaient du fait qu’il ne savait pas de quoi il parlait. Nous sommes maintenant confrontés à cette technologie puissante et il n’est pas clair qui intervient pour y remédier.

Je pense que ça va commencer dans un tas d’endroits à la fois, dont la plupart auront l’air vraiment maladroits, et les gens vont [then] ricaner parce que c’est ce que font les technologues. Mais tant pis, parce que nous nous sommes lancés là-dedans en créant quelque chose avec une telle conséquence. Donc, de la même manière que la FTC a exigé que les personnes qui gèrent des blogs il y a des années [make clear they] avoir des liens d’affiliation et gagner de l’argent grâce à eux, je pense qu’à un niveau trivial, les gens vont être obligés de divulguer que « nous n’avons rien écrit de tout cela ». Tout cela est généré par la machine.’

Je pense également que nous allons voir une nouvelle énergie pour le procès en cours contre Microsoft et OpenAI pour violation du droit d’auteur dans le contexte de nos algorithmes d’apprentissage automatique en cours de formation. Je pense qu’il va y avoir un problème plus large de DMCA ici en ce qui concerne ce service.

Et je pense qu’il y a le potentiel pour un [massive] procès et éventuellement un règlement concernant les conséquences des services, ce qui, vous le savez, prendra probablement trop de temps et n’aidera pas assez de gens, mais je ne vois pas comment nous ne finirons pas par [this place] vis-à-vis de ces technologies.

Quelle est la pensée au MIT?

Andy McAfee et son groupe là-bas sont plus optimistes et ont une opinion plus orthodoxe selon laquelle chaque fois que nous voyons des perturbations, d’autres opportunités se créent, les gens sont mobiles, ils se déplacent d’un endroit à l’autre et d’un métier à l’autre, et nous ne devrions pas être si borné que nous pensons que cette évolution particulière de la technologie est celle autour de laquelle nous ne pouvons pas muter et migrer. Et je pense que c’est largement vrai.

Mais la leçon des cinq dernières années en particulier a été que ces changements peuvent prendre beaucoup de temps. Le libre-échange, par exemple, est l’une de ces expériences incroyablement perturbatrices à l’échelle de l’économie, et nous nous sommes tous dit, en tant qu’économistes, que l’économie s’adaptera et que les gens en général bénéficieront de prix plus bas. Ce que personne n’avait prévu, c’est que quelqu’un organiserait toutes les personnes en colère et élirait Donald Trump. Il y a donc cette idée que nous pouvons anticiper et prédire quelles seront les conséquences, mais [we can’t].

Vous avez parlé de la rédaction de dissertations au lycée et au collège. Un de nos enfants a déjà demandé — théoriquement ! – si ce serait du plagiat d’utiliser ChatGPT pour rédiger un article.

Le but d’écrire un essai est de prouver que vous pouvez penser, donc cela court-circuite le processus et va à l’encontre du but. Encore une fois, en termes de conséquences et d’externalités, si on ne peut pas laisser les gens avoir des devoirs parce qu’on ne sait plus s’ils trichent ou non, cela veut dire que tout doit se passer en classe et doit être encadré. On ne peut rien ramener à la maison. Plus de choses doivent être faites oralement, et qu’est-ce que cela signifie? Cela signifie que l’école est devenue beaucoup plus chère, beaucoup plus artisanale, beaucoup plus petite et au moment précis où nous essayons de faire le contraire. Les conséquences pour l’enseignement supérieur sont dévastatrices en termes de fourniture effective d’un service.

Que pensez-vous de l’idée du revenu de base universel, ou de permettre à chacun de participer aux gains de l’IA ?

Je suis un partisan beaucoup moins fort que je ne l’étais avant COVID. La raison en est que COVID, en un sens, était une expérience avec un revenu de base universel. Nous avons payé les gens pour qu’ils restent à la maison, et ils ont proposé QAnon. Je suis donc très inquiet de ce qui se passe lorsque les gens n’ont pas à sauter dans une voiture, à conduire quelque part, à faire un travail qu’ils détestent et à revenir à la maison, parce que le diable trouve du travail pour les mains oisives, et il y aura beaucoup de mains oisives et beaucoup de diableries.

Source-146

- Advertisement -

Latest