Plus tôt dans la journée, lors d’une conférence Bloomberg à San Francisco, certains des plus grands noms de l’IA se sont présentés, dont, brièvement, Sam Altman d’OpenAI, qui vient de terminer sa tournée mondiale de deux mois, et le fondateur de Stability AI, Emad Mostaque. Pourtant, l’une des conversations les plus convaincantes a eu lieu plus tard dans l’après-midi, lors d’une table ronde sur l’éthique de l’IA.
Mettant en vedette Meredith Whittaker (photo ci-dessus), présidente de l’application de messagerie sécurisée Signal ; Navrina Singh, cofondatrice et PDG de Credo AI ; et Alex Hanna, directeur de la recherche au Distributed AI Research Institute, les trois avaient un message unifié pour le public, qui était : ne soyez pas si distrait par les promesses et les menaces associées à l’avenir de l’IA. Ce n’est pas magique, ce n’est pas entièrement automatisé et – selon Whittaker – c’est déjà intrusif au-delà de tout ce que la plupart des Américains semblent comprendre.
Hanna, par exemple, a souligné les nombreuses personnes dans le monde qui aident à former les grands modèles linguistiques d’aujourd’hui, suggérant que ces personnes sont négligées dans certaines des couvertures haletantes sur l’IA générative en partie parce que le travail est peu glamour et en partie parce que cela ne correspond pas au récit actuel sur l’IA.
Dit Hanna: « Nous savons par reportage. . .qu’il y a une armée de travailleurs qui font des annotations dans les coulisses pour même faire fonctionner ce truc à n’importe quel degré – des travailleurs qui travaillent avec Amazon Mechanical Turk, des gens qui travaillent avec [the training data company] Sama – au Venezuela, au Kenya, aux États-Unis, en fait partout dans le monde. . .Ils font en fait l’étiquetage, alors que Sam [Altman] et Emad [Mostaque] et toutes ces autres personnes qui vont dire que ces choses sont magiques – non. Il y a des humains. . . .Ces choses doivent apparaître comme autonomes et cela a ce vernis, mais il y a tellement de travail humain en dessous.
Les commentaires faits séparément par Whittaker – qui travaillait auparavant chez Google, cofondaient l’AI Now Institute de NYU et était conseiller auprès de la Federal Trade Commission – étaient encore plus pointus (et également percutants en raison de la réaction enthousiaste du public à leur égard). Son message était que, aussi enchanté que puisse être le monde aujourd’hui par des chatbots comme ChatGPT et Bard, la technologie qui les sous-tend est dangereuse, d’autant plus que le pouvoir est de plus en plus concentré par ceux qui se trouvent au sommet de la pyramide avancée de l’IA.
Whittaker a déclaré : « Je dirais que peut-être que certaines personnes de ce public sont des utilisateurs de l’IA, mais la majorité de la population est le sujet de l’IA. . .Ce n’est pas une question de choix individuel. La plupart des façons dont l’IA interpole notre vie prend des décisions qui façonnent notre accès aux ressources aux opportunités sont prises dans les coulisses d’une manière que nous ne connaissons probablement même pas.
Whittaker a donné l’exemple d’une personne qui entre dans une banque et demande un prêt. Cette personne peut être refusée et n’avoir « aucune idée qu’il y a un système dans [the] back probablement alimenté par une API Microsoft qui a déterminé, sur la base des médias sociaux récupérés, que je n’étais pas solvable. Je ne saurai jamais [because] il n’y a aucun mécanisme pour que je le sache. Il existe des moyens de changer cela, a-t-elle poursuivi, mais surmonter la hiérarchie actuelle du pouvoir pour ce faire est presque impossible, a-t-elle suggéré. «Je suis à la table depuis environ 15 ans, 20 ans. j’ai a été à la table. Être à table sans pouvoir n’est rien.
Certes, beaucoup de personnes impuissantes pourraient être d’accord avec Whittaker, y compris les employés actuels et anciens d’OpenAI et de Google qui se seraient parfois méfiés de l’approche de leur entreprise pour lancer des produits d’IA.
En effet, la modératrice de Bloomberg, Sarah Frier, a demandé au panel comment les employés concernés peuvent s’exprimer sans craindre de perdre leur emploi, ce à quoi Singh – dont la startup aide les entreprises à gérer l’IA – a répondu : « Je pense que cela dépend en grande partie de la direction et de l’entreprise. valeurs, pour être honnête. . . . Nous avons vu instance après instance au cours de l’année écoulée que des équipes d’IA responsables ont été licenciées.
En attendant, il y a beaucoup plus que les gens ordinaires ne comprennent pas sur ce qui se passe, a suggéré Whittaker, qualifiant l’IA de « technologie de surveillance ». Face à la foule, a-t-elle expliqué, notant que l’IA « nécessite une surveillance sous la forme de ces ensembles de données massifs qui enracinent et élargissent le besoin de plus en plus de données et d’une collecte de plus en plus intime. La solution à tout est plus de données, plus de connaissances mises en commun entre les mains de ces entreprises. Mais ces systèmes sont également déployés en tant que dispositifs de surveillance. Et je pense qu’il est vraiment important de reconnaître que peu importe si une sortie d’un système d’IA est produite par une estimation statistique probabiliste, ou si ce sont les données d’une tour cellulaire qui triangule ma position. Ces données deviennent des données sur moi. Il n’a pas besoin d’être correct. Il n’a pas besoin de refléter qui je suis ou où je suis. Mais il a un pouvoir sur ma vie qui est important, et ce pouvoir est mis entre les mains de ces entreprises.
Whittaker a ajouté que « le diagramme de Venn des problèmes d’IA et de confidentialité est un cercle ».
Whittaker a évidemment son propre programme jusqu’à un certain point. Comme elle l’a dit elle-même lors de l’événement, « il existe un monde où Signal et d’autres technologies légitimes de préservation de la vie privée persévèrent » parce que les gens sont de moins en moins à l’aise avec cette concentration de pouvoir.
Mais aussi, s’il n’y a pas assez de recul et bientôt – à mesure que les progrès de l’IA s’accélèrent, les impacts sociétaux s’accélèrent également – nous continuerons à nous diriger sur une « route remplie de battage médiatique vers l’IA », a-t-elle déclaré, « où ce pouvoir est enraciné et naturalisés sous couvert d’intelligence et nous sommes surveillés au point [of having] très, très peu d’action sur nos vies individuelles et collectives.
Cette « préoccupation est existentielle, et elle est bien plus grande que le cadrage de l’IA qui est souvent donné ».
Nous avons trouvé la discussion captivante; si vous souhaitez voir le tout, Bloomberg l’a depuis posté ici.
Meredith Whittaker et d’autres des esprits les plus pointus et des professionnels de la cybersécurité nous rejoindront à TechCrunch Disrupt pour discuter des plus grands défis de l’industrie aujourd’hui. Rejoignez-nous pour entendre des hackers, des défenseurs de première ligne et des chercheurs en sécurité tirer parti de leurs connaissances et de leur expérience de première main sur les menaces les plus critiques et ce qui peut être fait à leur sujet. De plus, vous découvrirez comment un géant de la technologie travaille pour assurer la sécurité de milliards d’utilisateurs, et vous rencontrerez les startups travaillant à sécuriser la crypto, le matériel et la messagerie pour les masses. Rejoignez-nous là-bas et bénéficiez de 25% de réduction sur votre pass Disrupt 2023 avec le code promo secure25 – achetez ici.