À peu près au moment où J. Robert Oppenheimer a appris qu’Hiroshima avait été frappée (aux côtés de tous les autres dans le monde), il a commencé à avoir de profonds regrets quant à son rôle dans la création de cette bombe. À un moment donné lors de sa rencontre, le président Truman Oppenheimer a pleuré et exprimé ce regret. Truman l’a traité de pleurnichard et a dit qu’il ne voulait plus jamais le revoir. Et Christopher Nolan espère que lorsque le public de la Silicon Valley verra son film Oppenheimer (sortie le 21 juin) voir son interprétation de tous ces événements, ils y verront aussi quelque chose d’eux-mêmes.
Après une projection de Oppenheimer à l’hôtel Whitby hier, Christopher Nolan a rejoint un panel de scientifiques et Kai Bird, l’un des auteurs du livre sur lequel Oppenheimer est basé pour parler du film, Prométhée américain. Le public était principalement composé de scientifiques, qui riaient aux blagues sur l’ego des physiciens dans le film, mais il y avait aussi quelques journalistes, dont moi-même.
Nous avons écouté des débats trop brefs sur le succès de la dissuasion nucléaire et le Dr Thom Mason, l’actuel directeur de Los Alamos, a expliqué combien d’employés de laboratoire actuels avaient des camées dans le film, car une grande partie avait été tournée à proximité. Mais vers la fin de la conversation, le modérateur, Chuck Todd de Rencontrer la presse, a demandé à Nolan ce qu’il espérait que la Silicon Valley puisse apprendre du film. « Je pense que ce que je voudrais qu’ils retiennent, c’est le concept de responsabilité », a-t-il déclaré à Todd.
« Appliqué à l’IA ? C’est une possibilité terrifiante. Terrifiant.
Il a ensuite précisé: « Lorsque vous innovez grâce à la technologie, vous devez vous assurer qu’il y a une responsabilité. » Il faisait référence à une grande variété d’innovations technologiques qui ont été adoptées par la Silicon Valley, alors que ces mêmes entreprises ont refusé de reconnaître le mal qu’elles ont causé à plusieurs reprises. « L’augmentation du nombre d’entreprises au cours des 15 dernières années utilisant des mots comme « algorithme », ne sachant pas ce qu’ils signifient dans un sens mathématique significatif. Ils ne veulent tout simplement pas assumer la responsabilité de ce que fait cet algorithme.
Il a poursuivi: «Et appliqué à l’IA? C’est une possibilité terrifiante. Terrifiant. Notamment parce que les systèmes d’IA entrent dans l’infrastructure de défense, en fin de compte, ils seront accusés d’armes nucléaires et si nous permettons aux gens de dire qu’il s’agit d’une entité distincte de la personne qui utilise, programme et utilise l’IA, alors nous sommes condamnés. Il doit s’agir de responsabilité. Nous devons tenir les gens responsables de ce qu’ils font avec les outils dont ils disposent.
Bien que Nolan n’ait fait référence à aucune entreprise en particulier, il n’est pas difficile de savoir de quoi il parle. Des entreprises comme Google, Meta et même Netflix dépendent fortement des algorithmes pour acquérir et maintenir des audiences et il y a souvent des résultats imprévus et souvent odieux à cette dépendance. Probablement le plus remarquable et le plus horrible étant la contribution de Meta à génocide au Myanmar.
« Au moins, cela sert de récit édifiant. »
Alors qu’une tournée d’excuses est pratiquement garantie maintenant quelques jours après que l’algorithme d’une entreprise ait fait quelque chose de terrible, les algorithmes restent. Les discussions viennent même d’être lancées avec un exclusivement alimentation algorithmique. Parfois, les entreprises peuvent vous donner un outil, comme Facebook l’a fait, pour le désactiver, mais ces algorithmes de boîte noire restent, avec très peu de discussions sur tous les mauvais résultats potentiels et beaucoup de discussions sur les bons.
« Quand je parle aux principaux chercheurs dans le domaine de l’IA, ils se réfèrent littéralement à cela en ce moment comme leur moment Oppenheimer », a déclaré Nolan. « Ils se tournent vers son histoire pour dire quelles sont les responsabilités des scientifiques développant de nouvelles technologies qui peuvent avoir des conséquences imprévues. »
« Pensez-vous que la Silicon Valley pense cela en ce moment? » Todd lui a demandé.
« Ils disent qu’ils le font », a répondu Nolan. « Et c’est, » gloussa-t-il, « c’est utile. Ça au moins c’est dans la conversation. Et j’espère que ce processus de réflexion se poursuivra. Je ne dis pas que l’histoire d’Oppenheimer offre des réponses faciles à ces questions. Mais au moins, cela sert de récit édifiant.