Autrefois, le mantra de Google était « ne sois pas méchant », et maintenant l’ancien PDG Eric Schmidt demande aux grandes technologies d’adopter une philosophie similaire en matière d’IA.
Parler à ABC Nouvelles (s’ouvre dans un nouvel onglet)l’ancien directeur de Google a déclaré qu’il avait du mal à suivre le déploiement de la technologie de l’IA, et pense que le secteur technologique doit faire plus pour s’assurer que les systèmes sont utilisés pour le bien, et non pour le mal.
Nous avons déjà vu de nombreux exemples d’IA exploités ces derniers mois. Qu’il s’agisse de ChatGPT et de Google Bard impliqués dans des litiges de plagiat ou de création de logiciels malveillants (s’ouvre dans un nouvel onglet)deepfakes, préjugés inconscients dans la programmation de l’IA, ou un certain nombre de problèmes qui découlent du transfert du contrôle à une machine ou à un algorithme – dépourvus du bon sens et de la raison d’un être humain.
« Nous, collectivement, dans notre industrie, sommes confrontés à une question de savoir comment voulons-nous nous assurer que ce genre de choses ne nuit pas mais aide juste ? » Schmidt, donnant l’exemple de la façon dont les médias sociaux ont été utilisés pour influencer les élections et entraîner la mort de personnes. « Personne ne voulait dire que comme [the] but, et pourtant c’est arrivé. Comment pouvons-nous empêcher cela avec ce [A.I.] technologie? »
Schmidt n’est pas tout à fait pessimiste cependant, et a noté qu’il y a énormément de bien qui peut sortir de l’IA. Il a particulièrement noté la santé et l’éducation, et comment l’IA pourrait améliorer l’accès aux ressources. Surtout si cela signifie avoir un tuteur en IA capable d’enseigner dans toutes les langues du monde.
L’IA est un sujet difficile pour de nombreuses raisons
Là encore, Schmidt a répliqué en notant les défis de cette utilisation de l’IA, tels que les étudiants tombant amoureux des tuteurs en IA, et d’autres façons dont elle peut être utilisée pour « manipuler la vie quotidienne des gens, littéralement la façon dont ils pensent, ce qu’ils choisir et ainsi de suite, cela affecte le fonctionnement des démocraties.
Schmidt soulève d’excellents points, bien que peu d’entre eux soient complètement nouveaux. Il y a eu des avertissements concernant la technologie de l’IA depuis un certain temps maintenant, et la popularité récente d’outils comme ChatGPT a mis ces préoccupations au premier plan. Surtout avec toutes les façons dont les gens ont exploité les capacités de ChatGPT pour leur propre profit.
À son crédit, OpenAI a fait beaucoup pour essayer d’empêcher ChatGPT d’être exploité à des fins néfastes. Mais, comme nous l’avons vu, il existe des échappatoires et des moyens de contourner cela. Il existe des moyens de faire en sorte que ChatGPT réponde à toutes les questions, même celles qui sont interdites, et bien sûr, il y a le clone « diabolique » de ChatGPT appelé DAN – qui n’a pas de telles limitations.
Et, tout récemment, un YouTuber a pu forcer ChatGPT à générer des clés de connexion Windows 95, malgré le fait qu’il est interdit à l’IA de le faire directement.
L’avenir de l’IA est encore assez incertain, et certains gouvernements mondiaux adoptent des lois pour interdire certaines utilisations. Mais Schmidt a raison, et les entreprises responsables doivent s’assurer qu’il est utilisé de manière responsable et pour le plus grand bien. Parce que la dernière chose dont nous avons besoin, c’est que les gens commencent à exploiter les outils d’IA pour attiser l’agitation de la même manière que cela s’est produit sur les réseaux sociaux.