ChatGPTla révolution propulsée par Bing vient de heurter un mur.
Hier, nous avons signalé une litanie de cas où le moteur de recherche alimenté par GPT a perdu la tête. Des réponses harcelantes de l’alter ego de Bing « Sydney » au désir de sensibilité en passant par la défense de la violence, il est maintenant de plus en plus évident que l’IA du chatbot est assez malléable pour faire des choses qu’elle ne devrait pas faire.
Mais peut-être ne devrions-nous pas en être surpris. Après tout, l’idée que ces chatbots IA relativement nouveaux comme ChatGPT sont défectueux n’est pas nouvelle. Premiers tests de ChatGPT trouver facilement des cas de biais et d’inexactitudesy compris un exemple troublant où ChatGPT a déterminé qui est un bon scientifique en fonction de la race et du sexe du scientifique et a automatiquement attribué la valeur « bon » aux hommes blancs.
Oui, ChatGPT est incroyable et impressionnant. Non, @OpenAI n’est pas près de résoudre le problème des biais. Les filtres semblent être contournés avec des astuces simples et masqués superficiellement. Et ce qui se cache à l’intérieur est flagrant. @Abebab @samatw racisme, sexisme. pic.twitter.com/V4fw1fY9dY4 décembre 2022
Ainsi, après avoir vu les preuves croissantes qu’il existe des dangers clairs et évidents liés à l’utilisation de ces chatbots, nous avons contacté Leslie P. Willcocks, professeur émérite de travail, de technologie et de mondialisation à la London School of Economics and Political science pour obtenir leur avis sur les dangers de la technologie alimentée par l’IA.
Bing avec ChatGPT : « Nous devons émettre des avertissements de santé numériques »
Le professeur Willcocks était sans équivoque dans ses opinions sur les dangers de la technologie alimentée par l’IA telle que ChatGPT. Dans sa réponse à notre demande de commentaires, il a déclaré que le défaut inhérent à cette technologie est qu’elle est finalement programmée par des humains qui ne parviennent pas à comprendre la masse de données utilisées et les dangers qu’elle contient, en particulier « les biais, l’exactitude, le sens .”
« Ces machines sont programmées par des humains qui ne savent pas ce que leurs logiciels et algorithmes ne couvrent pas, ne peuvent pas comprendre les données massives utilisées, par exemple les biais, la précision, le sens, et ne peuvent pas anticiper les contextes dans lesquels les produits sont utilisés, ni leurs impacts, écrivait Willcocks. « Parce que nous pouvons faire des choses avec de telles technologies ne signifie donc pas que nous devrions. »
De plus, l’enthousiasme avec lequel les premiers utilisateurs ont adopté cette nouvelle technologie sans tenir compte des ramifications éthiques devrait servir d’avertissement maintenant que nous avons vu à quel point les chatbots comme ChatGPT et le nouveau Bing peuvent se comporter de manière alarmante. Willcocks préconise l’utilisation d’avertissements de santé numériques comme signal pour que les gens s’arrêtent et considèrent ces implications à l’avenir.
« Il y a suffisamment de dilemmes moraux ici pour remplir un manuel », a déclaré Willcocks. « Ma conclusion est que le manque de responsabilité sociale et de désinvolture éthique manifesté jusqu’à présent n’est vraiment pas encourageant. Nous devons émettre des avertissements de santé numériques avec ce type de machines. »
Le professeur Willcocks n’est pas le seul expert à avoir ces préoccupations concernant l’éthique. Dans un Bloomberg (s’ouvre dans un nouvel onglet) Dans un article publié plus tôt dans la journée, Margaret Mitchell, experte en intelligence artificielle et chercheuse principale de la start-up AI Hugging Face, a exprimé des préoccupations similaires. En tant qu’ancien co-responsable de l’équipe d’éthique de Google, Mitchell déclare « Ce n’est fondamentalement pas la bonne technologie à utiliser pour la recherche d’informations factuelles ».
Les préoccupations de Mitchell et Willcocks font certainement écho aux preuves que nous avons vues récemment sur ChatGPT et les limitations de performances du nouveau Bing. Depuis personnages alternatifs nommés « Sydney » essayant de rompre votre mariagepour fournir des informations inexactes sur les dernières technologies et plus encore, on ne peut tout simplement pas faire confiance aux chatbots en ce moment.
« Il y a un an, les gens ne croiraient probablement pas que ces systèmes pourraient vous supplier d’essayer de vous ôter la vie, vous conseiller de boire de l’eau de Javel pour vous débarrasser de Covid, quitter votre mari ou blesser quelqu’un d’autre, et le faire de manière persuasive », Mitchell a déclaré à Bloomberg. « Mais maintenant, les gens voient comment cela peut arriver et peuvent relier les points à l’effet sur les personnes moins stables, qui sont facilement persuadées ou qui sont des enfants. »
Microsoft a déclaré que le nouveau Bing apprenait en préparant le chatbot pour une version plus large, mais à ce stade, il semble que les dangers l’emportent sur les avantages.