Selon des documents internes examinés par Bloomberg (s’ouvre dans un nouvel onglet)plusieurs employés de Google ont fait part de leurs inquiétudes quant au fait que son barde (s’ouvre dans un nouvel onglet) Le chatbot AI n’était pas prêt pour sa sortie en mars, citant des réponses de mauvaise qualité, incorrectes et potentiellement dangereuses. Deux citations à propos de Bard auraient été faites par des employés : « menteur pathologique » et « digne de grincer des dents ».
Barde (s’ouvre dans un nouvel onglet) est la réponse de Google au ChatGPT d’OpenAI (s’ouvre dans un nouvel onglet). Le PDG Sundar Pichai a déclaré qu’il « combine l’étendue des connaissances mondiales avec la puissance, l’intelligence et la créativité de nos grands modèles linguistiques ». Mais Bloomberg rapporte que Google a précipité Bard à la porte afin de concurrencer ChatGPT dans ce que la société aurait appelé un « code rouge » concurrentiel.
Selon le rapport de Bloomberg, un employé a envoyé un message à un groupe de messagerie interne qui a été consulté par 7 000 employés en disant : « Bard est pire qu’inutile : s’il vous plaît, ne le lancez pas ». Juste avant le lancement, la responsable de la gouvernance de l’IA de Google, Jen Gennai, aurait annulé une évaluation des risques par sa propre équipe lorsqu’ils ont déclaré que les réponses de Bard pourraient être potentiellement nuisibles.
Bloomberg rapporte quelques exemples : des suggestions sur l’atterrissage d’un avion qui entraîneraient un crash et des instructions de plongée sous-marine qui auraient pu entraîner « des blessures graves ou la mort ».
Meredith Whittaker, ancienne responsable de Google, a déclaré à Bloomberg que « l’éthique de l’IA a pris du recul » dans l’entreprise.
ChatGPT a ses propres problèmes avec la vérité (s’ouvre dans un nouvel onglet) et la recherche appropriée d’informations qu’il récupère pour obtenir des réponses. Actuellement, Google qualifie Bard d' »expérience » et, selon les termes de Bloomberg, affirme que « l’IA responsable est une priorité absolue » pour l’entreprise.
À titre expérimental, j’ai demandé à Google Bard si ses conseils étaient potentiellement dangereux, et il a répondu avec la réponse suivante :
« Il est possible que mes conseils soient dangereux, surtout s’ils concernent la santé ou d’autres sujets sensibles. Je suis encore en cours de développement et je ne suis pas toujours capable de faire la distinction entre les bons et les mauvais conseils. »
Il m’a également dit de ne pas compter sur ses conseils pour les « décisions importantes » et qu’il « n’a pas le même niveau de compréhension et de connaissances qu’un être humain ».