De l’extérieur, Google Bard ressemble à un produit précipité pour essayer de concurrencer ChatGPT, et certains employés de Google partagent ces sentiments. Un nouveau rapport de Bloomberg interviewe 18 employés actuels et anciens et repart avec une pile de commentaires accablants et de préoccupations concernant les équipes d’éthique de l’IA qui ont été « impuissance et démoralisées » afin que Google puisse faire sortir Bard.
Selon le rapport, les employés de Google ont testé la pré-version de Bard, puis ont été invités à donner leur avis, qui a été la plupart du temps ignoré afin que Bard puisse se lancer plus rapidement. Les discussions internes consultées par Bloomberg ont qualifié Bard de « grincer des dents » et de « menteur pathologique ». Lorsqu’on lui a demandé comment faire atterrir un avion, il a donné des instructions incorrectes qui conduiraient à un crash. Un employé a demandé des instructions de plongée et a obtenu une réponse qui, selon lui, « entraînerait probablement des blessures graves ou la mort ». Un employé a résumé les problèmes de Bard dans un article de février intitulé « Bard est pire qu’inutile : ne le lancez pas. » Bard a été lancé en mars.
Vous pourriez probablement dire beaucoup des mêmes choses à propos du concurrent de l’IA que Google poursuit, ChatGPT d’OpenAI. Les deux peuvent donner des informations biaisées ou fausses et halluciner des réponses incorrectes. Google est loin derrière ChatGPT, et la société est paniquée par la capacité de ChatGPT à répondre aux questions que les gens pourraient autrement saisir dans la recherche Google. Le créateur de ChatGPT, OpenAI, a été critiqué pour son approche laxiste de la sécurité et de l’éthique de l’IA. Maintenant, Google se retrouve dans une situation difficile. Si la seule préoccupation de l’entreprise est d’apaiser le marché boursier et de rattraper ChatGPT, elle ne pourra probablement pas le faire si elle ralentit pour prendre en compte les problèmes d’éthique.
Meredith Whittaker, ancienne directrice de Google et présidente de la Signal Foundation, a déclaré à Bloomberg que « l’éthique de l’IA est passée au second plan » chez Google et a déclaré que « si l’éthique n’est pas positionnée pour prendre le pas sur le profit et la croissance, elle ne le sera finalement pas ». travail. » Plusieurs des responsables de l’éthique de l’IA de Google ont été licenciés ou ont quitté l’entreprise ces dernières années. Bloomberg affirme qu’aujourd’hui, les évaluations éthiques de l’IA sont « presque entièrement volontaires » chez Google.
Bien que vous puissiez faire quelque chose chez Google pour essayer de ralentir les publications en raison de problèmes d’éthique, cela ne sera probablement pas formidable pour votre carrière. Le rapport indique : « Un ancien employé a déclaré qu’il avait demandé à travailler sur l’équité dans l’apprentissage automatique et qu’il était régulièrement découragé, au point que cela affectait son évaluation des performances. Les responsables ont protesté que cela gênait leur « vrai travail ». «