Il semble que malgré les efforts massifs pour augmenter sa propre part de marché dans le domaine des chatbots IA, la société mère de Google, Alphabet, a mis en garde son propre personnel contre les dangers des chatbots IA.
« La société mère de Google a conseillé aux employés de ne pas saisir ses documents confidentiels dans les chatbots IA » et a averti « ses ingénieurs d’éviter l’utilisation directe du code informatique que les chatbots peuvent générer », selon un rapport de Reuter. La raison de ces précautions de sécurité, qu’un nombre croissant d’entreprises et d’organisations ont mis en garde leurs employés concernant ces programmes de chat accessibles au public, est double.
La première est que les examinateurs humains, qui se sont avérés alimentent essentiellement les chatbots comme ChatGPT, pourrait lire les données sensibles saisies dans les chats. Une autre raison est que les chercheurs ont découvert L’IA pourrait reproduire les données qu’elle a absorbées et créer un risque de fuite. Google a déclaré à Reuters qu' »il visait à être transparent sur les limites de sa technologie ».
Pendant ce temps, Google a déployé son propre chatbot Barde Google dans 180 pays et dans plus de 40 langues, avec des milliards de dollars d’investissements ainsi que des revenus publicitaires et cloud provenant de ses programmes d’IA. Cela a également été élargir son ensemble d’outils d’IA à d’autres produits Google tels que Maps et Lens, malgré les réserves de certains dirigeants concernant les défis de sécurité internes potentiels présentés par les programmes.
La dualité de Google
L’une des raisons pour lesquelles Google essaie de gagner sur les deux tableaux est d’éviter tout préjudice commercial potentiel. Comme indiqué précédemment, le géant de la technologie a beaucoup investi dans cette technologie, et toute controverse majeure ou erreur de sécurité pourrait coûter énormément d’argent à Google.
D’autres entreprises ont tenté de mettre en place des normes similaires sur la façon dont leurs employés interagissent avec l’IA chatbot au travail. Certains ont confirmé cette notion auprès de Reuters, notamment Samsung, Amazon et Deutsche Bank. Apple n’a pas confirmé mais a aurait fait la même chose.
En fait, Samsung a purement et simplement interdit ChatGPT et d’autres IA génératives depuis son lieu de travail après avoir subi trois incidents d’employés ayant divulgué des informations sensibles via ChatGPT au début de 2023. Cela est particulièrement dommageable car le chatbot conserve toutes les données saisies, ce qui signifie que les secrets commerciaux internes de Samsung sont désormais essentiellement entre les mains d’OpenAI. .
Bien que cela semble assez hypocrite, il existe de nombreuses raisons pour lesquelles Google et d’autres entreprises sont si prudentes en interne à propos des chatbots IA. Cependant, j’aimerais qu’il puisse étendre cette prudence à la rapidité avec laquelle il se développe et pousse publiquement cette même technologie.