Les utilisateurs de Slack sont horrifiés de découvrir les messages utilisés pour la formation à l’IA

Après avoir lancé Slack AI en février, Slack semble s’entêter, défendant sa politique vague qui aspire par défaut les données des clients, y compris les messages, le contenu et les fichiers, pour entraîner les modèles globaux d’IA de Slack.

Selon l’ingénieur de Slack Aaron Maurer, Slack a expliqué dans un blog que le service de chat appartenant à Salesforce n’entraîne pas ses grands modèles de langage (LLM) sur les données des clients. Mais la politique de Slack devra peut-être être mise à jour « pour expliquer plus précisément comment ces principes de confidentialité jouent avec Slack AI », a écrit Maurer sur Threads, en partie parce que la politique « a été rédigée à l’origine sur le travail de recherche/recommandation que nous effectuons depuis des années avant Slack. IA. »

Maurer répondait à un article de Threads de l’ingénieur et écrivain Gergely Orosz, qui appelait les entreprises à se retirer du partage de données jusqu’à ce que la politique soit clarifiée, non pas par un blog, mais dans le langage politique lui-même.

« Un ingénieur ML chez Slack dit qu’ils n’utilisent pas de messages pour former des modèles LLM », a écrit Orosz. « Ma réponse est que les conditions actuelles leur permettent de le faire. Je croirai que c’est la politique lorsque cela figure dans la politique. Un article de blog n’est pas la politique de confidentialité : toute entreprise sérieuse le sait. »

La tension pour les utilisateurs devient plus claire si l’on compare les principes de confidentialité de Slack avec la façon dont l’entreprise vante Slack AI.

Les principes de confidentialité de Slack stipulent spécifiquement que « l’apprentissage automatique (ML) et l’intelligence artificielle (IA) sont des outils utiles que nous utilisons de manière limitée pour améliorer la mission de notre produit. Pour développer des modèles IA/ML, nos systèmes analysent les données client (par exemple, les messages, le contenu). , et fichiers) soumis à Slack ainsi que d’autres informations (y compris les informations d’utilisation) telles que définies dans notre politique de confidentialité et dans votre accord client.

Pendant ce temps, la page de Slack AI indique : « Travaillez sans souci. Vos données sont vos données. Nous ne les utilisons pas pour entraîner Slack AI. »

En raison de cette incongruité, les utilisateurs ont demandé à Slack de mettre à jour les principes de confidentialité afin de préciser comment les données sont utilisées pour Slack AI ou pour toute future mise à jour de l’IA. Selon un porte-parole de Salesforce, la société a convenu qu’une mise à jour était nécessaire.

« Hier, certains membres de la communauté Slack ont ​​demandé plus de clarté concernant nos principes de confidentialité », a déclaré le porte-parole de Salesforce à Ars. « Nous mettrons à jour ces principes aujourd’hui pour mieux expliquer la relation entre les données client et l’IA générative dans Slack. »

Le porte-parole a déclaré à Ars que les mises à jour de la politique clarifieront que Slack « ne développe pas de LLM ou d’autres modèles génératifs en utilisant les données des clients », « n’utilise pas les données des clients pour former des LLM tiers » ou « ne construit ou ne forme pas ces modèles de telle manière qu’ils pourrait apprendre, mémoriser ou être capable de reproduire les données des clients. La mise à jour clarifiera également que « Slack AI utilise des LLM disponibles dans le commerce dont les modèles ne conservent pas les données des clients », garantissant que « les données des clients ne quittent jamais la limite de confiance de Slack et que les fournisseurs du LLM n’ont jamais accès au données client. »

Ces changements ne semblent cependant pas répondre à une préoccupation majeure des utilisateurs qui n’ont jamais explicitement consenti au partage de discussions et d’autres contenus Slack pour une utilisation dans la formation à l’IA.

Les utilisateurs refusent de partager des discussions avec Slack

Cette politique controversée n’est pas nouvelle. Wired en a averti en avril et TechCrunch a rapporté que la politique était en place depuis au moins septembre 2023.

Mais des réactions négatives généralisées ont commencé à s’accentuer hier soir sur Hacker News, où les utilisateurs de Slack ont ​​critiqué le service de chat pour avoir apparemment omis d’informer les utilisateurs du changement de politique, au lieu de les avoir discrètement activés par défaut. Pour les critiques, il semblait qu’il n’y avait aucun avantage à opter pour quelqu’un d’autre que Slack.

À partir de là, la réaction s’est propagée aux médias sociaux, où SlackHQ s’est empressé de clarifier les termes de Slack avec des explications qui ne semblaient pas répondre à toutes les critiques.

« Je suis désolé Slack, tu fais QUOI avec les DM, les messages, les fichiers, etc. des utilisateurs ? » Corey Quinn, économiste en chef du cloud pour une société de gestion des coûts appelée Duckbill Group, a publié sur X. « Je suis sûr que je ne lis pas correctement. »

SlackHQ a répondu à Quinn après que l’économiste ait déclaré : « Je déteste tellement ça » et a confirmé qu’il avait choisi de ne pas partager de données dans son espace de travail payant.

« Pour clarifier, Slack dispose de modèles d’apprentissage automatique au niveau de la plate-forme pour des éléments tels que les recommandations de chaînes et d’emojis et les résultats de recherche », a publié SlackHQ. « Et oui, les clients peuvent exclure leurs données de la formation de ces modèles ML (non génératifs). Les données client appartiennent au client. »

Plus loin dans le fil de discussion, SlackHQ a noté : « Slack AI, qui est notre expérience d’IA générative intégrée nativement dans Slack –[and] est un module complémentaire acheté séparément qui utilise des modèles LLM (Large Language Models), mais ne forme pas ces LLM sur les données client.

Source-147