Les travailleurs kenyans qui ont aidé à supprimer le contenu préjudiciable sur ChatGPT, le moteur de recherche intelligent d’OpenAI qui génère du contenu basé sur les invites de l’utilisateur, ont déposé une pétition devant les législateurs du pays les appelant à lancer des enquêtes sur la modération de contenu externalisée de Big Tech et le travail de l’IA au Kenya.
Les pétitionnaires veulent des enquêtes sur la « nature du travail, les conditions de travail et les opérations » des grandes entreprises technologiques qui sous-traitent des services au Kenya par le biais d’entreprises comme Sama – qui est au cœur de plusieurs litiges sur des allégations d’exploitation, de lutte contre les syndicats et les licenciements massifs illégaux de modérateurs de contenu.
La pétition fait suite à un rapport du Time qui détaillait la rémunération pitoyable des travailleurs de Sama qui rendait ChatGPT moins toxique, et la nature de leur travail, qui nécessitait la lecture et l’étiquetage de texte graphique, y compris décrivant des scènes de meurtre, de bestialité et de viol. Le rapport indique qu’à la fin de 2021, Sama a été engagé par OpenAI pour « étiqueter les descriptions textuelles d’abus sexuels, de discours de haine et de violence » dans le cadre du travail de création d’un outil (qui a été intégré à ChatGPT) pour détecter le contenu toxique.
Les travailleurs disent qu’ils ont été exploités et qu’ils n’ont pas reçu de soutien psychosocial, mais qu’ils ont été exposés à des contenus préjudiciables qui les ont laissés avec une « maladie mentale grave ». Les travailleurs veulent que les législateurs « réglementent l’externalisation des technologies nocives et dangereuses » et protègent les travailleurs qui le font.
Ils les appellent également à promulguer une législation réglementant «l’externalisation des travaux technologiques nocifs et dangereux et protégeant les travailleurs engagés dans de tels engagements».
Sama affirme compter parmi ses clients 25 % des entreprises du Fortune 50, dont Google et Microsoft. L’activité principale de la société basée à San Francisco est l’annotation, la conservation et la validation des données de vision par ordinateur. Elle emploie plus de 3 000 personnes dans ses hubs, dont celui du Kenya. Plus tôt cette année, Sama a abandonné les services de modération de contenu pour se concentrer sur l’annotation des données de vision par ordinateur, licenciant 260 travailleurs.
La réponse d’OpenAI à l’exploitation présumée a reconnu que le travail était difficile, ajoutant qu’elle avait établi et partagé des normes d’éthique et de bien-être (sans donner plus de détails sur les mesures exactes) avec ses annotateurs de données pour que le travail soit effectué « humainement et volontairement ».
Ils ont noté que pour construire une intelligence générale artificielle sûre et bénéfique, l’annotation humaine des données était l’un des nombreux volets de son travail pour recueillir les commentaires humains et guider les modèles vers un comportement plus sûr dans le monde réel.
« Nous reconnaissons qu’il s’agit d’un travail difficile pour nos chercheurs et nos agents d’annotation au Kenya et dans le monde – leurs efforts pour garantir la sécurité des systèmes d’IA ont été extrêmement précieux », a déclaré le porte-parole d’OpenAI.
Sama a déclaré à TechCrunch qu’il était prêt à travailler avec le gouvernement kenyan « pour s’assurer que des protections de base sont en place dans toutes les entreprises ». Il a déclaré qu’il se félicitait des audits tiers de ses conditions de travail, ajoutant que les employés disposaient de plusieurs canaux pour faire part de leurs préoccupations, et qu’il avait «réalisé plusieurs évaluations et audits externes et internes pour s’assurer que nous payons des salaires équitables et offrons un environnement de travail qui est digne ».