mardi, février 25, 2025

OpenAI prend des mesures contre les fraudeurs utilisant ChatGPT

OpenAI a mis en garde contre l’utilisation malveillante de ChatGPT, ayant supprimé des comptes abusifs. L’entreprise a atteint 400 millions d’utilisateurs hebdomadaires, mais fait face à des problèmes éthiques. Des cas de comptes générant de fausses informations et des CV fictifs ont été signalés. OpenAI a collaboré avec d’autres entreprises pour lutter contre ces abus. Les experts en cybersécurité s’inquiètent également des risques liés à l’utilisation de l’IA pour des activités nuisibles, comme la création de logiciels malveillants.

OpenAI a clairement stipulé que son produit phare d’intelligence artificielle, ChatGPT, ne doit pas être utilisé à des fins malveillantes.

Dans un rapport récemment publié, l’entreprise a mis en lumière les tendances observées chez les utilisateurs malintentionnés exploitant sa plateforme alors qu’elle gagne en popularité. OpenAI a révélé avoir supprimé plusieurs dizaines de comptes soupçonnés d’utiliser ChatGPT de manière abusive, notamment pour des activités telles que le débogage de code ou la création de contenus destinés à être diffusés sur diverses plateformes.

Par ailleurs, OpenAI a fièrement annoncé avoir atteint un nombre impressionnant de 400 millions d’utilisateurs actifs chaque semaine. L’entreprise a précisé que son nombre d’utilisateurs avait grimpé de plus de 100 millions en l’espace de trois mois, grâce à un intérêt croissant de la part des entreprises et des développeurs pour ses outils. Cependant, il est important de noter que ChatGPT est également accessible gratuitement à l’échelle mondiale. Alors que les questions morales et éthiques entourant son utilisation continuent d’être débattues, OpenAI est consciente qu’il existe des individus avec des intentions douteuses sur sa plateforme.

« Les règles d’OpenAI interdisent formellement l’utilisation des résultats de nos outils pour des activités frauduleuses ou des escroqueries. En menant des enquêtes sur les utilisations abusives, nous avons pu identifier et exclure plusieurs comptes, » a déclaré l’entreprise dans son rapport.

Le rapport d’OpenAI aborde la nécessité de lutter contre les comportements nuisibles sur ChatGPT. L’entreprise a présenté plusieurs études de cas où elle a détecté et banni des comptes jugés malveillants.

Dans l’un de ces cas, OpenAI a exposé un compte qui rédigeait des articles de presse négatifs sur les États-Unis, avec des sources d’information provenant d’Amérique latine, masquées sous une signature de publication chinoise.
Un autre exemple, en provenance de Corée du Nord, concernait un compte générant des CV et des profils fictifs. Selon OpenAI, ce compte aurait pu être utilisé pour postuler à des postes dans des entreprises occidentales.

Une autre étude a mis en lumière des comptes supposément basés au Cambodge, utilisant ChatGPT pour traduire et créer des commentaires sur des réseaux impliqués dans des « fraudes romantiques », qui infiltrent plusieurs plateformes de médias sociaux telles que X, Facebook et Instagram.

OpenAI a confirmé avoir partagé ses découvertes avec d’autres acteurs du secteur, comme Meta, qui pourraient être affectés par ces abus sur ChatGPT.

Un défi continu

Ce n’est pas la première fois qu’OpenAI évoque ses efforts pour contrer les utilisateurs malveillants sur sa plateforme d’intelligence artificielle. En octobre 2024, l’entreprise a publié un rapport révélant 20 cyberattaques qu’elle a réussi à neutraliser, incluant des incidents orchestrés par des hackers soutenus par des États comme l’Iran et la Chine.

Les experts en cybersécurité portent également un regard attentif sur les abus de ChatGPT, qui sont utilisés à des fins néfastes, telles que la création de logiciels malveillants. Ces préoccupations ont émergé dès le début de 2023, alors que l’outil était encore relativement nouveau sur le marché. C’est également à cette époque qu’OpenAI envisageait d’introduire un niveau d’abonnement pour répondre à la forte demande.

Ces activités malveillantes impliquent des acteurs utilisant l’API d’OpenAI pour développer des alternatives à ChatGPT capables de générer des codes malveillants. Cependant, des chercheurs en cybersécurité ont également examiné le code malveillant généré par l’IA, découvrant des vulnérabilités permettant au chatbot de produire du code malveillant en morceaux plus petits et moins détectables.

En février 2023, des professionnels de l’informatique et de la cybersécurité ont été interrogés sur la sécurité de ChatGPT, beaucoup exprimant leur conviction que l’outil pourrait être à l’origine d’une cyberattaque réussie dans l’année. En mars 2023, l’entreprise a subi sa première violation de données, un incident qui deviendrait malheureusement récurrent.

- Advertisement -

Latest