OpenAI a besoin d’un DAO pour gérer ChatGPT

ChatGPT, un grand modèle de langage qui peut converser avec les utilisateurs, est l’un des modèles révolutionnaires d’OpenAI. Bien que cette technologie présente de nombreux avantages, certains craignent qu’elle doive être réglementée de manière à garantir la confidentialité, la neutralité et la décentralisation des connaissances. Une organisation autonome décentralisée (DAO) peut être la solution à ces problèmes.

Premièrement, la confidentialité est une préoccupation majeure en ce qui concerne l’utilisation de ChatGPT. Afin d’améliorer ses réponses, le modèle recueille des données auprès des utilisateurs – mais ces données peuvent contenir des informations sensibles que les individus peuvent ne pas vouloir divulguer à une autorité centrale. Par exemple, si un utilisateur divulgue à ChatGPT ses antécédents financiers ou médicaux, ces informations peuvent être conservées et utilisées d’une manière qu’il n’avait pas prévue ou autorisée. Si les informations sont obtenues par des parties non autorisées, cela peut entraîner des violations de la vie privée ou même un vol d’identité.

En rapport: L’IA a un rôle à jouer dans la détection des faux NFT

En outre, ChatGPT pourrait être utilisé pour des activités illicites telles que les escroqueries par hameçonnage. ou des attaques d’ingénierie sociale. En imitant une discussion humaine, ChatGPT pourrait inciter les utilisateurs à divulguer des informations privées ou à prendre des mesures qu’ils ne feraient pas normalement. Il est essentiel qu’OpenAI institue des politiques et des procédures claires pour la gestion et le stockage des données des utilisateurs afin d’apaiser ces soucis de confidentialité. Un DAO peut s’assurer que les données collectées par ChatGPT sont stockées de manière décentralisée, où les utilisateurs ont plus de contrôle sur leurs données et où elles ne peuvent être consultées que par des entités autorisées.

Deuxièmement, les préjugés politiques dans les modèles d’intelligence artificielle suscitent une inquiétude croissante, et ChatGPT ne fait pas exception. Certains craignent que lorsque ces modèles se développent davantage, ils ne renforcent involontairement les préjugés sociétaux existants ou peut-être en introduisent de nouveaux. Le chatbot IA peut également être utilisé pour diffuser de la propagande ou de fausses informations. Cela peut entraîner des résultats injustes ou injustes qui ont un effet négatif sur les individus et les communautés. Des réponses biaisées peuvent résulter du modèle, reflétant les préjugés des développeurs ou des données d’entraînement.

En rapport: Les mineurs de crypto-monnaie mènent la prochaine étape de l’IA

Un DAO peut garantir que ChatGPT est formé sur des données objectives et que les réponses qu’il produit sont examinées par un large éventail de personnes, telles que des représentants de diverses entreprises, institutions académiques et organisations sociales qui peuvent repérer et rectifier tout biais. Cela minimiserait la possibilité de partialité en garantissant que les décisions sur ChatGPT sont prises avec la contribution d’une diversité de points de vue.

Le DAO peut également mettre en place un système de freins et contrepoids pour s’assurer que ChatGPT ne renforce pas les préjugés déjà existants dans la société ou n’en introduit pas de nouveaux. Le DAO peut, par exemple, mettre en place une procédure d’audit des réponses de ChatGPT pour s’assurer qu’elles sont impartiales et justes. Cela pourrait impliquer que des professionnels impartiaux examinent les commentaires de ChatGPT et signalent tout cas de préjudice.

Enfin, un autre problème avec ChatGPT est la centralisation des connaissances. Le modèle a accès à une mine d’informations, ce qui est avantageux à bien des égards. Il pourrait en résulter un monopole sur le savoir puisque le savoir est concentré entre les mains d’un petit nombre de personnes ou d’organisations. De même, il existe un risque que le partage des connaissances entre l’homme et la machine devienne la norme, laissant les individus entièrement dépendants des machines pour la connaissance collective.

Par exemple, un programmeur confronté à un problème de codage aurait pu plus tôt recourir à Stack Overflow pour demander de l’aide en publiant sa question et en recevant des réponses d’autres programmeurs humains qui auraient pu rencontrer des problèmes similaires et trouver des solutions. Pourtant, à mesure que les modèles de langage d’IA comme ChatGPT prolifèrent, il devient de plus en plus courant pour les programmeurs de poser une requête et de recevoir ensuite une réponse sans avoir à communiquer avec d’autres personnes. Cela pourrait avoir pour conséquence que les utilisateurs interagissent moins et partagent moins de connaissances en ligne – par exemple, sur des sites Web tels que Stack Overflow – et une consolidation des connaissances au sein des modèles de langage d’IA. Cela pourrait considérablement saper l’action humaine et le contrôle de la production et de la distribution des connaissances, les rendant moins accessibles à l’avenir.

Il n’y a pas de réponses faciles au problème compliqué de la centralisation des connaissances. Il souligne cependant la nécessité d’une stratégie plus décentralisée de production et de transfert de connaissances. Un DAO, qui offre un cadre pour un partage d’informations plus démocratique et plus ouvert, peut être en mesure d’aider dans cette situation. En utilisant la technologie blockchain et les contrats intelligents, un DAO pourrait permettre aux personnes et aux organisations de travailler ensemble et de contribuer à un ensemble de connaissances partagées tout en ayant plus de contrôle sur la façon dont ces connaissances sont accessibles.

En fin de compte, un DAO peut offrir un cadre pour superviser et gérer les opérations de ChatGPT, garantissant un stockage décentralisé des données des utilisateurs, des réponses contrôlées pour les biais et un échange d’informations plus démocratique et ouvert. L’utilisation d’un DAO peut être une solution viable à ces préoccupations, permettant une plus grande responsabilité, transparence et contrôle sur l’utilisation de ChatGPT et d’autres modèles de langage d’IA. Alors que la technologie de l’IA continue de progresser, il est essentiel que nous donnions la priorité aux considérations éthiques et que nous prenions des mesures proactives pour résoudre les problèmes potentiels avant qu’ils ne deviennent un problème.

Guneet Kaur a rejoint Cointelegraph en tant que rédactrice en 2021. Elle est titulaire d’une maîtrise ès sciences en technologie financière de l’Université de Stirling et d’un MBA de l’Université indienne Guru Nanak Dev.

Cet article est à des fins d’information générale et n’est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou d’investissement. Les vues, pensées et opinions exprimées ici sont celles de l’auteur seul et ne reflètent pas ou ne représentent pas nécessairement les vues et opinions de Cointelegraph.


source site-14