Des scientifiques développent un modèle GPT qui interprète les pensées humaines

Alors même que le monde est encore sous le choc de sa tentative de comprendre et d’absorber les répercussions du lancement de ChatGPT et de divers systèmes basés sur l’IA – dont la poussière prendra beaucoup de temps à se déposer – les scientifiques continuent avec leurs propres applications de Generative Pre-trained Transformers (GPT) et LLM (Large Language Models). Et selon Scientifique Américainl’une des dernières applications de ce type est un modèle basé sur GPT qui tire ses invites non pas d’un texte humain, mais directement de l’esprit des utilisateurs.

Développé par une équipe de recherche avec l’Université du Texas à Austin, et publié dans un article de la revue Nature (s’ouvre dans un nouvel onglet), leur modèle GPT interprète l’activité cérébrale d’une personne via son flux sanguin comme le montre une IRMf (imagerie par résonance magnétique fonctionnelle), lui permettant d’accéder à ce que l’utilisateur « entend, dit ou imagine ». Et il le fait sans aucune chirurgie invasive ni aucun attachement sur le patient lui-même. Il y avait une opportunité claire de nommer le nouveau modèle BrainGPT, mais quelqu’un a ignoré ce mémo : les chercheurs se réfèrent à leur modèle de « lecture cérébrale » comme GPT-1 à la place.

Source-138