Le laboratoire de recherche de Meta (dirigé par Zuckerberg) , en collaboration avec plusieurs institutions académiques, ont récemment dévoilé Brain2Qwerty, un système permettant de traduire les signaux cérébraux en texte sans recourir à des implants invasifs.
Cette technologie repose sur l’utilisation de l’électroencéphalographie (EEG) et de la magnétoencéphalographie (MEG) pour capter l’activité cérébrale. Ces données sont ensuite interprétées par des modèles d’apprentissage profond, permettant d’anticiper la frappe sur un clavier QWERTY.
L’étude a impliqué 35 participants en bonne santé, invités à mémoriser puis à taper des phrases en espagnol. Les enregistrements EEG ont permis de collecter environ 4 000 phrases, tandis que les données MEG ont totalisé 5 100 phrases. Un réseau neuronal convolutionnel segmente l’activité cérébrale en fenêtres de 500 millisecondes, un transformeur prédit les caractères probables, et un modèle de langage entraîné sur Wikipédia en espagnol affine les prédictions.
Les résultats montrent un taux d’erreur de 32 % pour les données MEG et de 67 % pour les données EEG, surpassant les approches existantes. Selon les chercheurs, Brain2Qwerty ouvre des perspectives prometteuses pour les personnes souffrant de troubles de la communication ou de mobilité, sans nécessiter d’intervention chirurgicale.
Brain2Qwerty s’inscrit dans un champ de recherche en plein essor, où plusieurs groupes travaillent sur des interfaces cerveau-ordinateur capables de redonner aux patients paralysés une autonomie dans la communication. D’autres dispositifs similaires, comme ceux développés par Neuralink ou l’université de Stanford, exploitent eux des électrodes implantées pour convertir les pensées en texte ou en commandes numériques.
> Pour en savoir plus, le détail de l’étude : Meta AI – Brain2Qwerty