Comment l’intelligence artificielle a rendu sa voix à une femme paralysée

Ann, qui a perdu la capacité de parler à la suite d’un accident vasculaire cérébral, a retrouvé sa voix grâce à une technologie innovante d’interface cerveau-ordinateur (BCI). Cette technologie utilise l’intelligence artificielle pour décoder les signaux du cerveau en texte et en expressions faciales, a permis à Ann de communiquer plus naturellement à travers son avatar numérique.

Ann a subi un AVC du tronc cérébral à l’âge de 30 ans, la laissant sévèrement paralysée et incapable de parler. Grâce à une technologie BCI développée par des chercheurs de l’UC San Francisco et de l’UC Berkeley, la parole et les expressions faciales d’Ann ont pu être synthétisées à partir des signaux de son cerveau. Le système a ensuite décodé ces signaux en texte à raison de 80 mots par minute,. Une amélioration significative par rapport à l’appareil de communication actuel d’Ann qui ne délivre que 14 mots par minute.

Edward Chang, président du département de chirurgie neurologique à l’UCSF, qui travaille sur cette technologie depuis plus d’une décennie, espère que cette dernière avancée, publiée dans Nature, conduira à un système approuvé par la FDA qui permettra la parole à partir de signaux cérébraux dans un avenir proche. “Notre objectif est de restaurer une manière de communiquer pleinement incarnée, qui est la manière la plus naturelle pour nous de parler avec les autres”, a déclaré Chang.

La restauration de la voix et des expressions faciales grâce à l’IA

Pour synthétiser la parole d’Ann, l’équipe a conçu un algorithme de synthèse de parole, qu’ils ont personnalisé pour ressembler à sa voix avant l’accident en utilisant un enregistrement d’Ann parlant à son mariage. “Mon cerveau se sent bizarre quand il entend ma voix synthétisée”, a écrit Ann en réponse à une question. “C’est comme entendre une vieille amie”. Elle attend avec impatience le jour où sa fille – qui ne connaît que la voix impersonnelle et à l’accent britannique de son appareil de communication actuel – pourra aussi l’entendre. Cette avancée technologique pourrait connaître une utilisation réelle. La prochaine étape étant un modèle sans fil qui ne nécessite pas de connexion physique à l’interface.

L’équipe a ensuite animé l’avatar d’Ann avec l’aide d’un logiciel qui simule et anime les mouvements musculaires du visage, développé par Speech Graphics. Enfin, les chercheurs ont créé des processus d’apprentissage IA personnalisés qui ont permis au logiciel de se synchroniser avec les signaux du cerveau d’Ann alors qu’elle essayait de parler et de les convertir en mouvements sur le visage de son avatar. “Nous compensons les connexions entre son cerveau et son appareil vocal qui ont été coupées par l’accident vasculaire cérébral”, a déclaré Kaylo Littlejohn, un étudiant travaillant avec Chang. Une percée impressionnante qui atteste encore des avancées remarquables de l’IA dans la santé.


Posted

in

by

Tags:

Comments

Leave a Reply