Depuis une dizaine d’années, les chercheurs utilisent des techniques d’intelligence artificielle appelées machine-learning pour décoder l’activité du cerveau humain. Ces algorithmes appliqués aux données de neuroimagerie peuvent reconstituer ce que l’on voit, ce que l’on entend, voire ce que l’on pense. Ils montrent par exemple que les mots dont le sens est proche sont regroupés par zones dans différents endroits de notre cerveau.
Pourtant, en enregistrant l’activité cérébrale pendant une tâche simple consistant à dire si l’on entend BA ou DA, des neuroscientifiques de l’Université de Genève (UNIGE) et de l’Ecole normale supérieure (ENS) à Paris démontrent aujourd’hui que les zones cérébrales identifiées par le machine-learning ne sont pas forcément utilisées par notre cerveau pour réaliser une tâche, mais reflètent surtout les associations mentales liées à cette tâche. Si le machine-learning est donc efficace pour décoder l’activité mentale, il ne l’est pas nécessairement pour comprendre les processus précis du traitement de l’information dans le cerveau. Des résultats à lire dans la revue PNAS.
Sophie Bouton, Valérian Chambon, Rémi Tyrand, Adrian G. Guggisberg, Margitta Seeck, Sami Karkar, Dimitri van de Ville and Anne-Lise Giraud (2018), Focal versus distributed temporal cortex activity for speech sound category assignment, PNAS.