Langage et Aphasies, quand s’exprimer devient complexe.

Guillaume Chandelier
10 min readMay 31, 2022

--

L’humain est avant tout un animal de parole, de dialogue, depuis la nuit des temps nous avons développé des dialectes pour nous comprendre et échanger entre nous. Le langage humain serait apparu il y a environ 250 000 ans chez l’Homo Sapiens (Perreault & Matthew, 2012). Mais que se passe-t-il quand nous ne sommes plus en mesure de nous exprimer ? D’articuler des mots en un tout cohérent?

Dans l’épisode 10 de la saison 2 de Dr House, un patient n’arrive soudainement plus à créer des phrases cohérentes. Sa production langagière est altérée par le paludisme qui aurait entrainé une aphasie de Wernicke.
Comme toute série médicale, cet épisode est discutable sur le point logique & cohérence (en réalité les aphasies de Wernicke sont plutôt crées par des lésions cérébrales ou un AVC) mais ça nous donne un très bon sujet pour aujourd’hui : que se passe-t-il lorsque l’on veut parler, et lorsqu’on n’y arrive plus ?

Un brin d’histoire

En 1861, l’hôpital Bicêtre du val de marne reçoit un patient devenu ô combien célèbre dans le milieu de la neuropsychologie. Paul Leborgne a été surnommé « le patient tan », car s’il était capable de comprendre ce qu’on lui disait, il lui était impossible de prononcer autre chose que le son : « tan ». Paul Broca, alors professeur de pathologie chirurgicale, se saisit du cas qui le fit entrer dans l’histoire de la médecine. Après de nombreuses recherches Paul Broca réussit à découvrir ce qui fut considéré comme “le centre de la parole” dans le lobe frontal gauche du cerveau, ou aire de Broca.

C’est 13 ans plus tard, en 1874, que Carl Wernicke médecin allemand mis en lumière une seconde zone impliquée dans le langage mais différente de l’aire de Broca. Plus en arrière au niveau du lobe pariétal, venait d’être découverte l’aire de Wernicke, responsable de l’aphasie du même nom que nous avons présenté en introduction (et sur laquelle nous reviendrons avec plus de précision) qui entraine des difficultés de compréhension du langage (oral comme écrit).

On retrouve au niveau du lobe frontal inférieur gauche l’aire de Broca, et l’aire de Wernicke en arrière au niveau du lobe pariétal. Source illustration : Wikipedia

Toutes ces découvertes sont ce qu’on appelle des aphasies corticales, car elles touchent le cortex (i.e. la zone externe du cerveau). Si l’on résume les découvertes de ces deux scientifiques on a donc l’Aphasie de Broca (ou aphasie de production) qui donne au sujet des problèmes dans la production de la parole. Ensuite nous avons l’aphasie de Wernicke (ou aphasie réceptive) qui entraine des troubles dans la compréhension de la parole. Enfin, découverte plus tard, on peut citer l’aphasie de conduction qui, comme son nom l’indique, est un trouble de la conduction des informations qui passe par la destruction du faisceau arqué (lien entre les zones de Broca et Wernicke) et qui empêche les personnes atteintes de répéter un mot par exemple.

Le faisceau arqué du cerveau. Source illustration : Le Monde

Parler, un système très complexe

Ici il va falloir simplifier. On ne va pas s’intéresser à toute la psychologie cognitive sous-jacente à l’expression orale, mais simplement ses aspects neuropsychologiques. On va parler aires cérébrales, pour comprendre au mieux j’ai réalisé un article juste ici sur la neuroanatomie pour mieux comprendre les dénominations etc.

Les voies de la parole

La production du langage est généralement représentée à l’aide du modèle Wernicke-Geschwin. Lisez le mot suivant et répétez le à voix haute :

Irrévérencieux

Pour réussir à répéter ce mot à haute voix, votre cerveau a du faire appel à plusieurs zones. En psychologie, on appelle cela des voies. Et les voies du langage sont représentées dans le modèle présenté par Norman Geschwind, neurologue américain du 20ème siècle.

Représentation du circuit impliqué dans le processus de répétition à haute voix des mots écrits, selon le modèle de Wernicke-Gerschwind. Source : Neurosciences, Pradel.

Au moment où le mot est lu, les zones cortex visuel primaire à l’arrière du cerveau vont s’activer pour décomposer les formes lues, qui seront ensuite transmises aux zones plus avancées du cortex visuel. L’information est ensuite envoyée au niveau du gyrus angulaire en jaune, qui fera le lien avec l’aire de Wernicke (dont le rôle est la compréhension verbale). Après traitement ce sera à l’aire de Broca d’entrer en jeu pour produire le son, et tout ceci termine au niveau du cortex moteur, où on va mettre en jeu les muscles de la bouche, langue et larynx pour articuler le mot à prononcer.

Et toute cette cascade d’activation se réalise à chaque fois que l’on veut lire un mot écrit. Imaginez donc le nombre de répétitions à faire pour lire un texte à voix haute… fascinant non ?

Pour la répétition des mots entendus on part du cortex auditif (forcément) et ensuite la cascade est la même.

Représentation du circuit neuronal impliqué dans le processus de répétition des mots entendus, selon le modèle de Wernicke-Geschwind. Source : Neurosciences, Pradel.

La décomposition de la parole

Pour rappel, la majorité du traitement du langage est latéralisé à gauche dans le cerveau. Le traitement des sons langagiers est ainsi différencié des autres sons après le cortex auditif, et son traitement se produira préférentiellement dans la même zone que la lecture, à gauche. On considère que l’hémisphère gauche est dominant pour le langage chez 95% des droitiers et 70% des gauchers (Vigneau et al., 2011).

On peut assimiler la production & compréhension du langage à un traitement informatique. On encode, et on décode l’information. Chaque couche amène à la suivante, du plus précis/basique au plus avancé. Pour la compréhension de la parole, les étapes sont : le décodage perceptif, suivi par le décodage phonémique, et enfin le décodage sémantique et syntaxique. Chacun de ces termes techniques montre en fait l’aspect progressif du traitement :

  • On va d’abord découper perceptivement les sons, réussir à différencier un mot d’un autre
  • Ensuite, on va le décoder par phonèmes, le phonème se définit classiquement comme étant la plus petite unité de langage qui permet de segmenter la parole (attention, c’est différent de la syllabe : dans le mot Dra-gon, “dr” est un phonème et “a” un autre)
  • Et enfin après avoir découpé les mots, on va leur donner un sens, c’est le traitement sémantique du langage. Pour réussir à comprendre une phrase entendue, il faut accéder au sens de chaque mot et le remettre en lien avec les autres dans un contexte donné. Pour cela on se sert de notre lexique mental, c’est un stock d’informations sur les significations des mots qui composent notre vocabulaire (on a 50–75 000 mots qui composent le lexique mental, notre « dictionnaire de mots »)
  • Évidemment, cette cascade d’activation se produit à chaque fois que vous entendez une phrase. C’est pas incroyable l’efficacité du cerveau ?

Pour la production orale, la cascade est proche mais naturellement en sens inverse.

  • Tout d’abord une sélection du mot dans notre lexique mental (on parle d’activation conceptuelle, de représentation lexico-sémantique. C’est choisir un mot en ayant conscience du concept et de ce à quoi il fait référence)
Activation conceptuelle suite à la lecture du mot “red” en anglais. On observe des associations avec d’autres concepts liés (les couleurs, un camion de pompier, etc.)
  • Puis on réalise une représentation phonologique du mot au niveau phonémique, on sélectionne et on ordonne les phonèmes à produire pour créer des mots.
  • Et enfin une activation phonétique, où entrent en jeux des codes articulatoires. C’est une programmation motrice des sons à réaliser. Basiquement on sait intuitivement comment produire le son “pa”, mais pour le faire il faut que notre aire de Broca envoie au cortex moteur les informations, pour que ce dernier puisse envoyer les commandes adéquates aux muscles de la bouche et de la langue pour les coordonner et réaliser l’ensemble de mouvements qui produiront in fine le son voulu.

Dans les aphasies, ce sont ces mécanismes qui vont être touchés à différents niveaux et qui permettront aux professionnels de se repérer pour savoir quelle zone est touchée et où/comment travailler pour y remédier.

La clinique de l’aphasie

Détecter une aphasie

Presque la moitié des accident vasculaires cérébraux (AVC) induisent une aphasie. On estime à environ 40% les troubles du langage successifs à un AVC. Comment font les neuropsychologues pour tester et confirmer une aphasie ? Quels sont les tests employés et qu’est-ce qu’on regarde précisément ? La réponse coule un peu de source… on fait parler le patient et on observe le contenu de son langage.

Mais de façon plus précise, on regarde la syntaxe, la compréhension du discours (normale ou altérée), la répétition, le contenu du discours, etc. Chacun de ces aspects permet d’orienter vers un type d’aphasie plutôt qu’un autre. Par exemple on sait que des troubles dans la production ou la compréhension de la parole ou sa répétition sont symptomatiques d’aphasies corticales. Elles vont touches des zones du cortex.

  • Si le patient a un discours très rapide à la limite de la logorrhée, avec une syntaxe et une grammaire relativement intacte, mais une incohérence dans le discours et/ou l’utilisation de mots n’ayant aucun sens dans la phrase alors on peut penser à un aphasie de Wernicke. On retrouve notre patient de Dr House ici.
  • Imaginons un patient fluent capable de produire des phrases cohérentes sans soucis, mais incapable de répéter une phrase qu’on lui donne. On pense à une lésion du faisceau arqué, et donc à une aphasie de conduction.
  • Si le patient a du mal à prononcer des mots, on pense à un aphasie de Broca. Mais s’il est capable de répéter des mots entendus, alors on a un diagnostic plus précis sur une aphasie transcorticale motrice.

Les différents types d’aphasie et les tests à réaliser sont présent dans tout bon manuel de neuropsychologie, et pour un résumé rapide on peut retrouver le document de l’ASHA (American Speech Language Hearing Association) juste ici.

Les soins

On ne soigne évidemment pas une aphasie comme on soignerait une bronchite ou une jambe cassée. Il n’existe pas de médicament capable de restaurer les fonctions touchées. Comme dit précédemment, les troubles du langages sont consécutifs à un AVC ou une lésion des tissus cérébraux (un coup violent à la tête). Les neurones touchés ne seront donc jamais renouvelés. Cependant, l’évolution a doté le cerveau d’une capacité enviable : la plasticité cérébrale.

La neuroplasticité post-lésionnelle (donc la plasticité du cerveau consécutive à une lésion) est définie comme la réorganisation des interactions synaptiques neuronales, afin de préserver au mieux les capacités fonctionnelles du système. Plus simplement, les chemins créés par le cerveau pour le langage vont se réorganiser autrement pour s’adapter (à titre d’exemple de la puissance du phénomène, il existe des cas d’enfant qui ont été amputés d’un lobe cérébral, et qui ont réorganisé toutes les fonctions dans l’hémisphère restant).

Le traitement de l’aphasie réside donc dans la rééducation du cerveau du patient. Il est très rare de voir des récupérations complètes des fonctions langagières, la majorité des patients atteints gardant des séquelles altérant le fonctionnement, néanmoins grâce à de la rééducation orthophonique la majorité des patients retrouve un discours proche de la normale. De plus, comme le montre ici la recherche menée par Pedersen et al., la période de récupération la plus importante sont les 2 semaines qui suivent le trouble.

Pedersen et al., 1995

Comment c’est possible ?

Les recherches en neurosciences sont encore récentes. Il existe pour l’heure 2 pistes envisagées pour le moment en terme de neuroplasticité :

  • La réorganisation de l’hémisphère gauche autour de la zone touchée
  • Le recrutement de zones de l’hémisphère droit pour compenser.
On observe le recrutement de l’hémisphère droit ainsi qu’une réorganisation de l’hémisphère gauche au cours du temps. Depuis la phase aigue du trouble à gauche jusqu’à la phase plus tardive chronique à droite. Illustration de Saur & Hartwigsen, 2012

Et si on ne parle pas ?

Il est vrai que la question parait saugrenue. Comment une personne ne pouvant pas parler ou entendre pourrait se retrouver avec une aphasie ?

C’est pourtant le but de l’étude menée par la professeur Londonienne Jane Marshall et son équipe, qui rapportent en 2004 le cas de Charles, un homme sourd atteint d’aphasie de la langue des signes à la suite d’un AVC gauche.

Depuis, il est admis que l’on peut en effet retrouver des aphasies chez les personnes sourdes qui signent. Il est possible pour un sujet de signer de façon fluente (enchaîner les mots signés comme on le ferait à l’oral) mais avec une incohérence dans les signes choisis. Ce qui se rapproche de quelle aphasie ? Wernicke, exactement.

Ce ne sont évidemment pas des aphasies à proprement parler, mais ces anomies, trouble des gestes, créent un lien avec notre sujet sur l’aphasie et le déficit qu’on certains patients pour s’exprimer suite à un AVC ou une lésion.

Marshall et al., 2004

On dit que c’est lorsqu’on perd quelque chose que l’on se rend compte de sa valeur et d’à quel point on y tenait. Je ne pense pas qu’il faille perdre le langage pour se rendre compte à quel point c’est une fonction essentielle et vitale. Mais j’espère cependant avoir pu au travers de cet article vous faire réfléchir sur la beauté du système sous-jacent qui supporte vos interactions quotidiennes et peut-être, d’avoir réussi à vous émerveiller un peu comme moi sur l’infinie complexité de ce qui se passe dans nos têtes.

« La parole reflète l’âme. »
- Sénèque

Sources annexes :

--

--

Guillaume Chandelier

Étudiant en M1 Neuropsychologie et Neurosciences Cliniques à l’UGA, passionné d’un tas de trucs que j’essaie de partager ici de façon simple et compréhensible.