Conseil de recherches en sciences naturelles et en génie du Canada
Symbol of the Government of Canada

Liens de la barre de menu commune

Ancienne lauréate
Bourse commémorative E.W.R. Steacie de 2009

Ingrid Johnsrude

Neurosciences cognitives

Queen's University


Ingrid Johnsrude
Ingrid Johnsrude

En raison des travaux de recherche d’Ingrid Johnsrude, les conjoints qui prétendent ne pas entendre la voix de l’autre devront peut-être trouver sous peu une meilleure excuse pour ignorer leur douce moitié. S’appuyant sur le principe selon lequel on peut entendre plus clairement une voix familière qu’une voix étrangère, Mme Johnsrude est sur le point de découvrir les stratégies et les mécanismes cognitifs qui aident les gens à comprendre le langage parlé et à discerner une voix dans une foule.

Et ce n’est là qu’une partie des travaux que Mme Johnsrude a réalisés sur la perception du langage et les processus complexes qui permettent aux humains de transformer des ondes sonores en langage compréhensible. Heureusement, la Bourse commémorative E.W.R. Steacie du Conseil de recherches en sciences naturelles et en génie (CRSNG) permettra à Mme Johnsrude, psychologue à la Queen’s University, de poursuivre ses travaux de recherche.

Les difficultés à percevoir le langage ont été traditionnellement considérées soit comme un problème auditif, soit comme un problème cognitif, ce qui a amené les chercheurs à ne s’intéresser qu’à l’un de ces aspects. Selon Mme Johnsrude, cette hypothèse a créé des lacunes importantes dans nos connaissances. De fait, les processus cognitifs et auditifs semblent se recouper en grande partie.

Mme Johnsrude compte parmi les quelques chercheurs qui tentent de réunir ces deux domaines d’étude traditionnels. « Maintenant, on s’intéresse beaucoup au lien entre l’aspect auditif et l’aspect cognitif de la perception du langage, explique–t–elle. Je dirais que la séparation de ces deux aspects est probablement une fausse prémisse. »

Les travaux de Mme Johnsrude portent entre autres sur la façon dont les gens perçoivent le langage dans un environnement bruyant, particulièrement les personnes âgées de 50 ans et plus qui sont les plus susceptibles de déclarer avoir de la difficulté à comprendre les autres lorsque de multiples sons accaparent leur attention – des situations où le rapport signal–bruit est faible. Cependant, les résultats de ses travaux devraient s’appliquer à toutes les personnes, quel que soit leur âge, qui essaient de comprendre une conversation dans un endroit bruyant tel qu’un restaurant bondé.

Mme Johnsrude espère trouver des moyens d’aider les gens à mieux se comprendre lorsque le bruit de fond crée beaucoup d’interférence. Jusqu’à maintenant, les résultats de ses travaux indiquent que les gens utilisent un certain nombre de stratégies pour déchiffrer le langage.

L’un des facteurs les plus importants de la compréhension est la connaissance de la voix de l’autre personne, c’est–à–dire le fait de reconnaître son accent particulier, son ton de voix et même son choix habituel de mots. Ainsi, les paroles du conjoint devraient être les plus faciles à capter, même dans une foule.

Même si les gens ont tendance à s’adapter assez rapidement à une nouvelle voix lorsqu’ils n’entendent que ce son, Mme Johnsrude se demande encore combien de temps il leur faut pour acquérir la capacité de distinguer cette voix particulière parmi d’autres sons. « Nous ne savons pas si vous avez acquis cette capacité dès la première rencontre avec votre conjoint ou bien s’il vous a fallu des années pour le faire, souligne–t–elle. S’il est si bénéfique pour les personnes âgées d’entendre la voix de leur conjoint, cela pourrait être un très bon moyen d’atténuer les effets d’un mauvais rapport signal–bruit... à la condition d’écouter son conjoint! »

Les gens ont recours à une autre stratégie utile : anticiper les mots. Dans le cadre d’une expérience où les participants écoutaient des paroles qui étaient déformées de façon artificielle en vue de simuler un accent inintelligible, leur adaptation a été beaucoup plus rapide lorsqu’ils ont eu des indices au sujet du contenu du discours. « Vous vous servez des suppositions que vous avez faites au sujet de ce que les gens vont dire pour vous aider à comprendre plus clairement ce qu’ils sont en train de dire, explique Mme Johnsrude. Nous en connaissons un peu à ce sujet, mais nous ne savons pas réellement comment cela fonctionne en temps réel. »

En plus de faire progresser les connaissances théoriques, ces résultats pourraient améliorer les méthodes d’éducation destinées aux personnes qui ont reçu un implant cochléaire (un appareil électronique qui remplit la fonction de la cochlée, la partie de l’oreille qui transforme les sons en signaux électriques).

Au cours des prochaines années, Mme Johnsrude espère trouver des réponses à certaines questions importantes, notamment le rôle des relations personnelles et des indices visuels tels que les expressions faciales.

À l’aide d’outils d’imagerie tels que l’imagerie par résonnance magnétique fonctionnelle, Mme Johnsrude prévoit aussi explorer plus profondément les processus cérébraux complexes qui entrent en jeu dans la perception du langage, afin de comprendre comment ils se transforment avec l’âge et de déterminer à quel moment il devient difficile de comprendre le langage.

Mme Johnsrude espère obtenir bientôt suffisamment de résultats pour exercer une influence sur les soins cliniques et les méthodes de rééducation, notamment l’amélioration de la conception et de la prescription des appareils auditifs. Des travaux de recherche qui en sont à l’étape initiale laissent à penser que les caractéristiques et les habiletés cognitives d’une personne pourraient indiquer si un type d’appareil auditif lui conviendra. Cela fait naître une possibilité séduisante : améliorer les avantages offerts par un appareil auditif en tenant compte de ces facteurs.