L’équipe de Luc Arnal et Diane Lazard cherche à comprendre les opérations cérébrales sous-tendant la perception des signaux de communication – verbaux, non verbaux ou musicaux – chez l’homme. En combinant des approches de psychoacoustique, de neuroimagerie (IRMf, i/M/EEG) et de modélisation neuro-computationnelle, ces travaux révèlent comment le système auditif intègre les informations auditives, visuelles et émotionnelles pour développer des réactions adaptées. Ces recherches ouvrent de nouvelles perspectives translationnelles dans le contexte de déficiences sensorielles (malentendance) et de leurs implications dans certaines maladies neurodégénératives (Alzheimer).
Projets
Codage prédictif et rôle des oscillations neuronales dans le traitement de la parole et de la musique
La capacité humaine à traiter des stimuli sonores continus tels que la parole ou la musique repose sur le contrôle proactif de mécanismes oscillatoires dans le système auditif. Comment ces mécanismes neuronaux fonctionnent-ils lorsque la perception des sons est dégradée, par exemple en cas de déficience auditive légère ou profonde ? Quelles sont les stratégies à court et à long termes utilisées par le cerveau humain pour compenser ces déficiences sensorielles et traiter de tels signaux ? Pour aborder ces questions fondamentales et cliniques, les chercheurs développent une série d’approches expérimentales chez l’individu normo-entendant et malentendant afin d’étudier :
- Le rôle des oscillations neuronales dans l’échantillonnage de la parole.
- L’implication des mécanismes prédictifs dans le traitement du son.
- Les réorganisations corticales à long terme impliquées dans l’adaptation à la perte des facultés de communication auditive.
Entrainement des réponses cérébrales dans les circuits auditifs classique et non-classique dans le cerveau normal et pathologique
Le système auditif humain n’est pas sensible de la même manière à toutes les fréquences du spectre audible. Certains sons sont capables d’induire des réponses émotionnelles stéréotypées, suggérant qu’il existe, au-delà des préférences esthétiques individuelles, des origines neurobiologiques déterminant notre perception et nos réactions au son.
Dans une série d’expériences combinant des approches psychoacoustiques et de neuroimagerie (IRMf, EEG et électrophysiologie intracrânienne), l’équipe Cognition et communication auditive a récemment découvert que les sons « rugueux » ciblent non seulement le système auditif classique, mais également des réseaux sous-corticaux et limbiques « non-classiques » impactant notamment l’état de stress et d’éveil de l’auditeur. De façon surprenante, le traitement cérébral de ces mêmes sons semble affecté dans un certain nombre de pathologies neuro-développementales et neurodégénératives. Dans le but de mieux comprendre pourquoi et comment ces sons ont la capacité de cibler de tels circuits, les chercheurs comparent l’entraînement des réponses électrophysiologiques dans le cerveau humain (normal et pathologique) ainsi que chez le modèle animal.
Interaction audio-visuelle chez les malentendants
L’exploration de la coopération audio-visuelle est un axe important de recherche de l’équipe. La lecture labiale, bien que majeure dans la communication du malentendant, reste assez peu explorée dans cette population. Notre hypothèse est que les capacités d’interaction audio-visuelle sont déterminées dès la petite enfance et peu capables de progresser. Un paradigme expérimental testera des illusions multi-sensorielles chez des sujets normo-entendants et malentendants.
L’effet de l’apprentissage de la lecture labiale sera également analysé. Des mesures comportementales et de neuro-imagerie (EEG, IRM fonctionnelle) seront recueillies afin d’identifier les mécanismes neuronaux impliqués dans l’intégration audio-visuelle, et de comprendre sa variabilité interindividuelle et ses conséquences en cas de survenue d’une surdité.