Activités

        L’objet de recherche de l’équipe Espaces acoustiques et cognitifs se développe autour de la notion d’Espace, dans sa manifestation ou sa reproduction sonore ainsi que dans sa réalité cognitive. Les deux axes majeurs sont consacrés respectivement aux techniques de spatialisation et à la cognition auditive spatiale en contexte d’interaction multisensorielle.

Espace de Projection

Plus concrètement, il s’agit de développer des méthodes de capture, de reproduction ou de synthèse des dimensions spatiales d’une scène sonore, à savoir la localisation des sources dans l’espace et la signature acoustique de l’environnement. Parallèlement, il s’agit d’étudier les mécanismes mis en oeuvre par le système nerveux central pour interpréter les informations spatiales acoustiques et les intégrer, le cas échéant avec les informations provenant d’autres modalités sensorielles (vision, proprioception). Nous attendons de cette double démarche un enrichissement mutuel, sachant que l’étude de la cognition spatiale en neuroscience requiert l’intervention de techniques de rendu perfectionnées tandis que ces techniques peuvent être optimisées en considérant les capacités perceptives du sujet auditeur.

Violon d’Huygens (Synthèse de Champ d’Onde)

 

Les travaux concernant les techniques de spatialisation se concentrent sur les procédés de synthèse basés sur un formalisme physique du champ sonore (binaural, Wave Field Synthesis et Ambisonics). Les principaux enjeux identifiés sont, d’une part, la maîtrise tridimensionnelle du champ sonore de sorte à autoriser la synthèse de sources virtuelles et d’effet de salle dans l’ensemble de la sphère auditive et, d’autre part, la synthèse haute-résolution de la directivité des sources virtuelles. Bien que cet axe relève principalement du domaine du traitement du signal, l’objectif est également de fournir des outils de contrôle haut-niveau, exploitant des descripteurs appropriés à la composition musicale et exploitables par les environnements de composition tels que ceux développés dans l’équipe Représentations musicales.

 

          Ces techniques de spatialisation audio 3D associées aux dispositifs de captation des mouvements de l’interprète ou de l’auditeur dans l’espace constituent une base organologique essentielle pour aborder les questions «d’interaction musicale, sonore et multimédia». Parallèlement, elles invitent à une réflexion sur les « fondements cognitifs » liés à la sensation d’espace, notamment sur la nécessaire coordination entre les différentes modalités sensorielles pour la perception et la cognition de l’espace. Plus spécifiquement, nous désirons mettre en évidence l’importance des processus d’intégration entre les indices idiothétiques (liés à nos actions motrices) et les indices acoustiques (localisation, distance, réverbération,…) utilisés par le système nerveux central pour construire une représentation spatiale de l’environnement perçu.

          Sur le plan musical, l’ambition est de fournir des modèles et des outils permettant aux compositeurs d’intégrer la mise en espace des sons depuis le stade de la composition jusqu’à la situation de concert, contribuant ainsi à élever la spatialisation au statut de paramètre d’écriture musicale. Dans le domaine artistique, ces recherches s’appliquent également à la postproduction, aux installations sonores interactives et à la danse à travers les enjeux de l’interaction son/espace/corps. L’intégration de fonctions de spatialisation sonore dans les environnements de réalité virtuelle ouvre les perspectives d’applications scientifiques pour la recherche en neurosciences, les dispositifs à visée thérapeutique ou les simulateurs pour le domaine des transports.

Thématiques et projets associés :

• Reproduction de champs sonores (cf. Projet Wave Field Synthesis, Projet Reproduction Binaurale)
Analyse et synthèse du rayonnement des sources sonores (cf. Projet Sources à Directivité Contrôlée)
• Perception et cognition auditives spatiales (cf. projets Same, EarToy p. 45 et 41)
Logiciel Spatialisateur

Domaines de compétence :

Traitement du signal, acoustique physique, perception/cognition spatiale, réalité virtuelle et augmentée.

Collaborations :

          CNSM (FR), DIST-Genova (IT), Hôp. Univ. Zurich (CH), IEM — Graz (AUT), IN RIA Sophia-Antipolis (FR), Hôpital européen G. Pompidou (FR), LAM-université Paris-6 (FR), LIMSI (FR), Orange France-Télécom (FR), PSA (FR), sonic emotion (CH), Sony-CSL, UMR 7060 CNRS-université Paris-Descartes (FR), université d’Auckland (NZ) université d’Helsinki (FIN), université Tohoku (JAP).