18 Juin – Séminaire de fin d'année du SCRIME - 2018/2019

14 h Salle 76, LaBRI bâtiment A30 - Université de Bordeaux

Ce séminaire regroupe des présentations de certains travaux qui se sont déroulés cette année dans le cadre de projets, de stages, d'accompagnements de résidences.

Programme du séminaire

  • 14h : Déréverbération simpliste par apprentissage profond présenté par Paul Charles
    Il est question de pouvoir enlever la réverbération d'un signal, obtenue par la convolution son équivalent sec avec une réponse impulsionnelle, à partir d'un réseau de neurones préentraîné sur des couples (dry, wet) où dry représente le signal pur et wet le signal avec réverbération.
  • 14h30 : Génération de son par correspondance de caractéristiques image/audio avec utilisation de l’apprentissage profond présenté par Joséphine Calandra
    Ce projet vise à étudier la possibilité technique de créer un outil de composition musicale, utilisant le dessin comme moyen d'expression. Le système consiste à associer des dessins contenant différentes caractéristiques visuelles à des sons donnés dans des bibliothèques possédant des caractéristiques sonores associées. On utilise pour cela les réseaux de neurones, l’objectif à long terme étant de laisser la possibilité au compositeur de définir son propre langage graphique en fonction des caractéristiques sonores souhaitées.
    On s’intéresse dans cette étude aux caractéristiques précises que sont la hauteur de note, le timbre et le volume, définies par des hauteurs de trait, des couleurs et des épaisseurs de trait.
  • 15h : La Sonification présenté par Maxime Poret
    La sonification est l'ensemble des tâches qui consistent à transformer un ensemble de données en sons retranscrivant leurs relations, propriétés, évolutions, etc. Le SCRIME se voit régulièrement proposer des projets ayant trait à ce domaine, qui nécessitent à chaque fois un certain temps de réflexion pour l'établissement d'une solution ad hoc. On constate pourtant des similarités dans ces projets, ce qui nous amène à nous interroger sur la possibilité d'appliquer une même représentation à différents ensembles de données posant une même problématique. Afin d'orienter notre réflexion sur les aspects récurrents de la sonification, nous avons construit un questionnaire généraliste assistant à la mise en place du cahier des besoins.
  • 15h30: Classification automatique de sons pulmonaires  présenté par Gaëtan Chambres
    Venez découvrir quel est le lien entre le classement de genres musicaux et l'aide automatique au diagnostic de maladies pulmonaires.Cette présentation sera l'occasion de faire le point sur les travaux réalisés lors d'une première année de thèse construite autour de la notion de "sons médicaux".
  • 16h : Détection de somnolence dans la voix  présenté par Vincent Martin
    Suivre des patients avec des problèmes de sommeils chroniques implique de nombreux entretiens entre les docteurs et leurs patients. Les technologies de traitement de la parole et de la voix et les médecins virtuels peuvent aider à réduire ce nombre d'entrevues. Cependant, plusieurs obstacles subsistent : les mesures de somnolence sont diverses et la plupart des précédents travaux se focalisent plus sur la performance atteinte que sur l'interprétabilité des marqueurs vocaux. Nous présentons ici une nouvelle base de données, basées sur les Tests Itératifs de Latence d'Endormissement (TILE), qui prend en compte de nombreuses mesures de la somnolence. Par ailleurs, nous proposons également un nouveau set de features testé sur le corpus de l'état de l'art.
  •  Pause
  • 17h : EDuCO - Emotion, Dub & Chill Out   présenté par Pierre-Henri Vulliard
    Début du portage sur smartphone Android du générateur de musique MuZICO développé avec Puredata. L'objectif est d'atteindre un public plus jeune en utilisant un outil de diffusion et des samples de musiques actuels, afin de créer une base de donnée musique/émotion et d'utiliser la fouille de données pour observer les émotions musicales dans le style musical et le cadre d'usage habituel des auditeurs.
    Présentation de l'utilisation générale (djing dans différents styles, utilisation d'effets audio, scratching), des possibilités d'utilisation pour larelaxation et la musicothérapie (battements binauraux, mindmachine...), des relations avec les émotions (interaction avec les axes valence/arousal des émotions, capture du rythme cardiaque, capture des fréquences cérébrales avec les casques Emotiv, questionnaire Web).
    Evocation des pistes pour les prochaines expérimentations (comparaison de l'effet sur la douleur, observation d'une éventuelle influence sur des expériences de CRISPR-Cas9, projet de conduite d'écoute et questionnement avec des enfants pratiquant la  LSB -Langue des Signes pour bébé- comme outil pédagogique, recherche de liens avec la Trap Music).
  • 17h30 : Auto-SEGMent le jeu de prise en main de l'éditeur et /ou le game design de "conscience sonore"  présenté par Gyorgy Kurtag et Vincent Casamayou
  • 18h : Metapianoteq présenté par Jean Haury, Bernard Serpette et Marin Pobel. Concept de pratique instrumentale visant à donner au musicien toute la liberté d'interprétation en minimisant le besoin de technicité. Il s'agit de jouer avec un très petit nombre de touches de piano ou d'ordinateur, le musicien se positionnant comme "chef d'orchestre", avançant dans une partition à partir d'un fichier de type MIDI, contrôlant début et fin de divers événements, maîtrisant le tempo global ou local du morceau, la dynamique de toutes les notes jouées. Une version du Métapiano est existante sous Max, et est en cours développement sous Python.

Localisation de l’événement