Projets et thèmes de recherche

Située au coeur du débat Art-Science et à la croisée de nombreuses disciplines, la recherche en Informatique Musicale constitue l’un des pôles essentiels de l’activité de Grame. La forte implication du centre dans la vie musicale professionnelle et les relations étroites de collaboration avec les compositeurs ont permis aux chercheurs de Grame de développer, au fil des années, une expertise importante dans le domaine des outils d’aide à la création musicale.
Les projets de recherche s’articulent autour de trois axes principaux :

  • l’architecture des systèmes musicaux, c’est à dire l’étude de méthodes et d’outils facilitant la conception, le développement et la mise au point d’applications musicales temps-réel collaboratives,
  • les langages formels pour l’écriture musicale, qui visent à mettre au service des compositeurs les possibilités de formalisation et de manipulation symbolique offertes par l’informatique,
  • la représentation de la musique et de la performance, qui a pour objectif de développer des formes innovantes de notation de la musique combinant notation musicale symbolique et représentations de la performance du musicien dans un contexte temps-réel et interactif.

Les projets en cours

Le projet INSCORE

Le projet INScore s’inscrit dans la problématique de la représentation et de la notation de la musique.
Confrontée aux nouvelles formes musicales comme les musiques électroniques, les oeuvres interactives, le live coding, faisant face aux phénomènes de migration de l’instrument musical vers des plateformes gestuelles et mobiles, aux hybridations avec la danse, le design, le multimédia, la partition contemporaine est souvent étendue, éclatée sur des supports différents, revisitée à travers de nouvelles formes d’écriture. Le projet INScore vise à fournir des outils adaptés à ces mutations de la notation musicale.
Il consiste en un environnement pour la conception de partitions musicale augmentées, interactives et dynamiques. Il permet aux compositeurs et aux interprètes d’explorer de toutes nouvelles situations de performance. Il se prête également au design de partitions d’analyse pour la musique acousmatique ou permet d’associer représentation et contrôle dans une même partition.

Le projet TENOR

Conduit par l’Université de Concordia – Montréal, Canada, le projet TENOR se situe dans le prolongement de la conférence du même nom. Il a notamment pour objectif de structurer la communauté internationale autour des problématiques de la notation et de la représentation de la musique, et de constituer un fond de ressources accessible en ligne. 13 universités et institutions représentant 6 pays différents (Australie, Allemagne, France, Angleterre, USA, Canada) sont parties prenante du projet :
– Anglia Ruskin University Cambridge
– Cnmat University Of California
– Concordia University
– Georgia Tech School Of Music
– Grame Lyon
– Hochschule Fur Musik Hamburg
– Ircam
– Mcgill University
– Monash University Melbourne
– University Of Liverpool
– University Of Sussex
– University Of Sydney
– University Of The West Of England
Le projet verra son lancement lors de la conférence TENOR 2018 à Montréal. Il sera co-dirigé par Sandeep Bhagwati (Concordia University) et Dominique Fober (GRAME).

FEEVER – Projet ANR-13-BS02-0008-02

Regroupant ARMINES, INRIA, CIEREC et GRAME, le projet FEEVER,cofinancé par l’ANR et labellisé par le pôle de compétitivité Imaginove, vise a développer une solution globale et ubiquitaire pour le traitement du signal audionumérique sur la plupart des plates-formes, y compris le Web. FEEVER s’appuie notamment sur la technologie Faust et son eco-système, développé depuis plus de dix ans à Grame. Le projet va permettre des avancés scientifiques notamment vis à vis des modèles de calcul et des techniques de compilation utilisés.

Le projet FAUST

Le projet FAUST (Functional AUdio STream) vise à développer un ensemble de techniques et d’outils permettant de décrire des algorithmes de synthèse et de traitement du signal dans un langage de spécification de haut niveau tout en bénéficiant d’une compilation efficace, comparable à du code C optimisé. Destiné en particulier aux développeurs d’applications et de « plug’in » de traitement du signal audio, FAUST s’inscrit donc en complément d’outils comme Max/Msp, jMax, Super-Collider, C-Sound etc.. En effet, si ces langages proposent de vastes librairies d’objets primitifs externes, ils ne permettent généralement pas, ni de les décrire, ni de les implémenter. Les limitations des systèmes « à la Music V » tiennent en particulier à la stratégie d’implémentation des calculs adoptée. Généralement ils simulent une machine dataflow.

Lire la suite

Pour des raison d’efficacité, cette simulation traite les échantillons non pas individuellement, mais par blocs (et généralement sans possibilité efficace d’avoir des cycles ou des récursions). C’est pourquoi un simple filtre du genre y(t)=a.x(t)+b.y(t-1) ne peux bien souvent pas être décrit dans ces langages et doit donc être implémenté sous la forme d’un objet externe en ayant recours à des langages de programmation traditionnels.

JackOSX : Jack sur MacOS X

Jack est un serveur audio à faible latence permettant la communication en temps-réel de flux audio entre applications. Ce système est au départ développé par la communauté Linux en open-source. Le projet Jack sur Mac OS X vise à porter le système Jack de Linux vers Mac OS X, en l’intégrant à l’architecture Core Audio.

Cette technologie permet à l’ensemble des applications audio sur MacOSX de communiquer entre elles offrant ainsi de nouvelles perspectives à l’utilisateur [http://www.jackosx.com/] Les développements réalisés ont permis de mettre au point un nouveau modèle de répartition des calculs permettant de tirer partie des architectures multi-processeurs.

Ce modèle développé initialement sur MacOSX, a été ensuite porté sur Linux, Windows et Solaris.

INEDIT – Projet ANR-2012-CORD-009-03

L’objectif du projet INEDIT est de fonder scientifiquement l’interopérabilité des outils de création sonore et musicale, afin d’ouvrir la voie à de nouvelles dimensions créatives couplant écriture du temps et écriture de l’interaction.

Les motivations du projet reflètent les efforts internationaux pour réconcilier la division actuelle entre les aspects « compositionnels » et « performatifs » des outils existants de création sonores. Cette division est apparente dans la catégorisation des outils en « composition assistée par ordinateur » et « temps réel ».

Pour le compositeur, les outils « orientés performance » (synthèse et traitements, mixage, post-production audio) se limitent souvent à des métaphores des sources de production et de traitement (notamment oscillateurs, filtres, modèles physiques). Cependant, ces métaphores doivent s’intégrer dans un langage symbolique comme celui de la partition afin de permettre une réelle écriture musicale et favoriser des modalités plus puissantes de représentation, de conceptualisation et de communication.

Lire la suite

Inversement, les outils « orientés composition » peinent à prendre en compte une nouvelle problématique, celle de l’interaction : un dispositif sonore correspond de moins en moins à une œuvre fermée et spécifiée totalement à l’avance, mais doit de plus interagir en temps réel avec un environnement. C’est le cas par exemple pour les œuvres musicales interactives, les jeux vidéo, l’habillage sonore, les dispositifs et installations multimédia, etc.

 L’approche repose sur une vision langage : une œuvre interactive est vue comme un interprète (au sens informatique) qui doit articuler des flux temporels bas niveaux localement synchrones (le signal audio) dans un temps événementiel globalement asynchrone (les événements pertinents pour le processus de composition). Le projet Inedit promeut aussi une approche hybride permettant la coopération de différents outils et approches stylistiques au sein d’un environnement supportant toutes les phases du workflow musical, de la composition à la performance.

Démarrage officiel du projet le 29 octobre 2012.

INTERLUDE – PROJET ANR-08-CORD-010

Nouveaux paradigmes numériques pour l’exploration et l’interaction gestuelle expressive avec des contenus musicaux.

Bien que les développements récents de l’informatique musicale permettent d’analyser, de traiter, de manipuler la musique et le son tant sur le plan du signal audio que sur le plan symbolique d’une partition, les possibilités d’interaction gestuelle avec ces éléments de représentation musicale et sonore restent encore largement sous-exploités. Pourtant, comme le montrent les recherches récentes dans le champ des Interfaces Hommes Machines et des sciences cognitives, l’engagement gestuel et corporel dans une interaction en modifie fondamentalement l’expérience.

Lire la suite

Le but du projet Interlude est de développer des interfaces gestuelles collaboratives permettant une exploration expressive en temps-réel de contenus musicaux, dans le domaine du signal audio comme dans celui, symbolique, de la partition. Ces développements peuvent impliquer, par exemple, des paradigmes d’interactions inspirés de ceux des DJs comme de ceux du chef d’orchestre.

De tels dispositifs ont de manière évidente des applications importantes concernant la découverte et la compréhension d’un contenu musical, les rendant utilisables dans des contextes pédagogiques divers : éveil, jeux ludo-éducatifs ou pédagogie dans des cadres institutionnels. Par ailleurs, la performance, l’interprétation et l’improvisation dans un contexte professionnel sont également concernés. La capacité de manipuler des représentations et des annotations musicales sur un répertoire donné demeure un enjeu majeur de ces applications.

Description des travaux de Grame

Mise en relation de représentation de contenus symboliques et d’interprétation Les systèmes actuels de représentations symboliques de la musique, comme les éditeurs de partition sont fondamentalement inappropriés pour une gestion interactive de contenus, superposant notations symboliques et représentation de signaux sonores ou gestuels. Il s’agira donc de développer des outils adaptés pour une telle représentation dynamique d’une « partition augmentée », représentant des contenus musicaux et sonores de natures hétérogènes. De plus, des représentations de l’interprétation, ou plus généralement de la performance musicale, doivent être intégrées dans ce système.

[voir aussi la page de l’IRCAM sur le projet Interlude]

ASTREE

Analyse et synthèse de traitements temps-réels.
Partenaires : Ircam, Grame, Mines-Paristech-CRI, Cierec.
Projet soutenu par l’Agence Nationale de la Recherche (ANR-08-CORD-003) et labellisé par le pôle de compétitivité Cap Digital.

La question de la préservation des œuvres artistiques faisant appel aux technologies numériques est d’une grande actualité. Si l’on n’y prend garde, une partie importante de ce répertoire risque tout simplement de disparaitre tant les technologies sur lesquelles elles se fondent sont « volatiles ». Les dispositifs matériels, les logiciels et les langages de programmation évoluent en effet très rapidement, de sorte que le dispositif d’une pièce musicale doit etre constament adapté à ces évolutions pour pouvoir continuer à fonctionner.

Lire la suite
Ainsi il n’est pas rare de voir, au bout de seulement quelques années, la réalisation de portages ou de migrations du dispositif numérique temps réel, pour l’adapter à un environnement devenu incapable de supporter et de faire fonctionner le dispositif original.

L’objectif du projet ASTREE est de réfléchir aux moyens de cette préservation, en particulier par le biais d’une notation pérenne et précise des traitements temps réels qui s’appuiera notamment sur le langage FAUST développé par Grame depuis 2002.

VEMUS – une école de musique européenne virtuelle

VEMUS – une école de musique européenne virtuelle – a pour objectif le développement et la validation d’un système ouvert et interactif d’apprentissage de la pratique instrumentale. Le système est multilingue et intègre la dimension des réseaux. Il traite d’instruments populaires tels que la flûte traversière, le saxophone, la clarinette et la flûte à bec. Il s’adresse à des étudiants de niveau débutant à intermédiaire. L’environnement VEMUS a pour ambition d’intégrer des composants innovants en terme de technologies orientées, motivées d’un point de vue pédagogique, et permettant d’étendre les pratiques d’enseignement traditionnelles dans plusieurs directions :

Lire la suite
  • Pratique instrumentale: il s’agit de la conception d’un ensemble d’outils pour améliorer le travail instrumental, que ce soit à la maison ou en laboratoire, alliant le plaisir à des sessions d’études nourries d’informations constructives. L’évaluation automatique du jeu instrumental ainsi que des commentaires structurés, adaptés à chaque élève, seront développés pour optimiser l’efficacité du travail personnel.
  • Environnement pour la classe de musique: VEMUS explorera et validera des outils innovants pour le travail en groupe, qu’il s’agisse d’aides pour le professeur ou d’outils pour l’apprentissage collaboratif et les activités propres à un groupe d’élèves. Basée sur cette approche, l’introduction de VEMUS dans la classe de musique permettra d’améliorer les pratiques pédagogiques et de bonifier l’expérience d’apprentissage des élèves.
  • Extensions pour l’apprentissage à distance: l’environnement VEMUS intégrera l’apprentissage à distance : maintenance et gestion d’un dépôt de contenus pédagogiques, outils de conception de nouveaux contenus, outils de communication pour contrôler et guider les progrès des élèves au cours du temps. Ces extensions prolongeront la relation professeur-élève mais permettront également de lever les barrières géographiques ou issues d’autres contraintes, liées notamment à la mobilité.

Par le biais de ces 3 approches distinctes mais complémentaires, VEMUS favorisera l’intégration graduelle des nouvelles technologies de l’enseignement de la musique aux leçons traditionnelles. Le système fournira la base technologique et pédagogique pour l’établissement de lieux virtuels de rencontre et de pratique musicales entre élèves et professeurs de toute l’Europe : une école de musique européenne virtuelle. L’introduction de ces nouvelles technologies permettra l’exploration et le développement de nouvelles méthodes d’enseignement, prolongeant et enrichissant les pratiques pédagogiques traditionnelles.

Le laboratoire de recherche de Grame est largement engagé dans le projet VEMUS. Il est responsable de 2 modules importants: a) technologies pour le feedback et l’interactivité au service de la pédagogie instrumentale, b) l’environnement pour la classe de musique et les groupes de travail

Le projet IMUTUS

L’objectif principal du projet européen IMUTUS (Interactive Music Tuition System) est de développer un système multimédia interactif pour l’enseignement à distance de la pratique instrumentale. Ce projet, réalisé avec des partenaires grecs, italiens et suédois dans le cadre du programme IST (Information Society Technologies) de la Communauté Européenne. La durée prévue du projet est de 28 mois

Plusieurs composants logiciels ont été développés dans le cadre de ce projet:

Lire la suite

[GuidoLib]

Le projet GUIDOLib consiste en un moteur de rendu graphique de partitions musicales ainsi qu’en une librairie de fonctions permettant d’adresser ce moteur. Le projet couvre un manque important dans le domaine des outils de haut niveau pour les développeurs d’applications musicales: en effet, la mise en page de partitions musicales relève d’un savoir faire et d’une technicité difficiles à maitriser. Hormis le projet GUIDOLib, il n’existe aucun outil proposant ces savoir faire aux dévelopeurs. La librairie permet donc de faciliter l’intégration de la notation musicale en prenant en charge la mise en page automatique des partitions.

[MusicXML]

MusicXML est un format d’échange de la musique couvrant les besoins de la notation musicale, de l’analyse, de la recherche aussi bien que de l’interprÈtation. C’est actuellement la solution la plus prometteuse en termes de normalisation de la description de partitions musicales. Le projet LibMusicXML consiste en une librairie portable d’objets C++ permettant de faciliter le support du format MusicXML. Elle inclut également des outils de conversion vers d’autres formats tels que le format GUIDO.

[LibAudioStream]

Cette librairie facilite le développement d’application audio. Elle est basée sur le concept de flux audio ainsi que sur un langage de description, de composition et de transformations de ces flux audios.

L’environnement de composition musicale ELODY

L’objectif du projet Elody est de proposer un environnement pour la composition musicale permettant la description et la manipulation algorithmique de structures musicales et de procédés compositionnels, sans nécessiter pour autant de connaissances particulières en informatique. Son interface utilisateur est basée sur la manipulation directe d’objets musicaux et algorithmiques par le biais du glisser-déposer, de constructeurs visuels et d’éditeurs. Elody intègre également des fonctionnalités Internet afin de faciliter l’échange et la collaboration entre utilisateurs. Tout l’environnement est écrit en Java et utilise les services de MidiShare pour les communications Midi et les fonctionnalités temps-réel.

Le système temps-réel MidiShare

Plusieurs fois récompensé(Trophée Apple 89, Paris-Cité 90, Max d’Or 99) MidiShare est un système d’exploitation MIDI, temps-réel et multitâches, spécialement conçu pour le développement d’applications musicales performantes sous Linux, Windows, MacOS et bientôt MacOS X.
Ce système, développé initialement pour les besoins internes de Grame, est aujourd’hui la seule solution à la fois véritablement multi plateformes et Open Source disponible dans son domaine. MidiShare est utilisé par de nombreux développeurs et des centres tels que l’[IRCAM ] ou [Sony CSL Paris].

Lire la suite

Le système et les nombreux logiciels et utilitaires qui l’accompagnent sont téléchargeables gratuitement depuis le site de [Sourceforge].

Les sources de MidiShare sont accessibles depuis le site de [Sourceforge] et publiés sous licence LGPL.