Representation: From Acoustics to Musical Analysis

Capture d’écran 2014-05-05 à 09.47.41Mikhail Malt and me will present our next paper at EMS Conference in June 2014 at Berlin.


This presentation will be done in two parts.

1) Sound Analysis and Representations

Musicologists use various types of sound representations to analyze electroacoustic music:

  • The waveform and the sonogram are a good basis to explore and navigate in one or more audio files. They also allow to estimate time and spectral frame for sounds. Several software like Audiosculpt, SPEAR or TIAALS allow filtering operations to isolate a sound or a group of sounds to study their properties.
  • Differential sonogram or layers of sonograms are good tools to observe global parameters of sound or music. They also highlight break of spectrum, dynamics profiles, or space motions by comparison of sound channels.
  • The similarity matrix reveals structural patterns, recurrence in several sound parameters, or musical characteristics. This representation completes sonogram to explore global form or complex micro-structures.
  • Audio descriptor extraction helps the listening to identify global morphologies, transitions, and articulations. One of the main problems using low-level audio descriptors being the redundancy of information among them. Many of them being correlated and bringing the same information. The first step to work with audio descriptors is to reduce the dimensionality of the analytical data space and find what features are useful to describe the audio phenomena we are focusing on. With this main goal, we would like also to present a tool intended to musicologists, that will help in the analytical workflow and in the proper audio descriptors choice.

2) Moving to Analytical Representations

These different types of acoustic representations are the basic tools to explore and extract information to complete aural analysis. In the other side, researchers create musical representations during analytical process. From structural representations to paradigmatic charts or typological maps, the goal of musical representations is to explore masked relations between sounds (paradigmatic level), micro-structures (syntagmatic level) or external significations (referential level). Researchers also need representations to present their works. To do that, they create graphic representations associated with sound or video to have more intuitive examples.

Relation between both types of representations — acoustics and musical — often consists to associate them through panes or layers’ software. Transferring information between them or extracting information from acoustic representation to create analytical graphics are complex operations. They need to read acoustic representations, filter no significant parts, create a pre-representations, and associate them to other information to create analytical representations. To realize these operations, there are two main categories of software. The Acousmographe was developed to draw graphic representations guided by simple acoustic analysis. The second generation, represented by EAnalysis (De Montfort University) and TIAALS (Huddersfield University) improve features of Acousmographe with analytical tools to explore the sound, work with other types of data, or focus on musical analysis.

This presentation will explore methods to improve these techniques and propose some new research directions for the next generation of software. Musical examples are extracted from Entwurzelt by Hans Tutschku for six voices and electronics.

Selective bibliography

Pierre Couprie, “Eanalysis : aide à l’analyse de la musique électroacoustique”, Journées d’Informatique Musicale, 2012, p. 183–189.

Pierre Couprie, “Improvisation électroacoustique: analyse musicale, étude génétique et prospectives numériques”, Revue de musicologie, 98(1), 2012, p. 149–170.

Mikhail Malt, Emmanuel Jourdan, “Le ‘BSTD’ – Une représentation graphique de la brillance et de l’écart type spectral, comme possible représentation de l’évolution du timbre sonore”, International conference L’ANALYSE MUSICALE AUJOURD’HUI, Crise ou (r)évolution ? proceedings, Stransbourg University/SFAM, 19-21 november 2009.

Mikhail Malt, Emmanuel Jourdan, “Real-Time Uses of Low Level Sound Descriptors as Event Detection Functions”, Journal of New Music Research, 40(3), 2011, p. 217-223.

Interactive Music Notation and Representation Workshop

nime14_ldn_r2June 30 2014 – Goldsmiths, University of London, London, UK

Call for participation

  • Submission Deadline: May 16, 2014 (No extensions possible!)
  • Notification: May 30, 2014
  • Workshop date: June 30, 2014

Computer music tools for music notation have long been restricted to conventional approaches and dominated by a few systems, mainly oriented towards music engraving. During the last decade and driven by artistic and technological evolutions, new tools and new forms of music representation have emerged. The recent advent of systems like Bach, MaxScore or INScore (to cite just a few), clearly indicates that computer music notation tools have become mature enough to diverge from traditional approaches and to explore new domains and usages such as interactive and live notation.

You are invited to participate to this session about music notation, which will consist of both informal discussions and short presentations / demonstrations. If you would like to propose a presentation or a demonstration, send a one page abstract before May 16 to A 20 minutes time slot will be allocated to each accepted proposal. Look at for a proposal template.

The aim of the workshop is to gather artists, researchers and application developers, to compare the views and the needs inspired by contemporary practices, with a specific focus on interactive and live music, including representational forms emerging from live coding. Special consideration will be given to new instrumental forms emerging from the NIME community.

The workshop will be held in two parts:

  • Overview of the notation history, tools, uses and problematics: Building a map of the different approaches, in interaction with invited participants and with the audience will be the main focus of this part. Online tools for mind mapping will be made available to allow remote participation.
  • Practices and applications: This second part is intended to take advantage of the NIME context to involve, discover and question the notation issues related to new instruments, including also live coding perspectives. For this part, we are interested in artistic experiences as well as in technical approaches. Demonstrations will be welcome, whether based on tools or new instruments, including electronics.

You are invited to participate to this session about music notation, which will consist of both informal discussions and short presentations / demonstrations. If you would like to propose a presentation or a demonstration, send a one page abstract before May 16 to A 20 minute time slot will be allocated to each accepted proposal. Look at for a proposal template.


  • Dominique Fober – Grame – Lyon
  • Jean Bresson – Ircam – Paris
  • Pierre Couprie – IReMus, Université Paris-Sorbonne – Paris
  • Yann Geslin – INA/GRM – Paris
  • Richard Hoadley – Anglia Ruskin University – Cambridge


Please send enquiries to

Archipels, création musicale électroacoustique improvisée

phono_plaisir_prop_5B1 - copieVendredi 2 mai à 20h30 , Église Saint-Pierre de Plaisir

Les Phonogénistes pratiquent l’improvisation électroacoustique depuis une quinzaine d’années, souvent en association avec d’autres formes d’expression artistique partageant la même liberté et le même plaisir de la recherche.

Archipels est une création improvisée les associant à deux autres musiciens et un électroacousticien. Les technologies audiovisuelles les plus avancées seront confrontées à un des plus anciens instruments de musique, que l’on peut considérer comme un des premiers “synthétiseur” acoustique : l’orgue, et à son lointain cousin portable et populaire : l’accordéon.

Les sons de l’orgue et de l’accordéon résonneront avec leurs doubles électroacoustiques spatialisés. Les musiciens, répartis dans l’espace du concert comme autant d’îles dans l’océan, engendreront des mouvements sonores autour du public.

Les phonogénistes :
Laurence Bouckaert : karlax
Pierre Couprie : flûte augmentée
Francis Larvor : laptop, contrôleur
Jean-Marc Chouvel : orgue
Olivier Innocenti : accordéon bayan et eigenharp

Performance avec ONE

Je serai en performance avec ONE les 1er, 2 et 3 avril à l’église St Merri (Paris).


Capture d’écran 2014-03-16 à 13.13.52

ONE est né d’une rencontre qui ne doit rien au hasard : celle de musiciens venus d’horizons très différents mais partageant un même intérêt pour la musique électroacoustique et le geste musical.

Chaque musicien s’est fabriqué son propre «instrumentarium» composé en majorité d’interfaces de jeux vidéos détournées (joystick, gamepad, tablette graphique et tactile). ONE est à la fois performance musicale et rétinienne. La diffusion d’objets sonores en panora- mique est ponctuée d’effets visuels. Générées en temps réel par les instruments, des formes graphiques viennent amplifier l’écoute. Improvisée ou écrite, la musique de ONE est toujours jouée en direct. Ici l’on joue avec le son, mais aussi pour le son. La musique de ONE sculpte des paysages sonores contrastés parcourus de timbres instrumentaux, de textures électroniques évoquant parfois des sons de la nature.

L’œil écoute

Conférence donnée à l’église St Merri (Paris) dans le cadre du festival Ecouter / voir Voir la musique, écouter les images

1er avril 2014, 20h00 – 20h30
Organisé par Puce Muse

Au concert, l’œil a toujours été un allié pour l’oreille : la reconnaissance des instruments, les gestes des musiciens, l’expression du visage des chanteurs sont autant d’indices qui permettent de mieux comprendre la musique. De son côté, le musicologue créé aussi différents types d’images pour analyser et transmettre son travail : représentation des structures musicales, du rôle de chaque instrument ou de la relation entre un film et sa musique. Depuis quelques années, les chercheurs utilisent des représentations animées permettant de visualiser très précisément des aspects complexes de la musique : caractérisation des différents sons à travers leur spectre, récurrences dans les structures ou mouvements des sons dans l’espace. Cette conférence présentera d’une manière simple quelques exemples des techniques de représentation musicale utilisées actuellement en musicologie pour analyser la musique électroacoustique.



Analysis of Electroacoustic Music: Contexts, Methods, Perspectives

logoConférences données dans le symposium Analysis of Electroacoustic Music: Contexts, Methods, Perspectives organisé par le groupe analyse de la musique électroacoustique et le Centre for Research in New Music de l’université d’Huddersfield

Date: 18th March 2014
Location: Huddersfield University
Time: 9.30-12.30 and 14.00-18.00
Invited guest contributors: John Dack, Michael Clarke



9.45 – Introduction – Frédéric Dufeu
9.50 – From Graphic/Verbal Description to Interpretation – John Dack
10.40 – The Representation(s) of Electroacoustic Music: From acoustics to musical analysis – Pierre Couprie, Mikhail Malt
11.45 – Characterization of Individual Electric Sounds – Laurent Pottier

14.00 – 20 years of Interactive Music Software at Huddersfield – Michael Clarke
14.40 – Modelling of Digital Tools and Instruments for Composition and Performance – Alain Bonardi, Frédéric Dufeu
15.45 – Behaviour and Notation of Electroacoustic Music – Bruno Bossis
16.30 – Session: Software Developments for the Analysis of Electroacoustic Music – Alain Bonardi, Pierre Courie, Frédéric Dufeu, Mikhail Malt

La cartographie dans la création et l’analyse de la musique électroacoustique

J’interviendrai le 28 janvier à l’Université d’Avignon dans le cadre du projet CartoMuse de la Structure Fédérative de Recherche Agor@ntic.

Renseignements :

Résumé de ma présentation

La musique électroacoustique utilise depuis longtemps la représentation comme outil de création ou d’analyse. Dans le studio, le compositeur réalise souvent des schémas ou des graphiques lui permettant de visualiser la globalité de l’œuvre. Lors de la création, la mise en espace s’appuie généralement sur une partition de diffusion, une représentation ou une liste des moments clés de l’œuvre et des figures d’espaces qui leur sont associés. Le musicien live utilise des interfaces tactiles représentant un ensemble de paramètres sous la forme de zones interactives à deux ou trois dimensions. De même, les musicologues ont développé différents types de représentations musicales permettant de réduire l’œuvre ou une partie d’elle-même afin de manipuler plus facilement des paramètres musicaux ou mettre en évidence certaines de ses caractéristiques (structure, similarités, génétique, etc.).


Il s’avère qu’une partie de ces représentations peuvent être apparentées à des cartes ou des cartographies. En effet, elles représentent une simplification d’un processus musical local ou global afin d’en faciliter sa manipulation lors d’un processus créatif ou son analyse lors de son étude. Certaines représentations contiennent aussi de véritables cartes géographiques comme dans le cas des soudwalk ou des installations sonores. L’artiste et le musicologue choisissent les paramètres à représenter, les manières de les représenter et l’environnement qui les contient en fonction du projet musical ou de l’objectif analytique. Une des caractéristiques majeures de ces représentations est la prise en compte ou non de la dimension temporelle. Celle-ci apparaît généralement dans un des trois axes de la représentation : en x ou en y dans des représentations dites temporelles ou en z dans des représentations animées. Cette troisième dimension permet de représenter le temps localement sur des zones de la carte ou globalement en faisant correspondre entre elles les propriétés temporelles de chaque objet. Certaines représentations utilisent aussi des graphiques hors temps afin de mettre l’accent sur des similitudes ou des groupements particuliers de paramètres ou de sons. La représentation du temps s’avère donc bien plus complexe qu’elle n’y parait au premier abord.

Durant la présentation, nous fonderons notre réflexion sur des exemples concrets issus de logiciels de création, d’interfaces interactives ou de modèles analytiques afin de faire émerger le concept de cartographie dans la création et l’analyse de la musique électroacoustique. Cette réflexion nous permettra de souligner le lien essentiel entre analyse et création à travers la notion de représentation.

Symposium / Workshop Music Notation #2 groupe de travail de l’AFIM Les nouveaux espaces de la notation musicale s’associe au séminaire MaMuX de l’Ircam pour une journée d’étude consacrée à la notation en théorie et composition musicale.

January 27, 2014 – 14:00-18:00PM
IRCAM, Salle Stravinsky 1, place Igor Stravinsky 75004 Paris


14h00-14h40 Marco Stroppa Quelques paradigmes sur des notations de la musique électronique
14h40-15h20 Julia Blondeau Notation et espaces compositionnels : processus et enjeux musicaux
15h20-16h00 Pavlos Antoniadis  Corporeal Navigation of Complex Notation: Embodied and extended cognition as a model for discourses and tools for complex piano music after 1950
16h00-16h20 Pause
16h20-17h00 Mike Solomon : une librarie de gravure musicale mobile
17h00-17h40 Bruno Bossis Les indications d’interactivité dans les pièces mixtes : une modification profonde des paradigmes de la notation
17h40-18h00 Discussion


Renseignements et programme détaillé :


Institut de Recherche en Musicologie

Depuis le 1er janvier 2014, l’équipe d’accueil dont je fais partie, l’Observatoire Musical Français (EA206), a fusionné avec l’équipe Patrimoine et Langage Musicaux (PLM) et l’IRPMF pour former l’Institut de Recherche en Musicologie (IReMus). L’IReMus est une unité mixte de recherche (UMR 8223) associant l’université Paris-Sorbonne, le CNRS, le ministère de la Culture et la Bibliothèque Nationale de France.