La représentation du son dans la création et l’analyse musicale

Conférence donnée le 26 mars 2015 dans le cadre de la Troisième Biennale d’Analyse Musicale 2015 de la Société Belge d’Analyse Musicale : Les Nouvelles Technologies au service de la création musicale, un point de vue critique !

Renseignements : http://www.sbam.be

Résumé

formeDonde03Depuis l’avènement du numérique, les logiciels de création utilisent plusieurs manières de représenter le son ou ses paramètres. De la forme d’onde au sonagramme, en passant par les graphiques utilisés dans les plug-ins ou ceux permet- tant de visualiser les différences entre les presets des synthétiseurs, ces représentations obéissent généralement aux mêmes exigences centrées autour de la notion d’interface utilisateur. Si l’analyse musicale s’est souvent contentée de réutiliser les logiciels de création, depuis une dizaine d’années plusieurs projets de logiciel d’aide à l’analyse commencent à voir le jour. Les exigences sont alors différentes des logiciels de création, ils mettent aussi bien souvent en évidence l’absence de réflexion et le retard des humanités numériques sur la création artistique. Toutefois, l’aspect expérimental de ces recherches permet d’explorer de nouvelles formes de représentations du son qui pourraient bien servir un jour dans la création musicale.

Le fantastique dans la musique anecdotique de Luc Ferrari

Cette conférence sera donnée dans le cadre du colloque sur Le fantastique dans les musiques des XXe et XXIe siècles  à l’université de Rouen le 24 mars 2015.

programme complet

PR2-2

Résumé

Le fantastique a toujours eu une place de choix dans la musique électroacoustique. Il émerge à travers le timbre des sons provoquant l’imaginaire de l’auditeur, la possibilité de manipuler des enregistrements en créant une ambiguïté avec le réel ou le travail de l’espace permettant de créer des environnements sonores inouïs. De nombreux compositeurs ont aussi intégré le fantastique dans le programme même de leurs musiques : Les paroles dégelées de Pierre Schaeffer, Futuristie ou Dracula de Pierre Henry, Forêt profonde de Francis Dhomont ou Pour en finir avec le pouvoir d’Orphée de Bernard Parmegiani et François Bayle.

Dans sa musique anecdotique, Luc Ferrari créé un dialogue entre les sons du quotidien et les sons abstraits : « J’avais là toute une échelle allant de l’abstrait au concret. Je pouvais donc représenter des images, les faire apparaître ou disparaître, je pouvais faire un spectacle d’absurdité, je pouvais articuler le langage des bruits »[1]. De Music Promenade aux Presque rien en passant par Strathoven ou Far West News, le compositeur exploite cette dialectique entre concret et abstrait de différentes manières : les sons abstraits font irruption en rompant le flux du paysage sonore, déstabilisent l’auditeur en créant une dialectique musicale irréelle, s’insèrent dans le flux sonore en créant une ambiguïté subtile ou font écho à certains bruits naturels. L’abstrait émerge aussi très souvent à la suite des paroles que le compositeur chuchote dans l’enregistrement de ses paysages sonores, prolongeant en quelque sorte ses pensées.

Chez Luc Ferrari, le monde sonore abstrait n’est jamais dominant, il permet le passage entre deux univers concrets, deux paysages sonores, ou rapproche des moments éloignés du même paysage. Le compositeur joue avec le réel, manipule notre écoute en déformant ses enregistrements.

En partant d’analyses de plusieurs œuvres, cette présentation permettra de réaliser une typologie de la dialectique entre concret et abstrait et de montrer le foisonnement dont a fait preuve le compositeur dans ce domaine.


[1] Luc Ferrari, Jacqueline Caux, Presque rien avec Luc Ferrari, Paris, Main d’œuvre, 2002, p. 149.

Journée d’étude / séminaire notation #3

Organisation : AFIM/INA-GRM

Vendredi 6 février 2015

Salle Cognacq-Jay – Centre Pierre Sabbagh
83-85 rue de Patay
75013 Paris

Programme

14h00 – Karim Barkati – Weezic
14h30 – Dominique Fober – GRAME
Nouvelles approches pour la notation de la musique
15h00 – Robert Piéchaud
Voyage en typographie musicale
15h30 pause
16h00 – Filipe Lopes
Do Desenho e do Som
16h30 – Jean Bresson – IRCAM
Représentations interactives de données musicales dans OpenMusic
17h00 – Pierre Couprie – IReMus – Université Paris-Sorbonne
EAnalysis : représentations analytiques
17h30 discussion

Programme détaillé

Pertinence, usage et interprétation des descripteurs pour l’analyse

L’analyse musicale à l’heure des outils multimédia

Coordination : Jean-Marc Chouvel

Séminaire de recherche doctoral et post-doctoral interuniversitaire
Institut de Recherche en Musicologie – Université de Paris Sorbonne – CNRS – UMR8223
Société Française d’Analyse Musicale – Revue Musimédiane

Maison de la recherche 28, rue Serpente 75006 Paris

Depuis plusieurs années, l’analyse musicale est confrontée à l’émergence d’outils multimédia qui ont une incidence sur la manière même de concevoir cette branche de la musicologie. La revue musimediane http://www.musimediane.com a tenté de rendre compte de ces possibilités, que ce soit dans le champ de la théorie musicale ou dans celui de la diffusion du travail scientifique.

Une réflexion théorique collective sur cette évolution est aujourd’hui nécessaire, afin de mieux en cerner les enjeux : pour la théorie de la musique elle-même, avec l’émergence conjointe de nouveaux objets de recherche, pour la réflexion sur les aspects cognitifs engagés, par exemple dans l’accompagnement visuel de l’écoute, ou pour l’incidence de ces nouveaux outils dans la divulgation de l’analyse et dans la pédagogie.

Le séminaire interrogera en particulier l’importance de ces nouvelles représentations sur la conception même que nous pouvons avoir de la musique, et sur la façon dont pourrait désormais être capté et restitué son mouvement.

Vendredi 23/01/2015 13H30 – 17h30 salle D040

Pertinence, usage et interprétation des descripteurs pour l’analyse

Coordination de la séance : Alain Bonardi et Pierre Couprie

Sous la dénomination de « descripteurs audio », un nombre considérable d’outils ont été développés ces dernières années qui proposent de mettre en évidence des aspects spécifiques du signal audio. Bien que la plupart aient été développés dans un contexte, celui de la recherche d’information musicale (M.I.R), assez éloigné des préoccupations de l’analyse, on peut toutefois interroger la pertinence de ces « descripteurs » pour la compréhension du phénomène musical. Quelles sont les catégories mises en évidence ? Quel est le potentiel de leur combinaison ? Quels aspects du message musical mettent-ils en avant ? et quels aspects leur restent inaccessibles ? Leur démultiplication est-il un gage d’adéquation ou une impuissance à délivrer une synthèse ?

Intervenants

Diemo Schwarz
Gestion de larges corpus audio annotés et segmentés pour synthèse et analyse interactives

Pierre Couprie
Quelques réflexions sur l’usage des descripteurs audios dans l’analyse de la musique électroacoustique

Philippe Lalitte
Analyser l’interprétation avec les descripteurs audio : avantages, contraintes et limitations

Mikhaïl Malt
Descripteurs de bas niveau et analyse musicale, réflexions…

Geoffroy Peters
Descripteurs audio : de la simple représentation au modèle de connaissances

Création, analyse & technologie dans l’improvisation électroacoustique

journeesAecmeParticipation à la table ronde Les nouvelles technologies dans la création artistique de la 14e édition des journées nationales de la musique électroacoustique de l’AECME.

Lundi 29 septembre 2014 de 10h à 12h
34 Quai Saint Cosme 71100 Chalon-sur-Saône

Renseignements : http://www.aecme.fr

Résumé

Depuis l’origine, la recherche musicale a été fondée sur l’idée d’interdisciplinarité. Dans la pensée de Schaeffer et des compositeurs-théoriciens qui on suivi comme Schafer, Chion, Bayle, Smalley, Emmerson, la création musicale ne peut se passer d’une réflexion analytique portant, en amont du concert, sur le matériau, les techniques du compositeur, la technologie et, en aval, sur l’œuvre elle-même. Depuis quelques années, des musicologues se penchent de plus en plus sur l’analyse de l’interprétation et de la performance en incluant les dimensions technologiques et sociologiques. Ainsi, la musicologie apparaît de plus en plus comme le point central de la recherche musicale et de l’activité de création. C’est cette dimension que j’aimerais partager avec vous. Mes activités de musicien, de musicologue et de développeur informatique m’ont conforté très tôt dans l’idée que la création et l’analyse sont au centre de toute activité musicale, activité prise au sens large. La question sera alors de montrer comment la création et l’analyse guident ma pratique et comment elles permettent de dépasser les nouvelles problématiques techniques engendrées par le numérique.

New Forms of Representation to Listen, Analyze, and Create Electroacoustic Music

Capture d’écran 2014-05-05 à 09.55.44During the next European Music Analysis Conference, I will present a paper on link between listening, analysis, and creation. This paper is included in Listening to electroacoustic music through analysis session.

Abstract

Analysis uses representation to detect and demonstrate paradigmatic or syntagmatic links in musical material. For several years, the particular case of electroacoustic music adds new digital technics to create complex and interactive representations. These representations show potential links between analysing, modeling, and creating electroacoustic music. Indeed, EAnalysis[1] and TIAALS[2] software explore interactive representations through charts of typology, paradigmatic links, or any other organizations of sound and music that break traditional time/frequency graphic representations. They also show the possibility to associate various types of files like audio, video, or data from other software. Features of these software allow the listener to navigate inside the work in different ways and are closely to creative processes. In the other side, software developed for musical creation can be used in analysis. Last versions of Audiosculpt[3] software gives the possibility to use audio descriptor or similarity matrix. Audio descriptors are used for several years to analyze large bank of sounds (MIR) and detect regularities or extract various acoustical characteristics. Audio descriptors can be used in musical analysis to discover and analyze global morphologies, breaks of spectrum, regularities, transitions, or articulations of sound material. Similarity matrix is perfect to visualize musical form from sonogram and links between different levels of structures. The piece of software CataRT[4] uses audio descriptors to create playing map of sounds for musical improvisation. This map can focus on audio descriptors without time representation to create a sort of genetic map of any audio file.

These examples of software from both sides demonstrate how links between analysis and musical creation are strong in recent electroacoustic music researches. This paper will present these technologies based on musical representations through different examples of creative processes and analysis of electroacoustic music.

[1] EAnalysis is a free software for musical analysis developed by Pierre Couprie at De Montfort University (Leicester).

[2] TIAALS is a free software for musical analysis developed by Michael Clarke, Frédéric Dufeu and Peter Manning at Huddersfield University.

[3] Audiosculpt is an analysis/synthesis software developed at Ircam (Paris).

[4] CataRT is a free concatenative synthesis software developed by Diemo Schwartz at Ircam (Paris).

Seminar on Music Notation & Computation

Mon. June 30th, 2014 - 3:00pm – 5:30pm
Centre for Digital Music - School of Electronic Engineering and Computer Science
Queen Mary University of London
Engineering Building – Room ENG 209
Free access

This seminar takes place in the series of events organized by the AFIM Work Group on music notation issues. The group objectives is is to make an assessment of the music score mutations, induced by the contemporary practices, and to report on the state of the art of software tools for music notation. 

The seminar is oriented to notation tools for music computation and performance.
Preliminary program

  • 3:00PM - Introduction: technology and research for music notation - AFIM work groupe Les nouveaux espaces de la notation musicale - Dominique Fober (GRAME, Lyon), Pierre Couprie (IReMus, Université de Paris-Sorbonne), Yann Geslin (INA / GRM, Paris), Jean Bresson (IRCAM UMR STMS, Paris)
  • 3:20PM - Sequencing and score following for interactive music - Thomas Coffy, Arshia Cont, Jean-Louis Giavitto (IRCAM/INRIA/CNRS – UMR STMS, Paris)
  • 3:40PM - Tempo pattern representation for expressive performances - Shengchen Li (Queen Mary University of London)
  • 4:10PM - Interactive XVII-XVIII century spanish music notation - David Rizo (Department of Software and Computing Systems, University of Alicante)
  • 4:30PM - Can score design affect the readability of music? - Arild Stenberg (Faculty of Music, University of Cambridge)
  • 4:50PM - How can dynamic score markings relate to dynamic changes? - Katerina Kosta (Queen Mary University of London)

Organisation

  • Groupe de travail AFIM Les nouveaux espaces de la notation musicale - Jean Bresson, Pierre Couprie, Dominique Fober, Yann Geslin.
  • Richard Hoadley, Anglia Ruskin University, Cambridge.
  • Elaine Chew, Jordan Smith, Centre for Digital Music, Queen Mary University of London
More information at

Interactive Music Notation and Representation Workshop@NIME 2014

Mon. June 30th, 2014 – 9:30 to 13:00
Goldsmiths, University of London

Computer music tools for music notation have long been restricted to conventional approaches and dominated by a few systems, mainly oriented towards music engraving. During the last decade and driven by artistic and technological evolutions, new tools and new forms of music representation have emerged. The recent advent of systems like Bach, MaxScore or INScore (to cite just a few), clearly indicates that computer music notation tools have become mature enough to diverge from traditional approaches and to explore new domains and usages such as interactive and live notation.
The aim of the workshop is to gather artists, researchers and application developers, to compare the views and the needs inspired by contemporary practices, with a specific focus on interactive and live music, including representational forms emerging from live coding. Special consideration will be given to new instrumental forms emerging from the NIME community.
Registration
Workshop attendees must register for NIME for at least one of Tuesday, Wednesday or Thursday (see here) but don’t pay for the workshop day. You must send an email to dfober@gmail.com with your coordinates to be registered to the workshop itself.
Preliminary program

  • Animated Notation Dot Com: 2014 Report - Ryan Ross Smith
  • Timelines in Algorithmic Notation  - Thor Magnusson
  • Breaking the Notational Barrier: Liveness in Computer Music - Chris Nash
  • Quid Sit Musicus: Interacting with Calligraphic Gestures - J. Garcia, G. Nouno, P. Leroux
  • Non-Visual Scores for Ensemble Comprovisation - Sandeep Bhagwati
  • Interactive and real-time composition with soloists and music ensembles - Georg Hajdu
  • A javascript library for collaborative composition of lead sheets - D. Martín, F. Pachet
  • (Pre)compositional strategies and computer-generated notation in surface/tension (2012) for oboe and piano or ensemble - Sam Hayden
  • On- and off-screen: presentation and notation in interactive electronic music - Pete Furniss
  • John Cage Solo for Sliding Trombone, a Computer Assisted Performance approach - B. Sluchin, M. Malt
  • Deriving a Chart-Organised Notation from a Sonogram Based Exploration: TIAALS (Tools for Interactive Aural Analysis) - M. Clarke, F. Dufeu, P Manning
Organisation

  • Groupe de travail AFIM Les nouveaux espaces de la notation musicale - Jean Bresson, Pierre Couprie, Dominique Fober, Yann Geslin.
  • Richard Hoadley, Anglia Ruskin University, Cambridge.
More information at

Representation: From Acoustics to Musical Analysis

Capture d’écran 2014-05-05 à 09.47.41Mikhail Malt and me will present our next paper at EMS Conference in June 2014 at Berlin.

Abstract

This presentation will be done in two parts.

1) Sound Analysis and Representations

Musicologists use various types of sound representations to analyze electroacoustic music:

  • The waveform and the sonogram are a good basis to explore and navigate in one or more audio files. They also allow to estimate time and spectral frame for sounds. Several software like Audiosculpt, SPEAR or TIAALS allow filtering operations to isolate a sound or a group of sounds to study their properties.
  • Differential sonogram or layers of sonograms are good tools to observe global parameters of sound or music. They also highlight break of spectrum, dynamics profiles, or space motions by comparison of sound channels.
  • The similarity matrix reveals structural patterns, recurrence in several sound parameters, or musical characteristics. This representation completes sonogram to explore global form or complex micro-structures.
  • Audio descriptor extraction helps the listening to identify global morphologies, transitions, and articulations. One of the main problems using low-level audio descriptors being the redundancy of information among them. Many of them being correlated and bringing the same information. The first step to work with audio descriptors is to reduce the dimensionality of the analytical data space and find what features are useful to describe the audio phenomena we are focusing on. With this main goal, we would like also to present a tool intended to musicologists, that will help in the analytical workflow and in the proper audio descriptors choice.

2) Moving to Analytical Representations

These different types of acoustic representations are the basic tools to explore and extract information to complete aural analysis. In the other side, researchers create musical representations during analytical process. From structural representations to paradigmatic charts or typological maps, the goal of musical representations is to explore masked relations between sounds (paradigmatic level), micro-structures (syntagmatic level) or external significations (referential level). Researchers also need representations to present their works. To do that, they create graphic representations associated with sound or video to have more intuitive examples.

Relation between both types of representations — acoustics and musical — often consists to associate them through panes or layers’ software. Transferring information between them or extracting information from acoustic representation to create analytical graphics are complex operations. They need to read acoustic representations, filter no significant parts, create a pre-representations, and associate them to other information to create analytical representations. To realize these operations, there are two main categories of software. The Acousmographe was developed to draw graphic representations guided by simple acoustic analysis. The second generation, represented by EAnalysis (De Montfort University) and TIAALS (Huddersfield University) improve features of Acousmographe with analytical tools to explore the sound, work with other types of data, or focus on musical analysis.

This presentation will explore methods to improve these techniques and propose some new research directions for the next generation of software. Musical examples are extracted from Entwurzelt by Hans Tutschku for six voices and electronics.

Selective bibliography

Pierre Couprie, “Eanalysis : aide à l’analyse de la musique électroacoustique”, Journées d’Informatique Musicale, 2012, p. 183–189.

Pierre Couprie, “Improvisation électroacoustique: analyse musicale, étude génétique et prospectives numériques”, Revue de musicologie, 98(1), 2012, p. 149–170.

Mikhail Malt, Emmanuel Jourdan, “Le ‘BSTD’ – Une représentation graphique de la brillance et de l’écart type spectral, comme possible représentation de l’évolution du timbre sonore”, International conference L’ANALYSE MUSICALE AUJOURD’HUI, Crise ou (r)évolution ? proceedings, Stransbourg University/SFAM, 19-21 november 2009.

Mikhail Malt, Emmanuel Jourdan, “Real-Time Uses of Low Level Sound Descriptors as Event Detection Functions”, Journal of New Music Research, 40(3), 2011, p. 217-223.