Découvrez les conférenciers et leurs interventions

Ateliers du Forum Montreal, 2-5 Avril 2020

A - Aurélien Antoine / Azevedo Anesio

B - Baril Félix Frédéric / Beuret Denis / Bolles Monica / Bouchard Linda / Boyd Jeffrey, Friedemann Sallis, Martin Ritter / Brandon Amy / Brook Taylor

C - Cadars SylvainCahen Roland / Carpentier Thibaut / Cella CarmineCentury Michael / Chandler Christopher / Conforti Simone

D - Delgado Carlos / Delisle Julie

E - Esling Philippe

F - Fernandez José Miguel / Féron François-Xavier, Guastavino Catherine, Camier Cédric / Fortin Emilie et Dupuis Sophie / Foulon Raphaël 

G - Gantt Matthew / Giannini Nicola / Goldford Louis / Gozzi Andrea / Grond Florian et Woszcyk Weslaw

H - Hamilton Rob / Heng Lena / Hoff Jullian et Layec Charlotte / Huynh Erica

J - Juras Jordan et Luciani Davide

K - Kafejian Sergio, phd dr. Esther Lamneck / Kim Hanna / Krukauskas Mantautas

L - Landolt Ludovic / Lee Dongryul / Lemouton SergeLengelé Christophe

M - Madlener Frank / Maestre Esteban / Majeau-Battez Emmanuelle / McAdams Stephen, Russel Alistair, Goodchild Meghan, Lopez Beatrice et Kit Soden / Morciano Lara / Morrison Landon

N - Nagy Zvonimir / Neill Ben / Noble Jason

O - O'Callaghan James

P - Pelz Ofer et Matan Gover

R - Radford Laurie / Raynaud Eric / Rémus Jacques / Reymore Lindsey

S - Savoie Monique / Schumacher Marlon et Núria Gimenez Comas / Schütz Nadine / Spiropoulos Georgia

T - Trapani Christopher / Turcotte Roxanne / Tutschku Hans

Z - Zaes Marcel / Zhou Tiange

------------------------------- 

Aurélien Antoine / McGill University

Aurélien Antoine est boursier postdoctoral à l'Université McGill et travaille avec Stephen McAdams et Philippe Depalle. Ses recherches actuelles se concentrent sur la modélisation des effets et des techniques d’orchestration à partir d’informations symboliques de partitions et de signaux audio lisibles par machine, en passant par l’exploration de données et les techniques d’apprentissage machine. Son travail bénéficie des ressources disponible dans la base de données Orchard, et souhaite la développer. Ses résultats contribueront également à la compréhension et à l’utilisation des différents effets et techniques d’orchestration. 
Exploiter la modélisation informatique de la perception des effets orchestraux pour les outils d’orchestration assistée par ordinateur
De récentes avancées dans le domaine de l’orchestration assistée par ordinateur ont fourni des approches intéressantes pour relever certains des nombreux défis de l’orchestration, soutenus par les progrès des capacités informatiques et des méthodes d’intelligence artificielle. Néanmoins, la maîtrise des multiples facettes de cet art musical, qui consiste à combiner les propriétés acoustiques d’un grand ensemble d’instruments variés, n’a pas encore été atteinte. Un des aspects à étudier touche les effets perceptuels façonnés par les combinaisons d’instruments, comme le mélange, la ségrégation et les contrastes orchestraux, pour n’en nommer que trois. Ces effets résultent de trois processus de regroupement auditif, à savoir le regroupement simultané, séquentiel et segmentaire. Par conséquent, la recherche en analyse de scène auditive (ASA) pourrait être utilisée pour établir des modèles informatiques qui traitent l’information sur les partitions musicales symboliques et les signaux audio pour identifier des effets orchestraux spécifiques. Notre travail dans ce domaine, pourrait aider à comprendre et à identifier les différentes propriétés techniques musicales impliquées dans la réalisation de ces effets qui sont appréciés par les compositeurs. Ces développements pourraient profiter aux systèmes conçus pour effectuer des analyses d'orchestration à partir de partitions musicales lisibles par machine. De plus, la compréhension des différents paramètres responsables de la perception des effets orchestraux pourrait être incorporée dans des outils d'orchestration assistée par ordinateur conçus pour rechercher les combinaisons d'instruments optimales en ajoutant des caractéristiques perceptuelles à leurs méthodes de recherche.

Anésio Azevedo Costa Neto / Instituto Federal São Paulo - Universidade Brasília - IDMIL - McGill University

Anésio Azevedo est professeur de philosophie à l'Instituto Federal de Saõ Paulo (IFSP) et candidat au doctorat de philosophie à l'Universidade de Brasilia (UnB), au Brésil. Sous le nom de "stellatum_.", Anésio explore les sons, soit enregistrés à partir du Cerrado (biome du Brésil), soit produits par lui-même. En combinant différentes caractéristiques sonores dans des ambiances, Anésio vise à élargir sa perception de la Nature en offrant des indices pour appréhender sa propre durée.
Cerrado—Application des techniques de spatialisation à des champs perceptifs élargis
En tant que chercheur dans le domaine de l’art, je pars de l’hypothèse que chaque environnement spécifique a une forme d’écoute qui devient fondamentale dans la perception générale de cet environnement. Le but de cette présentation de recherche est de montrer comment j’arrive à améliorer la sensation d’immersion en modifiant la distribution, la trajectoire, ainsi que l’intensité des sources de son, dans un axe spatial tridimensionnel. Le but est aussi de montrer comment cela m’a aidé à développer un environnement élargi, où les gens pourraient ressentir une certaine complexité de la nature, qui sous-tend ce qui est percevable. L’idée artistique évoque non seulement la recherche technique, mais aussi le processus continu qui rassemble les données audiovisuelles en matériaux potentiels tels que des éléments constitutifs, au sein de mes performances.

 

Frédéric Félix Baril / McGill University

Félix Frédéric Baril est né en 1979 à Montréal. Il entreprend un baccalauréat en composition en 1999 à l’Université de Montréal où il sera l’élève de Michel Longtin. Il étudie ensuite avec Denys Bouliane à l’Université McGill. Il termine une maîtrise en composition en 2006. Son mémoire, traitant des possibilités de développement organique du matériau musical, est choisi pour le tableau d’honneur du doyen. Baril commence un doctorat en composition à l’Université McGill en 2007. Entre 2012 et 2015 il conçoit avec Denys Bouliane un système de reproduction sonore de partition orchestrale intitulé OrchSim, un outil informatique dédié à la composition et la recherche. Baril et Bouliane fondent ensemble la Bibliothèque de musique OrchPlay en 2016. Baril termine son doctorat en 2019. Les œuvres de Baril remportent plusieurs prix et bourses au Canada et à l’étranger, dont le prestigieux William Schuman Prize du BMI Student Composer Awards de New-York en 2001. Entre 2003 et 2007 il est trois fois lauréat du Concours des jeunes compositeurs de la Fondation SOCAN. Il est récipiendaire de bourses provenant du FRQSC, de CIRMMT ainsi que de l'Université McGill. Baril participe à plusieurs stages dont "Les classiques de demain" au Centre National des Arts, les "Rencontres de musique nouvelle" au Domaine Forget et "Voix Nouvelles" de la Fondation Royaumont. Baril est présentement assistant de recherche pour Stephen McAdams dans le cadre du projet ACTOR au Laboratoire de perception et cognition musicale à l’Université McGill. Il conçoit le logiciel OrchView utilisé pour la recherche en orchestration.
OrchView - Outils pour l'analyse de l'orchestration
Conçu pour Mac, Windows et iPad, OrchView est une application autonome d'analyse musicale. OrchView met à la disposition des chercheurs musicaux un puissant ensemble d'outils d'annotation, construits pour les multiples axes de recherche du projet ACTOR (Analyse, Création + enseignement de l'orchestration).
Les données d'annotation sont automatiquement collectées au cours du processus d'analyse du chercheur (techniques d'orchestration, effets, instruments sélectionnés, plage de mesure, etc.) Il est ensuite téléchargé en ligne pour être intégré dans ORCH.A.R.R.D. (Orchestration, Analysis & Research Database). Un format de partition MusicXML offre une flexibilité dans la représentation visuelle des analyses. Il peut ensuite être exporté dans un fichier PDF avec les annotations.
OrchView inclut déjà un ensemble d'outils d'Effets de Groupement Orchestral. Ces outils correspondent aux recherches en cours menées par Stephen McAdams et son équipe. Des outils de Techniques d'Orchestration sont en cours d'implémentation.
OrchView est actuellement conçu par Félix Frédéric Baril et programmé par Baptiste Bohelay. C'est un concept original de Kit Soden.

Denis Beuret 

Denis Beuret est un compositeur, tromboniste, vidéaste, développeur informatique, improvisateur et médiateur culturel suisse. Il a étudié la batterie, le trombone, l’informatique musicale, la direction et l'orchestration, ainsi que la médiation culturelle. Il est spécialisé dans la recherche sonore : techniques de jeu étendu du trombone basse et intégration de l’électronique en concert. Il a mis au point un trombone basse augmenté, muni de divers capteurs qui lui permettent de contrôler des programmes musicaux en fonction de ses mouvements et de son jeu. Il a présenté ses travaux à plusieurs reprises à l'IRCAM, ainsi qu'à ImproTech Paris - New York 2012.
Ensemble virtuel, un programme qui groove
Ce programme génère des mélodies, la basse, la batterie et les accords appropriés en temps réel et joue le tout en rythme. Il analyse les hauteurs et dynamiques de quatre sources audio (micros ou fichiers), il se cale à la vitesse d’une source sonore et quantife sa production musicale en temps réel, selon des rythmes, ou de la valeur de division choisis. Au niveau orchestration, il est possible de choisir les sons que l’on veut, car le programme analyse de l’audio ou du Midi et génère du Midi. Pour cette présentation et la démo, Denis Beuret va jouer du trombone et utiliser un pédalier qui lui permet de contrôler des effets audio en temps réel.

 

Monica Bolles

Monica Bolles travaille avec l'audio spatial depuis 2011, date à laquelle elle a eu accès pour la première fois au système surround 15.1 canaux de son planétarium local. Depuis, elle n'a cessé de développer des outils dans Max MSP pour pouvoir créer de grands paysages sonores texturés qui explorent l'espace, le mouvement et l'interaction. Puisant dans ses racines d'ingénierie audio traditionnelle, elle travaille avec des compositeurs et des interprètes en direct pour explorer des méthodes de transposition de leur travail à des environnements spatiaux, tout en explorant le rôle que l'ingénieur son joue en tant qu'interprète et musicien. En tant qu'artiste, elle se concentre sur la construction d'instruments personnalisés qui explorent la sonification de données et utilisent le contrôle gestuel pour créer des expériences audio spatiales improvisées. En tant que productrice, elle réunit des équipes pour construire de grandes œuvres immersives qui réunissent la performance en direct, la danse, les projections à 360 degrés, l'audio spatial et d'autres nouvelles technologies.
Orbites : Une exploration dans l'audio spatial et la sonification
Monica Bolles est titulaire d'un B.S. en production musicale de CU Denver et d'un M.S. en technologie créative et design de CU Boulder. Elle travaille comme ingénieur du son professionnel dans le domaine du théâtre, du live et du studio depuis 2011 et a récemment travaillé à Tippet Rise pour expérimenter et enregistrer des artistes de musique classique pour la lecture 9.1 Auro3D.
Elle se concentre actuellement sur ses pratiques artistiques et, plus récemment, elle a conçu et construit des expériences immersives à grande échelle. Début 2019, elle a produit et conçu un système audio spatial personnalisé pour la performance immersive en direct N/TOPIA mettant en vedette la guitariste Janet Feder. La pièce a été créée à la Conférence des Affaires Mondiales à Boulder, CO au Fiske Planetarium et a reçu le prix Immersive Mulitsensory Award pour sa performance au Cube Fest 2019 au Virginia Tech's Cube (un théâtre à boîte noire qui accueille un réseau de haut-parleurs multicanaux de 140 canaux et un Cyclorama immersif).
Elle a également passé l'année dernière à travailler aux côtés de Kelly Snook pour aider à la construction d'un instrument permettant de sonifier l'univers. Elle a créé la pièce Orbits, qui a été présentée en première à l'événement Making Media Matter de DU et a été jouée au Cube Fest et dans le cadre de leur soirée consacrée aux données. La pièce consiste en une performance en direct d'une exploration des sons générés par les rotations de Vénus et de la Terre autour du Soleil.
Elle a présenté et animé des ateliers dans le cadre de Ableton Loop (2018), SXSW (2019), IMERSA Summit (2013-2019), NIME (2017-2018), et plus encore. 

Linda Bouchard / Résidence au Matralab - Concordia University

Née à Val d'Or, au Québec, Linda a vécu à New York de 1979 à 1991 où elle a excercé comme compositrice, orchestratrice, chef d'orchestre, enseignante et productrice. Elle a été compositrice en résidence avec l'Orchestre du Centre national des Arts (1992-1995) et vit à San Francisco depuis 1997. Ses œuvres ont reçu des prix aux États-Unis et au Canada, dont le Prix Opus Compositeur de l'année au Québec, le Fromm Music Foundation Award, le Princeton Composition Contest, les prix de composition de la SOCAN et des résidences de la Rockefeller Foundation, Civitella Ranieri, Camargo Foundation et autres. La musique de Bouchard est enregistrée en Allemagne sur ECM, aux États-Unis sur CRI, et au Canada sur Marquis Classics. Depuis 2010, Linda crée des œuvres multimédias qui ont été accueillis avec succès par la critique en Amérique du Nord. En 2017, elle a reçu une subvention pluriannuelle du Conseil des Arts du Canada pour développer des outils permettant d'interpréter les données en paramètres musicaux.
Structures vivantes
Live Structures est un projet de recherche et composition, qui explore les différentes manières d’interpréter les données au sein des notations et compositions graphiques. Le projet Live Structures a commencé en Octobre 2017, supporté par une subvention Exploration et Création du Conseil des Arts du Canada, reçue par Bouchard. Un des objectifs du projet Live Structures est d’interpréter les données issues de l’analyse des sons complexes pour en faire une notation musicale visuelle. L’outil, développé en collaboration avec Joseph Browne du Matralab de l’Université de Concordia, est appelé Ocular Scores™. Jusque là, trois itérations de l’Ocular Scores ont été créées, chacune exécutant des fonctions multiples : a) la capacité de dessiner une image à partir de l’analyse de sons complexes qui peuvent petre utilisés comme éléments gestuels pour composer de nouvelles oeuvres ou pour comparer un son complexe à un autre, b) la capacité de faire des transcriptions complètes d’un spectacle en vue d’interprétation future, et c) la capacité de dessiner des images en temps réel, et de manipuler pour créer des partitions interactives projetées, qui seront jouées en direct par plusieurs interprètes. Ces diverses applications et la façon dont elles peuvent inspirer les compositeurs et les interprètes seront démontrées avec un interprète en direct (tbd).

Jeffrey Boyd / Université de Calgary

Jeffrey Boyd est professeur d'informatique à l'Université de Calgary. Il s'intéresse à la musicologie computationnelle, à la sonification, à l'art interactif ainsi qu'à la vidéo et la détection appliquées au mouvement humain.  Friedemann Sallis est professeur émérite à la Division de la musique de l'Université de Calgary. 
The hallucinogenic belfry: analyzing the first forty measures of Keith Hamel's Touch for piano and interactive electronics (2012)
La musicologie computationnelle émerge de la nécessité de trouver de nouvelles méthodes pour traiter la musique (tant artistique que populaire) qui échappent à la notation occidentale conventionnelle. Pour mieux comprendre cette musique, nous utilisons des méthodes informatiques pour décomposer les enregistrements d'interprétations de musique contemporaine en objets musicaux numériques. Dans cet article, nous examinons les 40 premières mesures de Touch for Piano and Interactive Electronics (Hamel 2012). Hamel utilise le spectre des cloches comme base d'une partition qui imite le timbre des cloches et le combine avec le timbre du piano, le traitement électronique et le rendu spatial avec huit haut-parleurs entourant le public. Pour les objets musicaux, nous choisissons d'utiliser plus de 200 échantillons de cloches utilisés dans la partie électronique de la pièce.
Une recherche informatique exhaustive des occurrences de chaque échantillon de cloche sur quatre enregistrements de prestations du même pianiste (Megumi Masaki) dans deux lieux sur 100 directions (échantillonnés avec un microphone ambisonique) donne une base de données de milliers de détections d'événements de cloche. Notre recherche a produit 1) de nombreux objets (échantillons) explicitement codés dans la " partition " électronique (ce qui n'est pas une surprise) ; 2) un nombre étonnamment élevé d'objets non explicitement codés. Ce dernier groupe correspond aux hauteurs dans les registres supérieurs, appelées "cuivres secs" ou "glock" dans la partition électronique. L'inspection de notre code, et la vérification par écoute, confirment que ces objets ne sont pas produits à partir des échantillons de cloche de la source électronique. Au contraire, ils sont le produit de hauteurs de piano soigneusement harmonisées en temps réel pour les rapprocher progressivement des échantillons de cloches au cours du segment des quarante mesures. En diffusant ces sons dans l'espace de concert, le compositeur invite le public à entrer progressivement dans son beffroi hallucinogène, où se déroule l'œuvre musicale.

Amy Brandon / Dalhousie University

Les pièces de la compositrice et guitariste canadienne Amy Brandon ont été décrites comme " ... hypnotisantes " (Musicworks Magazine) et " d'un autre monde et médidatif... un conflit entre la tristesse et la beauté... " (Minor Seventh). Les événements à venir en 2019-20 comprennent des premières par l'Ensemble KIRKOS (Irlande), l'Ensemble Exponential (NYC) ainsi que des performances et des installations au Festival de musique nouvelle de Winnipeg, au Centre de musique canadienne et au Centre d'expérimentation musicale du Québec. Elle a reçu des prix de composition canadiens et internationaux, dont le Leo Brouwer Guitar Composition Competition (Grand Prix), et termine actuellement un doctorat interdisciplinaire à l'Université Dalhousie à Halifax, en Nouvelle-Écosse. 
Composer pour l’espace AR : créer des partitions spatiales interactives pour le casque METAVision
Au cours de ces dernières années, les possibilités de composition et performance au sein de l’environnement VR et AR se sont développées, grâce à des compositeurs tels que Paola Prestini et Giovanni Santini, entre autres, et leurs travaux sur la VR, AR et les technologies 360. Mes propres compositions, de 2017 à 2019, se sont focalisées sur les affordances particulières des oreillettes METAVision AR, qui habite l’intersection de la partition graphique, du contrôleur et du mouvement d’improvisation. Le but principal de ces travaux (Hidden Motive, 7 Malaguena Fragments for Augmented Guitar, flesh projektor) est et a été la découverte et la manipulation par l’improvisateur (ou musicien) des moyens de l’espace AR, en particulier sa réactivité aux gestes de la main. Ce projet explore comme les corps dans leurs individualités interagissent dans un environnement de réalité augmentée performative, en particulier comment ces espaces interactifs peuvent se fondre avec les objets du monde " réel " comme les instruments. Dans cette démo, je vous présenterais les précédents travaux pour le casque METAVision AR ainsi qu'un travail multicanal en cours de développement.

Taylor Brook / Université de Columbia

Taylor Brook est un compositeur canadien basé à New York depuis 2011. Brook écrit de la musique pour la scène, de la musique électronique, ainsi que de la musique pour vidéo, théâtre et danse. Décrites comme " captivantes " et " passionnantes " par le New York Times, les compositions de Brook ont été interprétées partout dans le monde par des ensembles et des solistes tels que Anssi Kartunnen, Mira Benjamin, l'Ensemble Ascolta, le JACK Quartet, le Mivos Quartet, le Nouvel Ensemble Moderne, le Quatuor Bozzini, l'Ensemble Talea et d'autres. Sa musique s'intéresse souvent aux sonorités microtonales finement accordées, combinant son intérêt pour l'exploration des qualités perceptuelles du son avec un sens unique de la beauté et de la forme. En 2018, Brook a obtenu un doctorat en arts musicaux (DMA) en composition musicale à l'Université Columbia. Il est titulaire d'une maîtrise en composition musicale à l'Université McGill. Actuellement, Brook est chargé de cours à l'Université Columbia et est directeur technique du TAK Ensemble.
Human Agency and Meaning of Computer-Generated Music in Virtutes Occultae
Cet article explore les concepts autour du contrôle compositionnel qui découlent de la musique générée par ordinateur et de l'improvisation informatique. À partir d'une analyse de ma composition électroacoustique, Virtutes Occultae, j'analyserai les implications de l'improvisation informatique du rôle de compositeur, la façon dont la valeur est attribuée à l'art expérimental et la relation élargie aux données et à l'automatisation dans la société en général.
En créant le logiciel pour générer de la musique pour Virtutes Occultae, j'ai été confronté à des décisions concernant le degré de contrôle ou de chaos que j'allais insuffler dans l'algorithme d'improvisation. Le degré de randomisation et les probabilités pondérées intégrées dans le logiciel fixent les niveaux d'imprévisibilité ; l'imprévisibilité de l'improvisation informatique devient stimulante sur le plan artistique, conduisant même le compositeur à imiter l'improvisateur informatique dans des sections plus traditionnellement composées.
Les entreprises commerciales récentes (AIVA, Jukedeck, Melodrive, etc.) disposent d'algorithmes qui génèrent automatiquement des jingles commerciaux et des bandes sonores : choisissez une ambiance et un style pour créer une pièce musicale originale en un seul clic. Le moteur AIVA promeut une fonction étrange où l'on peut sélectionner un morceau de musique existant, par exemple un Nocturne de Chopin, et déplacer un curseur entre "similaire" et "vaguement similaire" pour créer une œuvre dérivée. Que signifie cette méthode de création musicale pour la façon dont nous valorisons la musique ? Bien que ce logiciel crée de la musique à des fins commerciales, j'ai employé des techniques similaires dans l'art non commercial dans Virtutes Occultae et d'autres œuvres. Décomposer les ramifications de ce que la musique générée par ordinateur signifie pour le rôle d'un artiste et sa relation à son art est un sujet complexe et varié qui doit être considéré.

Sylvain Cadars / Ircam (Ingénieur du son)

Sylvain Cadars est ingénieur du son et acousticien au centre de l'IRCAM (Institut de la musique acoustique) à Paris depuis 10 ans. Il est titulaire d'une maîtrise en acoustique et informatique musicale de l'université de Paris Jussieu. Il a également étudié l'électronique à Paris. Il participe depuis 10 ans à des concerts, des enregistrements et des opéras de musique contemporaine avec électroniques et a travaillé avec plusieurs compositeurs comme Pierre Boulez, Hector Parra, Philip Manoury, Alberto Posadas, Franck Bedrossian avec différents ensembles musicaux en Europe (Klangforum, ICE New York, MusikFabrik ensemble, EIC ensemble intercontemporain de Paris, Arts nova ensemble, Court Circuit, etc.
 

Roland Cahen / ENSCi Les Ateliers

Roland Cahen est compositeur électroacoustique, designer sonore, enseignant et chercheur en musique électroacoustique, art et design sonore. La recherche sonore et musicale de Roland Cahen porte sur la conception, l’organisation, l’expression et le ressenti du son dans l’espace; dans la salle de concert, sur scène, avec le mouvement des sons mouvement, mais aussi celui du sujet écoutant en situation de ​navigation sonore​ dans des t​ opophonies​ virtuelles, physiques ou hybrides. Le projet de la musique cinétique s’inscrit dans cette recherche. Il est membre du Centre de Recherche en Design (CRD) ENSCi les Ateliers - ENS Paris-Saclay Professeur en charge des studios de design sonore ENSCi - Les Ateliers. En charge des Studios Experimentaux: RAAGTime ; Upmix Café ; Entendre l'Invisible. Il prend également part aux projets de développements de l'Ircam.
Kinetic Design 
La musique cinétique vise à produire des chorégraphies sonores, où le son est diffusé. Par conséquent, elle utilise la spatialisation du son, de telle sorte que le compositeur et l’auditeur se concentrent tous deux sur les aspects cinétiques du son, au lieu d’utiliser la spatialisation uniquement à titre d’illustration ou pour rendre des effets.
En musique cinétique, comme au théâtre, en danse ou dans les arts visuels, chaque zone, position ou direction peut prendre une valeur musicale, une forme de densité que l’espace sonore lui-même incarne.
La musique cinétique souhaite ajouter une nouvelle forme d’expression et des méthodes de compositions aux concepts et techniques de musiques spatialisées existantes. La spatialisation sonore a déjà fait l’objet d’une littérature abondante, mais l’objectif de cet article est de démontrer la spécificité de la musique cinétique. Du son spatialisé, beaucoup de choses ont été écrites sur le sujet et étudiées, des généralités (principes, philosophie de l’espace et de la musique, histoire), de nombreux outils et techniques, des analyses d’intentions musicales, mais très peu ont portées sur l’expérience de l’auditoire, sur l’esthétique du son spatialisé et aucune sur le processus de conception.
 

Thibaut Carpentier / Ircam

Thibaut Carpentier est ingénieur de recherche au sein du laboratoire STMS (Sciences et Technologies de la Musique et du Son) hébergé à l'Ircam. Il étudie l'acoustique à l'École centrale et le traitement du signal à Télécom ParisTech, avant d'intégrer le CNRS en 2009. Rattaché à l'équipe Espaces acoustiques et cognitifs, ses travaux portent sur la spatialisation sonore, la réverbération artificielle, l'acoustique des salles, et les outils informatiques pour la composition et le mixage 3D. Il est le développeur principal et responsable du projet Spat et de la station de mixage et de post-production 3D Panoramix. En 2018, il est lauréat de la médaille de Cristal du CNRS. 

Carmine Cella

Carmine Emanuele Cella est un compositeur de renommée internationale qui a fait des études supérieures en mathématiques appliquées. Il a étudié au Conservatoire de musique G. Rossini, en Italie, où il a obtenu une maîtrise en piano, en informatique musicale et en composition, et à l'Accademia di S. Cecilia, à Rome, où il a obtenu un doctorat en composition musicale. Il a également étudié la philosophie et les mathématiques et a obtenu un doctorat en logique mathématique à l'Université de Bologne, avec une thèse intitulée "On Symbolic Representations of Music" (2011). Après avoir travaillé à l'IRCAM en 2007-2008 en tant que chercheur et à nouveau en 2011-2012 en tant que compositeur en résidence, Carmine Emanuele Cella a mené des recherches en mathématiques appliquées à l'École Normale Supérieure de Paris, de 2015 à 2016, avec Stéphane Mallat. Toujours en 2016, il est en résidence à l'Académie américaine de Rome, où il travaille sur son opéra Pane, sale sabbia, qui sera créé en juin 2017 à l'Opéra national de Kiev. De 2017 à 2018, il a travaillé sur l'orchestration assistée par ordinateur à l'IRCAM - un sujet proposé depuis longtemps par Boulez-, et a réussi à proposer des solutions innovantes qui font l'objet d'un consensus au sein de la communauté. Depuis janvier 2019, Carmine est professeur assistant en musique et technologie au CNMAT, Université de Californie, Berkeley.
"Can Picasso think in shapes?"
Cette conférence présentera mes travaux récents dans la recherche de bonnes représentations de signaux qui permettent une manipulation de haut niveau des concepts musicaux. Après la définition d'une approche géométrique de la représentation des signaux, je présenterai ma théorie des types de sons et son application à la musique. Enfin, je proposerai des applications musicales incluant l'orchestration assistée et les instruments augmentés.


Michael L. Century / Rensselaer Polytechnic Institute

Michael Century est professeur à la New Media and Music in the Arts Department à la Rensselaer Polytechnic Institute à Troy, N.Y. (depuis 2002). Musicalement à l'aise dans des contextes classiques, contemporains et d'improvisation, Century détient des diplômes en musicologie des universités de Toronto et de Californie à Berkeley. Longtemps associé au Banff Centre for the Arts, il a dirigé le programme inter-arts du Centre entre 1979 et 1988, et a fondé son programme d'arts médiatiques en 1988. Avant l'IPR, il était chercheur en nouveaux médias, producteur inter-arts et décideur dans le domaine des arts (gouvernement du Canada, Patrimoine canadien et ministère de l'Industrie, 1993-1998). Ses œuvres pour instruments en direct et traitées électroniquement ont été jouées et diffusées dans des festivals internationaux.
Démonstration/performance du système d'instrument élargi de Pauline Oliveros pour le HoA utilisant Spat
Tout au long de sa carrière de compositrice et d'interprète, Pauline Oliveros (1932-2016) s'est toujours intéressée à l’élargissement de l'expérience temporelle et a souvent qualifié son propre système d'instrument élargi (EIS) de "machine temporelle" - un dispositif permettant au présent, au passé et au futur, selon ses propres termes, "simultanément aux transformations". Avec la permission du Pauline Oliveros Trust, je continue à développer et propose ici une démonstration pour le Forum de ma propre musique électronique live utilisant l'accordéon dans un système HoA utilisant Spat.
La démonstration comprendra ma propre interprétation musicale et la collaboration à la programmation de Matthew D. Gantt. Le système EIS a joué un rôle important non seulement dans l'œuvre enregistrée d'Oliveros, mais a également eu un impact significatif dans l'histoire plus large de la musique électronique en direct. Mes recherches sur l'histoire du système m'ont également permis de fournir un bref résumé sur Oliveros en tant qu'artiste et sur la façon dont son système de manipulation et de modulation de la musique improvisée avec des retards dans le temps s'est développé sur un demi-siècle.
Ce développement a commencé avec des œuvres classiques pour bande, suivies successivement par des machines à retarder manuelles et à commande au pied (1980’s), des patchs Max contrôlés par MIDI (début des années 1990), une transcription numérique complète en MaxMSP (2002) et enfin divers modules pour une spatialisation de base. La démonstration proposée ici utilise l'EIS en conjonction avec Spat et fournit un développement significatif dans la puissance du système, tant sur le plan esthétique que technique.

Christopher Chandler / Union College

Christopher Chandler est un compositeur, artiste sonore, et cofondateur ainsi que directeur exécutif du [Switch~ Ensemble]. Il est professeur de musique adjoint à l'Union College de Schenectady, NY, où il enseigne la théorie, la composition et la technologie dans la musique. Ses travaux acoustiques et électroacoustiques s'appuient sur des enregistrements de terrain, des objets sonores trouvés et des logiciels génératifs personnalisés. Sa musique a été jouée aux États-Unis, au Canada et en France par des ensembles de premier plan tels que Eighth Blackbird, l'American Wild Ensemble, l'Oberlin Contemporary Music Ensemble, le Cleveland Chamber Symphony et Le Nouvel Ensemble Moderne. Sa musique a reçu une forte reconnaissance et de nombreux prix, dont un BMI Student Composer Award, une commande ASCAP/SEAMUS, deux premiers prix du Austin Peay State University Young Composer's Award, le prix annuel de composition de l'American Modern Ensemble et le prix Nadia Boulanger du American Conservatory de Fontainebleau, en France. Christopher est titulaire d'un doctorat en composition de la Eastman School of Music, d'une maîtrise en composition de la Bowling Green State University et d'un baccalauréat en composition et théorie de l'Université de Richmond.

Le lecteur de fichiers sonores génératifs : Une approche de la musique algorithmique basée sur le corpus

Le Generative Sound File Player est un outil de composition et de performance pour l'organisation algorithmique du son. Construit avec Max et intégrant la bibliothèque Bach et MuBu, le logiciel permet à l'utilisateur de charger, d'analyser et de contrôler paramétriquement la présentation d'un nombre illimité de fichiers sonores. Le nouveau langage de script de Bach (bach evaluation language on lllls), qui permet un contrôle riche et puissant du son grâce à une saisie de texte ou une interface graphique, est au cœur de ce système. Le logiciel se trouve à l'intersection de la musique générative, de la synthèse concaténative et de l'électronique interactive. Pour les ateliers du Forum Ircam 2020, je propose de faire une démonstration de ses fonctionnalités de base, de ses applications créatives et de ses capacités de spatialisation récemment développées.

Simone Conforti / Ircam

Compositeur, réalisateur en informatique musicale, concepteur sonore et développeur de logiciels. Né à Winterthur, il est diplômé en flûte et en musique électronique et enseigne dans le département pédagogique de l'IRCAM à Paris et travaille comme réalisateur en informatique musicale au CIMM de Venise. Spécialisé dans les arts interactifs et multimédia, son travail passe également par une intense activité de conception technologique orientée vers la musique. Dans ce domaine, il a développé de nombreux algorithmes qui vont de la spatialisation du son et de la virtualisation de l'espace au masquage du son et à la musique générative. Co-fondateur et directeur technique de MUSICO, anciennement co-fondateur de MusicFit et de MUSST, il a travaillé pour Architettura Sonora, et comme chercheur pour l'université de Bâle, le centre de recherche MARTLab à Florence, le HEM Genève et le HEMU à Lausanne. Il a été professeur d'électroacoustique aux Conservatoires de Florence et de Cuneo.

Carlos Delgado

La musique de Carlos Delgado a été entendue dans des concerts, des festivals et à la radio, en Angleterre, Finlande, France, Allemagne, Hongrie, Italie, Japon, Roumanie, Espagne et États-Unis. Spécialisé dans la musique de chambre électroacoustique et multimédia, ses œuvres ont été présentées dans des lieux tels que le Merkin Recital Hall à New York, la Rencontre Internationale de Science & Cinema (RISC) à Marseille, France ; et St. Giles Cripplegate/Barbican à Londres. Il a participé à un certain nombre de festivals dont EMUFest et (Rome) ; l'Académie ManiFeste 2015 (IRCAM, Paris), et le Festival de musique électroacoustique de New York de 2018, et s'est produit comme interprète sur ordinateur portable au Symphony Space et au Abrons Art Center (New York) ; le Festival Musica Senza Frontiere, à Pérouse, entre autres. Ses œuvres sont disponibles sur les labels New World Records, Living Artist, Capstone Records, et Sonoton ProViva. Il est également titulaire d'un doctorat en musique composition de l'Université de New York.
Mouvement multidimensionnel : Contrôle gestuel de la spatialisation dans le spectacle vivant
Lev est un logiciel de contrôle gestuel que j'ai développé et qui permet le contrôle spontané du son, de la vidéo et de la spatialisation en direct. Lev prend les données vidéo de la caméra intégrée d'un ordinateur portable et les divise en trois matrices, disposées sous la forme d'une porte ou d'une barrière le long des bords extérieurs de son champ de vision. Chacune de ces matrices définit trois zones de lecture distinctes qu'un interprète en direct utilise pour générer des données qui contrôlent la sortie audio et vidéo de l'instrument. La zone de jeu de la main droite de l'interprète permet de contrôler la hauteur et la durée, tandis que la zone de la main gauche peut être mappée pour contrôler divers paramètres comme l'amplitude, le pitch-bend, le filtrage, la modulation, etc. La troisième matrice, située le long du bord supérieur du champ de vision de la caméra, relie les deux et définit une zone de contrôle pour la spatialisation (panoramique et réverbération).
Les données gestuelles générées par les trois zones de lecture peuvent être mappées simultanément pour contrôler les paramètres de traitement vidéo tels que la chromakeie, la luminosité, le contraste, la saturation, etc. Le résultat est un spectacle multidimensionnel qui amplifie les gestes spontanés d'un interprète en direct en élargissant leur portée dans les domaines du son, de la localisation spatiale, du mouvement et de la vidéo. Le programme a été écrit en Max/MSP, et il porte le nom de Lev Termen, inventeur du Theremin.

Julie Delisle / McGill University

Julie Delisle est stagiaire postdoctorale au Music Perception and Cognition Laboratory (McGill University, Montréal) où elle travaille en collaboration avec Stephen McAdams et Robert Hasegawa dans le cadre du projet ACTOR. D'abord formée comme flûtiste au Conservatoire de musique de Montréal (Prix avec Grande Distinction) et à la Hochschule für Musik Freiburg (Allemagne), elle a ensuite étudié l'informatique, les technologies du son et de la musique ainsi que la musicologie. En 2018, elle a terminé une thèse interdisciplinaire à l'Université de Montréal sur le timbre de la flûte traversière grâce à une bourse du Conseil de recherches en sciences humaines (CRSH) du Canada. Ses travaux portent sur le timbre et l'acoustique des instruments de musique, l'étude des techniques de jeu, sur l'influence des technologies électroacoustiques et numériques sur la composition et l'orchestration ainsi que sur le développement et l’application de méthodologies en lien avec la musicologie numérique.
Sheng : Timbre, technique instrumentale et création
Cette communication présentera les résultats d’une exploration du timbre et des techniques de jeu du sheng, un orgue à bouche chinois. Premièrement, on présentera brièvement l’instrument ainsi que son fonctionnement acoustique. À partir d’un ensemble de sons enregistrés par la musicienne de sheng Li Li-Chin, les propriétés spectrales des sonorités produites par l’instrument seront décrites d’après les résultats d’une investigation effectuée grâce à l’examen de sonagrammes (dans le logiciel Audiosculpt) et par l’extraction de descripteurs acoustiques du timbre avec la Timbre Toolbox, qui permettront de caractériser ces sonorités de manière détaillée et d’en comparer le timbre avec celui d’autres instruments à anche.
Puis, cinq techniques traditionnelles de modulation du son (vibrato abdominal-thoracique, fluttertongue, vibrato de langue ou flower tongue, trémolo par mouvement d’air à l’intérieur de la bouche et inflexions par le souffle) ainsi que quelques techniques étendues seront abordées et décrites, tant du point de vue de l’exécution que du timbre résultant. Une analyse en direct effectuée à l’aide de la librairie zsa.descriptors (conçue par Emmanuel Jourdan et Mikhail Malt) permettra enfin de cerner les caractéristiques des variations timbrales propres à chacune de ces techniques.
À la lumière de ces résultats, on verra comment le suivi en direct de descripteurs acoustiques spectraux peut être utilisé avec le sheng pour contrôler d’autres processus dans le contexte de la musique mixte avec électronique live, notamment pour la détection d’événements, le choix de signaux de modulation et la génération de valeurs aléatoires.
 

Philippe Esling / Ircam

Philippe Esling est titulaire d’un master en acoustique, traitement du signal, et informatique reçu en 2009, ainsi que d’un doctorat en recherche et classification multi-objectives de séries temporelles décroché en 2012. Il devient ensuite bio-informaticien en post-doctorat en métagénomique et surveillance environnementale au département génétique et évolution à l’université de Genève courant 2012. Depuis 2013, il est maître de conférences à l’Ircam Paris 6. Dans ce très court laps de temps il a écrit et co-écrit plus d’une quinzaine de publications parues dans des revues spécialisées renommées telles que ACM Computing Surveys, Publications of the National Academy of Sciences, IEEE TSALP et Nucleic Acids Research. Il a également reçu un prix du Jeune Chercheur en 2011 pour son travail sur la recherche audio ainsi que le prix de thèse du conseil général pour son doctorat en recherche multi-objective de séries temporelles en 2013.
Investi dans la recherche appliquée il a développé le premier logiciel d’orchestration assistée par ordinateur appelé Orchids commercialisé à l’automne 2014 et déjà utilisé par bon nombre de compositeurs. Il supervise actuellement une équipe de sept doctorants, deux stagiaires et un développeur à temps plein. Il est à la tête de la recherche en séries temporelles à l’Ircam, et dirige le partenariat international France-Canada SSHRC ainsi qu’un groupe international sur l’orchestration.

José Miguel Fernandez / Ircam

José Miguel Fernández a étudié la musique et la composition à l'Université du Chili et au LIPM (Laboratoire de recherche et de production musicale) à Buenos Aires, Argentine. Il a ensuite étudié la composition au Conservatoire National Supérieur de Musique et de Danse de Lyon et a suivi le Cursus de Composition à l'Ircam. Il compose des œuvres de musiques instrumentales, électroacoustiques et mixtes. Ses œuvres sont créées en Amériques, Europe, Asie et Océanie. Il s'est également produit dans de nombreux festivals internationals. Il a été sélectionné au concours international de musiques électroacoustiques de Bourges en 2000 et a été lauréat des concours internationaux de composition Grame-EOC de Lyon en 2008 et du Giga Hertz Award du ZKM/EXPERIMENTALSTUDIO en Allemagne en 2010. En 2014 il a été sélectionnée par l'Ircam pour suivre le programme de compositeur en Résidence en Recherche Musicale et Artistique sur l'interaction en musiques mixtes et en 2018 pour une résidence en partenariat avec la Société des Arts Technologiques de Montréal sur l'écriture de l’électronique pour un projet audiovisuel. Il est actuellement au sein du programme de doctorat en musique (recherche en composition) à l'Ircam, organisé en collaboration avec Sorbonne Université. Son projet de recherche se concentre en priorité sur l'écriture pour l'électronique et la recherche de nouveaux outils pour la création de musique mixte et électroacoustique. En parallèle de ses activités de compositeurs, il travaille sur divers projets pédagogiques et de création reliant l’informatique musicale. 
François-Xavier Féron, Cédric Camier, Catherine Guastavino / STMS Lab (CNRS, Ircam, Sorbone Université)
Titulaire d’un master en acoustique musicale et d’un doctorat en musicologie (Sorbonne Université), François-Xavier Féron a été chercheur postdoctoral au sein du Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT, Université McGill, Montréal, 2008-2009) puis au sein de l’Institut de Recherche et Coordination Acoustique/Musique (Ircam, Paris, 2009-2013). En 2013, il intègre le CNRS en tant que chargé de recherche. Il travaille alors au Laboratoire Bordelais de Recherche en Informatique et au Studio de Création et de Recherche en Informatique et Musiques Expérimentales (LaBRI-SCRIME, Université de Bordeaux) avant de rejoindre en 2018, l’équipe Analyse des Pratiques Musicales au sein de l’Ircam (STMS-Ircam, Sorbonne Université). Ses recherches, à la frontière entre l’acoustique musicale et la musicologie, se concentrent sur les pratiques musicales contemporaines aux XX et XXIe siècles (du processus de création au travail d’interprétation en passant par l’analyse des œuvres et des phénomènes perceptifs).
Cédric Camier mène une carrière couplée science et musique. Docteur de l’Ecole Polytechnique en acoustique musicale, Ingénieur-chercheur au centre R&D de Saint-Gobain Recherche, son travail se concentre sur les outils de restitution d’environnements sonores auralisés et spatialisés ainsi que sur les dispositifs de diagnostique acoustique et perceptif. Compositeur diplômé de l’université de Montréal et du CRR de Poitiers, il compose et interprète de la musique acousmatique, mixte ou improvisée, articulées principalement autour de processus de transformation inspirés des sciences ou de synthèse de champs dynamiques. Jean Piché, Denis Gougeon, Philippe Leroux, Annette Van de Gorne ont compté parmi ses professeurs. Ses œuvres ont été jouées dans plusieurs pays et ont notamment reçu le soutien du Conseil des Arts du Canada et du CIRMMT.
Catherine Guastavino est professeure à l’Université McGill et membre du Centre interdisciplinaire de recherche en musique, médias et technologie (CIRMMT). Elle dirige le partenariat de recherche Ville Sonore, qui réunit chercheurs universitaires, professionnels de l’urbanisme et de l’acoustique, artistes et citoyens pour repenser le rôle de sonore dans nos expériences sensibles de la ville. Ses recherches portent sur les ambiances sonores, la perception auditive de l’espace, la spatialisation sonore, les processus cognitifs de catégorisation et la psychologie de la musique.
La centrifugeuse sonore : les effets spatiaux induits par les trajectoires circulaires à grande vitesse
"Si les révolutions du son dans l'espace dépassent un certain seuil de révolutions par seconde, elles deviennent autre chose" explique Karlheinz Stockhausen lors d'une conversation avec Jonathan Cott en 1971. Plus tard, le compositeur portugais Emmanuel Nunes, en étroite collaboration avec l'informaticien Eric Daubresse, expérimente à l'Ircam des sons se déplaçant à des vitesses très élevées et observe de nouveaux effets perceptuels. Ces expérimentations musicales nous ont inspiré à initier une ligne de recherche sur la perception des figures spatiales dès 2009.
Grâce à une série d'expériences scientifiques contrôlées, menées au CIRMMT, nous avons pu documenter les mécanismes perceptifs en jeu pour suivre les sons en mouvement. Nous avons estimé les seuils de détection perceptive pour la réception auditive du mouvement et la perception de la vitesse et étudié l'influence de la réverbération, des techniques de spatialisation et des configurations de haut-parleurs. Tout au long de ce processus, de nouveaux outils basés sur une méthode de spatialisation hybride combinant la propagation numérique et le panoramique d'amplitude basé sur l'angle, ont été développés pour déplacer les sons autour de l'auditeur à très haute vitesse.
A de telles vitesses, la fréquence de rotation est du même ordre de grandeur que les fréquences audibles. De nouveaux effets ont été obtenus en manipulant la position de l'auditeur, la direction de la rotation, la vitesse et la nature du matériau sonore à l'aide de notre "centrifugeuse sonore" sur mesure développée avec Max-MSP. Il s'agit notamment des ambiguïtés spatiales, du décalage Doppler du pitch-shifting et de la modulation d'amplitude induite par la variation apparente de la vitesse, de l'enrichissement du bois, du battement spatial (modulation d'amplitude en fonction de la fréquence de révolution et de la fréquence fondamentale du son) et d'un effet spatial wagon-roue, tous dépendant de la position de l'écoute.
Ces effets ont d'abord été utilisés à des fins créatives dans deux pièces électroacoustiques multicanales du compositeur Cédric Camier créées en 2017 et 2019. Dans cette démonstration, les effets seront présentés de façon paramétrique comme des éléments centraux des études spatiales fondées sur la vitesse.

Sophie Dupuis et Emilie Fortin

Sophie Dupuis est une compositrice du Nouveau-Brunswick qui s'intéresse à la musique interdisciplinaire et à la musique pour petits et grands ensembles. Elle est reconnue pour sa technique impressionnante et son imagination débordante. Elle trouve sa voix dans son enfance passée dans les paysages pittoresques des Maritimes et, inversement, par son attirance pour les sons bruts, électriques et âpres.
Émilie Fortin est une musicienne et une professeure aventureuse qui explore toutes les facettes possibles de la trompette. Interprète polyvalente, elle est pigiste pour plusieurs ensembles et orchestres. Elle a contribué à la création de plus d'une quinzaine d'œuvres sur la scène internationale avec divers compositeurs dans le but d'enrichir le répertoire de son instrument. Elle est également la directrice artistique de Bakarlari, un collectif de solistes. La collaboration entre elles existe afin de repousser les limites du langage musical traditionnel, de créer une expérience de concert immersive.
Known Territories
En octobre 2017, Sophie Dupuis a composé la pièce Known Territories pour trompette, bande et deux danseurs.ses. L'oeuvre faisait référence aux souvenirs et à l'enfance; comment le futur est toujours lié au passé, et comment le présent est toujours chargé de ces deux dimensions. Known Territories fut présentée à Array Music (Toronto), la ville d'études à ce moment de la compositrice.
Après plusieurs discussions, il devenait évident qu'il n'était pas nécessairement facile de faire voyager la pièce dû à l'effectif de base. C'est pour cela que Dupuis/Fortin a décidé d'en faire une version pour trompette solo et bande, mais sans rien enlever de la trame narrative de l'oeuvre de base.
Cette bande est en fait composée d’extraits déclenchés à des moments spécifiques au cours de la pièce, afin de donner à Émilie l’espace pour s’exprimer librement à travers son jeu. Elle intégrera plusieurs éléments venant de la danse, du mime et du théâtre dans sa performance. Cette composition représente les souvenirs de l’enfance de Sophie passée dans un village rural du Nouveau-Brunswick, dans une maison isolée située sur un grand terrain qui semblait devenir féérique au crépuscule, avec ses chants de grenouilles et lucioles scintillantes. La mélancolie ressentie lorsque ces souvenirs lui reviennent, ainsi que le réconfort et l’inconfort à la fois, ont été transmis en musique.
Known Territories sort des sentiers battus de la performance musicale traditionnelle, en demandant à l'interprète de dépasser ses limites physiques, tout en étant supporté.e par l’électronique qui ajoute une autre dimension à l’œuvre.

Raphaël Foulon / Ircam

Raphaël Foulon est artiste vidéo et chercheur. Il conçoit ses propres outils de création visuelle et explore des formes d’expression variées telles que la génération algorithmique, le live-cinema et le larsen multimédia. Sa démarche consiste à explorer les thèmes de la perception de la nature et de l’artifice, la servitude technologique et la transcendance des concepts liés au réel. Ainsi, il privilégie les matières et textures issues du monde vivant, des traditions artistiques ancestrales et examine leur association synergique avec les moyens d’expression modernes.

Matthew D. Gantt / Rensselaer Polytechnic Institute, Harvestworks

Matthew D. Gantt est un artiste, compositeur et enseignant basé à Troy, NY. Sa pratique se concentre sur la (dés)incarnation dans les espaces virtuels, les systèmes procéduraux facilités par la technologie idiosyncrasique, et la nature récursive de la production et de la consommation numériques. Il a présenté ou performé dans une gamme d'espaces institutionnels et populaires, dont le Panoply Performance Laboratory, Harvestworks, New Museum, The Stone, Issue Project Room, et à l'échelle internationale à l'IRCAM (Paris) et à Koma Elektronik (Berlin), entre autres. Il a été artiste en résidence à Pioneer Works, Bard College, et Signal Culture, et est actuellement doctorant à l'Institut Polytechnique de Rensselaer. Gantt distribue sa musique avec Orange Milk et Oxtail Recordings, enseigne la musique expérimentale et les médias dans des contextes académiques et de DIY, et a travaillé comme assistant de studio pour le pionnier de l'électronique Morton Subotnick de 2016 à 2018.

Le son et la virtualité : RV créative, ambisonique et composition élargie

La réalité virtuelle offre au compositeur contemporain un certain nombre de possibilités au-delà de la création de jeux, de simulations ou de la simple musique "audiovisuelle". Cette démonstration présentera de nouvelles approches autour de l'application de techniques communes à la musique générative, au patch de style modulaire et à la composition électronique à des environnements immersifs par le biais de la passerelle OSC d'Unity/VR, Max/MSP, et Spat~/Panoramix de l'Ircam. Des démonstrations pratiques d'œuvres de RV en cours montreront à la fois des méthodologies "conviviales pour le compositeur" pour travailler avec le son spatialisé en temps réel et les médias immersifs, ainsi que de nouveaux cadres conceptuels pour aborder la RV contemporaine comme sculpture cinétique numérique, les médias immersifs comme site et partition simultanés pour la performance et la RV comme instrument sonore et salle de concert.

Nicola Giannini at EMS in Stockholm, August 2017. Image © Emanuele Porcinai

Nicola Giannini / Université de Montréal, CIRMMT

Nicola Giannini est un artiste sonore et un compositeur de musique électroacoustique basé à Montréal, au Canada. Sa pratique est axée sur la musique immersive, tant acousmatique qu'interprétée. Ses œuvres ont été présentées au Canada, aux États-Unis, au Brésil, en Colombie, au Mexique, au Royaume-Uni, en Suède et en Italie. Sa pièce "Eyes Draw Circles of Light" a obtenu le premier prix au concours JTTP 2019 organisé par la Communauté Électroacoustique Canadienne, et une Mention Honorable au XII° Concours de la Fundación Destellos 2019.Sa pièce "Pour Hannah" a été finaliste au concours international Città di Udine. Originaire d'Italie, Nicola est titulaire d'une maîtrise en composition électroacoustique du Conservatoire de Florence. Nicola est étudiant au doctorat à l'Université de Montréal, sous la direction de Robert Normandeau, et est assistante de recherche au sein du Groupe de recherche en immersion spatiale. Nicola est l'un des coordinateurs d'étudiants au CIRMMT pour l'Axe de Recherche sur la pratique musicale étandue. 
Eyes Draws of Light Circles, pièce acousmatique pour dôme de haut-parleurs
Eyes Draw Circles of Light explore des aspects spécifiques de l’inconscient lorsqu’on est sur le point de s’endormir. Au moyen de la spatialisation sonore, la relation entre la psyché et le corps est évoquée. L’accent est sur ces mouvements involontaires rapides, les secousses hypniques, qui marquent ce moment. La pièce est le fruit d’une collaboration avec les artistes Elisabetta Porcinai et Alice Nardi, qui ont écrit un poème pour la pièce, et vise à trouver un équilibre entre élégance et expérimentation, féminité et masculinité. Elisabetta a interprété le texte, que a été élaboré dans le cadre de la composition. L'œuvre a été composée dans les studios de musique immersive de l'Université de Montréal.

Louis Goldford / Columbia University

Louis Goldford est un compositeur de musique acoustique et mixte dont les œuvres sont souvent inspirées par la transcription et la psychanalyse. Il a collaboré avec des ensembles tels que le Talea Ensemble, le JACK Quartet, Yarn/Wire, l'Ensemble Dal Niente, le Meitar Ensemble et Rage Thormbones. Ses projets récents comprennent des créations avec le violoniste Marco Fusi, avec des musiciens de la Cité internationale des arts et du Conservatoire supérieur de Paris. De plus, Louis a complété son Cursus à l'IRCAM en 2019. Ses œuvres ont été présentées dans des festivals de musique à travers l'Europe et l'Amérique du Nord, ainsi que dans des conférences internationales. Louis s'est également produit à Taiwan, en Pologne et aux États-Unis. Il est Dean's Fellow à l'Université Columbia à New York, où il étudie avec Georg Friedrich Haas, Zosha Di Castri, George Lewis, Brad Garton et Fred Lerdahl. Dans des ateliers et des leçons individuelles, Louis a également travaillé avec Brian Ferneyhough, Philippe Leroux, Yan Maresz, Chaya Czernowin et d'autres.
Orchestration, spatialisation et flux de travail assistés dans deux compositions récentes
Dans cette présentation se concentrant sur mes deux derniers travaux de 2019, je discuterai de mon utilisation étendu d'Orchidea, la dernière logiciel d'orchestration assistée de la lignée des outils Orch*, et de la spatialisation à l'aide d'OpenMusic et du package Spat~ de l’Ircam pour le Max.
« Au-dessus du carrelage de givre » pour ténor, électronique et vidéo, créé à la Soirée du Cursus à l'Ircam ManiFeste, le 18 juin 2019 au Centquatre à Paris; ainsi que « Dîtes-moi, comment ai-je empoisonné votre soupe ? » pour 12 musiciens et électronique, créé par l’Ensemble Talea à New York, le 31 mars 2019, au DiMenna Center for Classical Music. Des extraits de partitions, de sons et de vidéos seront présentés, ainsi que des exemples d'outils logiciels utilisés pour générer des passages spécifiques.
Étant donné que ces outils génèrent de nombreux fichiers intermédiaires, y compris les patches de Max et OpenMusic, les analyses et synthèses orchestrales et le travail sur le vidéo, il devient rapidement nécessaire d’organiser son flux de travail en studio de manière délibérée. Je proposerai des solutions pour la coordination et de la synchronisation des fichiers de projet sur de nombreux ordinateurs utilisant l'architecture de version control du type Git, en mettant l'accent sur la manière dont de tels outils peuvent être maîtrisés par les artistes et les créateurs.

Andrea Gozzi / SAGAS - University of Florence

Musicien et musicologue ; diplômé en musique de l'Université de Paris 8 Vincennes-Saint-Denis et membre de l'équipe du Tempo Reale, centre de recherche, de production et de pédagogie musicale de Florence, fondé par Luciano Berio. Doctorant à SAGAS (Université de Florence), Andrea Gozzi est également professeur de Sound Design à l'Académie LABA de Florence et professeur d'Histoire du Rock et de Sound Design à DAMS (Université de Florence). En tant que musicien, il a travaillé avec des artistes italiens et internationaux, aussi bien en live qu'en studio.participant à des événements tels que LIVE 8 à Rome en 2005, il a également joué en France, en Angleterre, en Allemagne et au Canada.il a publié des livres et des essais sur l'histoire du rock et des biographies musicales en Italie et au Canada.
Listen to the theatre! Exploring Florentine performative spaces
Un espace de performance musicale constitue à la fois le cadre et le contenu de l'expérience de l'auditeur. D'autre part, l'environnement acoustique est impliqué dans des négociations continues qui diffèrent selon le rôle et la position de l'auditeur en tant que compositeur, interprète ou membre d'un public dans lequel il forme différemment l'image sonore de l'espace. L'empreinte acoustique d'un environnement musical spécifique ne peut être saisie qu'en tenant compte de ces différences. Les technologies numériques peuvent aider à tracer cette empreinte digitale par rapport au contexte artistique ainsi qu'à l'histoire et à l'identité de l'espace de représentation.
Mes recherches visent à proposer un modèle pour l'étude des environnements acoustiques à partir d'une étude de cas : le Teatro del Maggio Musicale Fiorentino à Florence. A cet égard, je suis actuellement deux voies complémentaires. La première est le développement d'une application qui propose un modèle acoustique interactif : l'utilisateur peut virtuellement explorer l'environnement acoustique du théâtre en choisissant entre la reproduction binaurale de 13 positions d'écoute différentes. La seconde concerne la perception acoustique et visuelle d'une représentation sur scène de la romanza "Una furtiva lagrima" de l'opéra L'elisir d'amore de Gaetano Donizetti. L'utilisateur vivra cette performance à partir de trois positions différentes dans le théâtre - sur scène, dans la fosse d'orchestre et dans les sièges du public - à travers un son tridimensionnel à 360 degrés, des vidéos à 360 degrés et la réalité virtuelle.

Florian Grond et Weslaw Woszcyk / McGill University

Florian Grond est un designer d'interaction qui travaille comme associé de recherche au département d'enregistrement sonore de l'École de musique Schulich de l'Université McGill. Ses recherches interdisciplinaires et ses intérêts en matière de conception se concentrent sur l'utilisation immersive du son. Il a plusieurs années d'expérience dans l'enregistrement sonore avec réseaux de microphones et la reproduction avec installations à haut-parleurs multiples. Il utilise actuellement son expertise en matière de capture et de mixage du son en 3D, en collaboration avec Randolph Jordan, pour le pavillon du Canada à la Biennale d'art de Venise de cette année. Depuis de nombreuses années, il est également actif en tant qu'artiste indépendant dans le domaine des médias, exposant ses œuvres dans le cadre d'expositions individuelles et collectives dans plusieurs lieux en Amérique du Nord, en Europe et en Asie. Ses projets artistiques et de recherche appliquent des pratiques sonores créatives à la conception participative multimodale dans le contexte du handicap, des arts et de la technologie d'assistance. Au cours des dernières années, il a entamé diverses collaborations avec des collègues handicapés de la communauté locale, du monde universitaire et des arts, qui ont débouché sur des résultats de recherche, des créations artistiques et le commissariat d'expositions.

Wieslaw Woszczyk est un chercheur et un éducateur reconnu au niveau international dans le domaine de l'audio. Il possède une expertise de premier plan dans les tendances technologiques émergentes en matière d'audio. Woszczyk est titulaire de la bourse de recherche James McGill et professeur titulaire à l'Université McGill. Il est le directeur fondateur du programme d'études supérieures en enregistrement sonore (1978) et le directeur fondateur du Centre de recherche interdisciplinaire sur les médias et la technologie musicale (CIRMMT), un centre de recherche interuniversitaire, interfacultaire et interdisciplinaire créé à l'Université McGill en 2001. Membre de l'AES depuis 1976, Woszczyk est membre de l'Audio Engineering Society (1996) et ancien président de son conseil technique (1996-2005), administrateur (deux fois, en 1991-1993 et 2008-2010) et président (2006-2007). Il a également fait partie du comité de révision du journal de l'AES. Woszczyk a reçu le prix du conseil d'administration en 1991 et un prix de citation de groupe en 2001 pour avoir été "le pionnier de la technologie permettant des performances multicanaux collaboratives sur l'Internet à haut débit".
Explorer les possibilités de navigation et de présentation des performances musicales avec un système de capture 6DoF
De nos jours, il est possible de capturer plusieurs champs sonores dans un espace de performance musicale en utilisant plusieurs réseaux de microphones synchronisés d'ordre supérieur, séparés dans l'espace. Avec un logiciel de post-traitement pour l'interpolation entre ces points de capture, cette nouvelle technologie est connue sous le nom de 6DoF, car elle offre 3 degrés de liberté translationnelle à travers la scène, en plus des 3 degrés de liberté de rotation déjà existants dans un seul point. Ceci offre de nouvelles possibilités dans l'étape de post-production en ce qui concerne la sélection à partir de la capture et l'équilibrage de la scène acoustique enregistrée. Dans le contexte de la RV, 6DoF offre de nouvelles possibilités pour immerger l'auditeur dans un contenu audio original qui couvre un espace étendu, par exemple des ensembles orchestraux. Cela donne aux auditeurs la possibilité d'explorer l'espace du spectacle avec leurs propres stratégies de navigation à l'aide d'outils interactifs permettant la rotation et la translation. En fonction de la résolution spatiale de la capture du champ sonore, un éventail de possibilités est possible pour l'équilibrage du son, y compris les variations de perspective, la séparation des sources et de l'ambiance, le degré de netteté et la diffusion de l'image dans une présentation 3D. Les auteurs partageront les résultats de l'exploration des captures 6DoF à l'aide de réseaux de microphones Ambisonics de premier et de troisième ordre à plusieurs endroits d'un espace de représentation. Ils discuteront également de divers compromis qui pourraient être envisagés pour améliorer davantage la qualité et la souplesse de la capture de la musique par le biais de champs sonores multiples. Des réflexions seront également prises en compte en ce qui concerne les reproductions dans des formats standard basés sur les canaux pour les projections sonores 2D et 3D.

Rob Hamilton / Rensselaer Polytechnic Institute

Le compositeur et chercheur Rob Hamilton explore les espaces convergents entre le son, la musique et l'interaction. Sa pratique créative comprend des œuvres de performance en réalité virtuelle et mixtes construites dans des environnements de jeu en réseau entièrement rendus, des moteurs musicaux procéduraux et des écosystèmes musicaux mobiles. Ses recherches portent sur les implications cognitives des gestes et des mouvements musicaux sonifiés et sur le rôle de l'espace perçu dans la création et la jouissance du son et de la musique. M. Hamilton a obtenu son doctorat au Centre de recherche informatique en musique et acoustique (CCRMA) de l'Université de Stanford et est actuellement professeur adjoint de musique et de médias au Département des arts de l'Institut polytechnique Rensselaer à Troy, NY.  
Virtual Instrument Design for the 21st Century

 

Lena Heng / McGill University

Lena Heng fait actuellement un doctorat interdisciplinaire dans le laboratoire de perception et de cognition musicales de l'Université McGill au Canada, sous la supervision du professeur Stephen McAdams. Ses recherches portent sur la perception du timbre, l'herméneutique musicale, la représentation cognitive et la perception des émotions en musique. En tant que musicienne, Lena tient particulièrement à intégrer ses intérêts de recherche à l'interprétation, à l'écoute et à la production de sens en musique. Leurs travaux sur cet aspect leur ont valu le prix Research Alive de l'École de musique Schulich de McGill en 2018/19. Avant ses études supérieures, Lena a obtenu un B.Mus (avec distinction) de la Nanyang Academy of Fine Arts et un B.Soc.Sci (avec distinction) en psychologie de la National University of Singapore. En 2016, Lena a reçu la bourse d'études supérieures en arts du CNA, ainsi que la bourse d'excellence pour les étudiants diplômés de l'Université McGill et la bourse d'excellence pour les étudiants de l'Université McGill.
La fonction du timbre dans la perception des intentions affectives. Peut-on l'apprendre ?
Le timbre a été identifié par les spécialistes de la perception musicale comme un élément important dans la communication de l'affect en musique. Bien que sa fonction en tant que support d'informations perceptuellement utiles sur la mécanique des sources sonores ait été établie, les études visant à déterminer si et comment il fonctionne en tant que support d'informations pour communiquer l'affect dans la musique n'en sont encore qu'à leurs débuts. Si le timbre fonctionne comme un vecteur de contenu affectif dans la musique, la façon dont il est utilisé peut s'apprendre différemment selon les différentes traditions musicales. La quantité d'informations que le timbre porte sur les différentes parties d'une phrase peut également varier en fonction du contexte musical.
Pour étudier cette question, trois groupes d'auditeurs ayant une formation musicale différente (musiciens chinois, musiciens occidentaux et non musiciens, n = 30 par groupe) ont été recrutés pour une expérience d'écoute. On leur a présenté a) des phrases et des mesures, et b) des notes individuelles, d'extraits enregistrés interprétés avec diverses intentions affectives par des interprètes d'instruments occidentaux et chinois.
Ces extraits ont été analysés pour déterminer les aspects acoustiques qui sont corrélés avec les caractéristiques du timbre. L'analyse a révélé une utilisation constante des attributs temporels, spectraux et spectrotemporels dans l'évaluation de l'intention affective en musique, ce qui suggère une utilisation ciblée de ces propriétés dans les sons par les auditeurs. La comparaison entre les différentes perceptions des auditeurs entre les notes et les segments plus longs a également révélé des différences de perception selon le contexte musical. La manière dont le timbre est utilisé pour la communication musicale semble donc être impliquée différemment selon les traditions musicales. L'importance des jeux de timbre semble également varier selon les différentes positions d'une phrase musicale.

Jullian Hoff et Charlotte Layec / Université de Montréal 

Jullian Hoff (compositeur) - Mes créations se divisent entre œuvres performatives (musique mixte & audiovisuel générative) et des supports fixes (musique acousmatique & vidéo). Je m'inspire de thèmes tels que l'abstraction lyrique, la place de l'homme face à la technologie, la technoculture et le posthumanisme. Je suis titulaire d'une maîtrise en composition électroacoustique de l'Université de Montréal où j'ai travaillé sur les interactions homme-machine dans les arts numériques.
Charlotte Layec, clarinettiste, a suivi sa formation musicale en France puis à Montréal. Artiste polyvalente, elle évolue autour de différentes esthétiques musicales alliant musique classique et musique contemporaine (trio Émerillon), en passant par la musique électroacoustique et l'improvisation libre (Ensemble ILÉA). Ses qualités d'interprète l'amènent à se produire, entre autres, au sein de l'OSM sous la direction de Kent Nagano en 2016, ainsi qu'avec le NEM dirigé par Lorraine Vaillancourt en 2018.
"Verklärter Rohr", emploi de descripteurs audio en musique mixte
Le projet « Verklärter Rohr » (ou « le tube transfiguré ») est une performance live pour clarinette basse, instruments électroniques et vidéo générative. Cette pièce innovante explore différents espaces de dialogue entre une musicienne (être sensible et spontané) et des opérateurs logiques et mathématiques qui contrôlent les instruments numériques (ensemble de descripteurs audios, d’algorithmes musicaux, de lutherie électroacoustique et d’un programme de vidéo génératif).
« Verklärter Rohr » est un voyage autour d’une clarinette basse, transformée aux moyens de traitements audionumériques qui en proposent de multiples fantasmagories. La musicienne (Charlotte Layec) interagit en temps réel avec le dispositif audio et vidéo pour créer une atmosphère musicale tantôt onirique et vaporeuse, tantôt pointilliste et virtuose.
 

Erica Huynh / McGill University 

Erica Huynh est candidate au doctorat en technologie musicale (interdisciplinaire) à l'École de musique Schulich de l'Université McGill. Sous la supervision de Stephen McAdams au Laboratoire de perception et de cognition musicales, ses recherches portent sur la façon dont les auditeurs identifient les méthodes d'excitation et les structures de résonance lorsqu'elles sont combinées de façon typique (p. ex., corde à archet) ou atypique (p. ex., colonne d'air à archet) des instruments de musique acoustiques. Cette recherche est menée en collaboration avec Joël Bensoam de l'Ircam et Jens Hjortkjær de l'Université technique du Danemark. Erica s'intéresse particulièrement à l'intégration de sujets en psychologie et en musique, ainsi qu'à la pratique de méthodes de conception expérimentale et d'analyse de données. 
Plaques courbées et cordes soufflées : Combinaisons étranges de méthodes d’excitation et de la perception de l’impact des structures
Comment nos modèles mentaux limitent-ils notre perception des sons dans le monde physique ? Nous avons évalué la perception des sons synthétisés par l'une des méthodes les plus convaincantes : la modélisation physique. Nous avons utilisé Modalys, une plateforme de modélisation physique numérique, pour simuler les interactions entre deux classes de propriétés mécaniques des instruments de musique : les méthodes d'excitation et les structures de résonance. La méthode d'excitation met en vibration la structure de résonance, qui agit comme un filtre qui amplifie, supprime et irradie les composantes sonores. Nous avons simulé et couplé trois méthodes d'excitation (archet, soufflage, frappe) et trois structures de résonance (corde, colonne d'air, plaque), formant ainsi neuf interactions excitation-résonateur.
Ces interactions étaient soit typiques des instruments de musique acoustiques (p. ex., cordes à archet), soit atypiques (p. ex., plaque soufflée). Les auditeurs ont évalué la mesure dans laquelle les stimuli ressemblaient à des excitations de type archet, soufflage et frappe (expérience 1), ou la mesure dans laquelle ils ressemblaient à des résonateurs à cordes, à colonne d'air et à plaque (expérience 2). Ils ont attribué les cotes de ressemblance les plus élevées : (1) aux excitations qui ont réellement produit le son et (2) aux résonateurs qui ont réellement produit le son. Ces effets étaient les plus forts pour les stimuli représentant des interactions excitation-résonateur typiques. Cependant, les auditeurs ont confondu différentes excitations ou différents résonateurs les uns pour les autres pour des stimuli représentant des interactions atypiques. Nous examinons comment les données perceptuelles peuvent informer les approches de modélisation physique, étant donné que Modalys transmettait efficacement les excitations et les résonateurs d'interactions typiques mais non atypiques. Nos résultats soulignent que nos modèles mentaux pour la façon dont les instruments de musique sont joués sont très spécifiques et limités à l'exposition antérieure et à la plausibilité mécanique perçue des interactions excitation-résonateur.

Davide Luciani et Jordan Juras

Davide Luciani est un compositeur de musique électronique et un media designer basé à Berlin. Il suit actuellement le M.A. en études sonores et arts sonores à l'UdK - Berlin. Il a dirigé et assuré le commissariat d'une grande variété de projets entre art et design. Ses collaborations ont été accueillies par des institutions et des lieux tels que la Biennale de Venise, Berlin Atonal, le Festival Ström, Bayreuth Festspiele, entre autres. En 2014, avec l'artiste sonore Fabio Perletta, il a co-fondé Mote, un studio de design multidisciplinaire dont la pratique s'adresse aux arts et à la musique.
Jordan Juras est un artiste du son et de l'informatique basé à Berlin. Il est chercheur en informations musicales au Native Instruments. Il a complété un Master en Technologie musicale à NYU et est un ancien élève de McGill (diplomé en 2012 et titulaire d'un B.Sc en Physique et mineure en Philosophie des Sciences). 
Son.AR : Sonder la limite de l’espace
Nous aimerions vous présenter Son.AR, une application expérimentale qui offre un système de navigation AR sonique dans le cadre d'un guide multimédia. L'application prototype a été développée pour la Biennale Screen City 2019 en Norvège. Il visait à contribuer au domaine de l'art public par la médiation des œuvres d'art et de l'expérience visiteurs par l'extension d'un guide d'information conventionnel à une carte audio augmentée à l'échelle de la ville.
La spatialisation binaurale est combinée à la boussole et au suivi de localisation pour permettre aux utilisateurs d'interagir avec leur environnement en se déplaçant vers, autour et loin des emplacements fixes d'objets sonores virtuels. Cette technologie nous permet de créer une superposition sonore augmentée sur la topographie d'une ville, simulant l'espace virtuel dans les écouteurs des utilisateurs. Dans Son.AR, la perception auditive est un élément central de l'expérience utilisateur.
L'application élargit et suggère de nouvelles possibilités pour les médias temporels, la conception publique et sociale et l'expansion des utilisations contemporaines dans les arts, la langue, la culture et le divertissement.
D'un point de vue artistique, cette application donne la possibilité de mener des recherches à la pointe de la technologie musicale : outils de composition dynamique, techniques audio spatiales, et possibilités perceptuelles entre identité sonore, objet et attentes de la représentation virtuelle.
Pour la Biennale Screen City, les auteurs ont utilisé le morphing comme approche de la composition sonore. Les sons naturels ont été transformés en contrepoint synthétique et vice-versa - une bande de Moebius amorphe emblématique de l'équilibre précaire entre environnement et technologie. De nouvelles écologies sonores apparaissent, servant d'outil pour améliorer notre conscience du monde.

Sergio Kafejian / Université de São Paulo

Sergio Kafejian est un compositeur et chercheur brésilien qui a obtenu sa maîtrise à l'Université Brunel (Londres), son doctorat de l'UNESP et a développé une recherche postdoctorale à NYU en 2017. Kafejian a remporté plusieurs prix de composition comme le Concours international de musique électroacoustique de Bourges (1998 et 2008), Concurso Ritmo e Som (1994 et 1998), Gilberto Mendes Contest for Orchestra (2008) et FUNARTE Classical Composition Prize (2008 et 2014). Sa production professionnelle se compose de compositions instrumentales et électroacoustiques ainsi que de projets pédagogiques évoluant dans l'improvisation, la composition et la performance contemporaine. Kafejian, enseigne la composition, la musique électroacoustique et la musique contemporaine au Santa Marcelina College depuis 2001. Il est actuellement chercheur postdoctoral à l'Université de São Paulo (USP) parrainée par la Fondation de recherche de São Paulo (FAPESP). Ses recherches récentes se sont concentrées sur la façon dont l'utilisation de techniques et de sonorités étendues, qu'elles soient acoustiques ou électroniques, a créé de nouveaux paradigmes musicaux.
CTIP II: A practical demonstration of an interactive system
Dans cette démo, nous montrerons le fonctionnement de CTIP II, le deuxième système interactif développé par l'auteur en collaboration avec la clarinettiste et improvisatrice Dra. Esther Lamneck (NYU Steinhardt). Comme le précédent, le système extrait les données relatives au timbre, aux fréquences et aux amplitudes et choisit en conséquence un de ses états interactifs disponibles. Chaque état interactif divise le son entrant en trois couches et l'achemine vers un (ou plusieurs) de ses processeurs de son numérique et tampons d'enregistrement.
A leur tour, les signaux traités peuvent être acheminés vers les processeurs en fonction des informations détectées concernant la dynamique, la densité et le timbre. Par conséquent, les interactions entre le joueur et le système sont le résultat de ce qu'un système offre en termes de réactivité au comportement musical du joueur ainsi que de la façon dont le joueur perçoit et explore les paires actions-réponses. Le processus d'élaboration du CTIP II a été soutenu par les questions suivantes : (1) créer un système pour interagir avec un improvisateur comme le ferait un être humain ; (2) créer un système qui pourrait être géré automatiquement ou par un interprète ; (3) élaborer un système pour être utilisé dans différentes situations musicales. Parmi les projets en cours concernant les systèmes interactifs, CTIP II a été influencé par : (1) William Hsu's ARHS (2010) ; (2) Doug Van Nort's FILTER and GREI (2010) ; Adam Linson's ODESSA system (Linson et alt, 2015). CTIP II est basé sur le logiciel MAX/MSP et utilise les outils de l’Ircam suivants : zsa.descriptors ; mubu.gmm ; zsa.descriptors ; add¬_synth ~.

Hanna Kim / Université de Toronto

Saluée comme " véritablement inspirée " par Ludwig van Toronto pour son travail de composition en collaboration avec la University of Toronto Opera Division en 2018, la compositrice Hanna Kim englobe un large éventail de styles traditionnels, néo-romantiques, minimalistes et d'improvisation pour son travail de composition. Elle a reçu plusieurs prix, dont la bourse commémorative Lothar Klein en composition de 2019, le concours de composition de la cathédrale St. James de 2019, la bourse Miriam Silcox de 2014 et le concours de composition Joseph Dorfman de 2013 (Allemagne). Hanna a remporté de nombreux appels de partitions, et s’est vu demandé la composition de nouvelles œuvres pour des concerts de différents styles. Née en Corée du Sud, elle travaille actuellement sur son doctorat (DMA) à l'Université de Toronto au Canada. En plus de sa passion pour la musique, Kim est également une musicienne d'église active. Elle est actuellement Ministre de la Musique à l'Église baptiste Calvary de Toronto.
Saturation de timbre pour orchestre de chambre
Ma présentation portera sur une nouvelle pièce pour orchestre de chambre que j'ai écrite comme thèse pour mon doctorat à l'Université de Toronto. Cette pièce porte spécifiquement sur l'économie réalisée grâce à l'utilisation efficace des instruments. L'oeuvre s'adresse à un plus petit nombre de musiciens que l'orchestre standard. Habituellement, lorsqu'il s'agit de marquer des progressions d'accords pour un grand orchestre, deux méthodes sont courantes : l'une consiste à doubler et l'autre à harmoniser. Mon projet de composition s’interroge sur si ces pratiques courantes ne causent pas une surcharge sonore. De plus, que se passe-t-il si un compositeur élimine des éléments mélodiques/intervalles qui pourraient être considérés comme du " gaspillage ", comme le doublage ? En cherchant à créer l'orchestration la plus économique, le but de ce projet est de proposer une solution pour optimiser les effets et les couleurs de l'orchestre avec un nombre limité d'instruments. De plus, mon travail de thèse s'appuiera sur le nombre minimum d'instruments pour qu'une pièce de grand ensemble soit aussi efficace qu'un orchestre de taille normale, en mettant l'accent sur l'utilisation des couleurs (timbre). La pièce nécessitera vingt-cinq musiciens : 1ère flûte, 2ème flûte (+ picc), 1ère clarinette en Sib, 2ème clarinette en Sib, 3ème clarinette en Sib (+ cl basse), saxophone ténor, basson, cor, trompette en Do, 1er trombone, 2ème trombone, piano (+ céleste), harpe, 1ère percussion, 2ème percussion, timbales et cordes (2, 2, 2, 2, 1). La pièce comprendra trois mouvements. La durée de l'interprétation sera d'environ quinze minutes.

Mantautas Krukauskas / Lithuanian Academy of Music and Theatre, Music Innovation Studies Centre

Mantautas Krukauskas (né en 1980) - compositeur et artiste sonore, professeur au département de composition de l'Académie lituanienne de musique et de théâtre de Vilnius, où il est également co-fondateur et directeur (depuis 2016) du Centre d'études sur l'innovation musicale, laboratoire académique d'études, d'art et de recherche, avec un accent sur la technologie musicale, l'innovation dans la musique et l'éducation musicale, les arts interactifs, les médias immersifs et l'interdisciplinarité. Ses compositions, y compris la musique de chambre, l'art sonore, la musique pour le théâtre et les productions de danse ont été jouées en Lituanie, en Autriche, en Allemagne, en France, au Canada, aux États-Unis et dans d'autres pays. Son profil professionnel comprend également la performance de musique électronique et le travail dans la sphère des industries créatives avec la production et l'arrangement de musique. Mantautas Krukauskas a été activement impliqué dans divers domaines d'activités, y compris la coordination et la gestion de programmes internationaux artistiques, de recherche et d'éducation. Ses intérêts comprennent l'interdisciplinarité, la créativité, la musique et les technologies des médias, ainsi que la synergie de différentes approches esthétiques et culturelles.
Quelques conceptions pour une utilisation efficace des techniques sonores immersives pour la composition et l'orchestration de la musique
Les technologies sonores immersives et spatiales sont de plus en plus utilisées, en particulier dans la composition de musique électroacoustique. Bien que le son spatial soit largement considéré comme un domaine relativement nouveau, ses racines remontent à des temps beaucoup plus anciens, également dans la musique orchestrale. L'accessibilité de nouveaux outils avec des interfaces intuitives a élargi les possibilités des compositeurs de travailler avec l'analyse et la modélisation de la spatialisation sans une courbe d'apprentissage abrupte et des connaissances spécialisées profondes. Cela nous a permis de déplacer notre attention des défis technologiques vers les défis artistiques. D'un côté, surtout dans le domaine de la musique acousmatique, la majeure partie de la recherche concerne les aspects techniques plutôt que le contenu lui-même ; de l'autre côté, nous avons des enquêtes et des aperçus plus abstraits sur les conceptions de l'espace en musique. Les études qui concernent les techniques de spatialisation, ainsi que l'application des découvertes en audio spatial à la musique acoustique et à l'orchestration sont assez rares. Le savoir-faire existant est principalement détenu par des experts et est partagé de manière essentiellement interpersonnelle.L'auteur de cette présentation travaille activement avec la spatialisation depuis 2013, ce qui a contribué à l'acquisition d'une expertise de diverses techniques d'adaptation et de mélange de matériaux sonores dans l'espace 3D. Le champ de travail comprend également l'exploration de l'espace comme paramètre de composition, le travail avec la musique et le son dans des contextes interdisciplinaires, etc. Cette expérience a conduit à la découverte de certaines tendances et orientations pour une application artistiquement efficace des techniques sonores immersives, tant pour l'audio spatial que pour la composition et l'orchestration traditionnelles.Cette présentation se concentrera sur la définition des contextes artistiques les plus répandus pour l'application spatiale du son et décrira les techniques de spatialisation qui mènent à un impact artistique efficace. L'auteur montrera également quelques modèles et expérimentations de principes architecturaux sonores immersifs pertinents pour la composition et l'orchestration de musique acoustique.

Dongryul Lee / Université de l'Illinois à Urbana-Champaign

La musique de Dongryul Lee est profondément orientée autour des phénomènes acoustiques et de la pratique virtuose de l'interprétation classique. Il cherche à écrire une musique qui crée des expériences auditives profondes avec la dramaturgie et le pathos. Ses compositions ont été interprétées par des ensembles tels que Avanti !, Contemporanea, Jupiter, MIVOS, Callithumpian Consort, GMCL, S.E.M., Conference Ensemble, Paramirabo, et Illinois Modern Ensemble entre autres. Il a obtenu le troisième prix du premier Concours Mondial Bartók (Budapest, 2018) ; le Presser Award pour l'interprétation de Unending Rose avec le Kairos quartett (Berlin, mai 2020) ; le Prix Spécial Piero Pezzé au Concours de Composition Città di Udine (Italie, 2018) ; et le Deuxième Prix au Concours de Composition GMCL (Portugal, 2017). Sa Parastrata a été jouée dans quatre villes d'Europe et d'Amérique du Nord. Lee est diplômé en informatique et en composition de l'Université Yonsei et de l'Eastman School respectivement, et est candidat au doctorat ABD et conférencier à l'Université de l'Illinois à Urbana-Champaign.
Un millier de carillons : Implémentation acoustique de Bell Spectra à l’aide de la méthode des éléments finis et sa réalisation compositionnelle
Je présenterai une implémentation de cloches virtuelles, basée sur la Méthode des Eléments Finis de l'ingénierie physique. La MEF a été largement utilisée en analyse d'ingénierie et en acoustique, en particulier pour la création et l'optimisation de carillons. En commençant par une brève introduction de la musique spectrale inspirée des sons de cloches, je présenterai les bases théoriques de la MEF et son application aux éléments isoparamétriques 2-D, y compris le Principe du Travail Virtuel et les fonctions de forme de la MEF. La création de géométries virtuelles 3D de cloches avec analyse structurelle, et leur processus d'optimisation suivront, avec un fond acoustique sur la campanologie.
Pour mes réalisations informatiques, je suis les recherches révolutionnaires de Schoof et Roozen-Kroon ; leurs recherches ont constitué la base sur laquelle le premier prototype de la troisième cloche principale a été conçu et coulé. Une brève introduction de l'accordage juste et du 72 TET dans le seuil de 5 cents sera analysée, pour la création de profils spectraux de couleurs optimales de la tonalité de la cloche. La présentation sera accompagnée d'exemples originaux de SuperCollider et d'images de géométries de cloches créées en multiphysique COMSOL, pour visualiser et sonifier les caractéristiques des cloches et de leurs sons.

Serge Lemouton / Ircam 

Après des études de violon, de musicologie, d'écriture et de composition, Serge Lemouton se spécialise dans les différents domaines de l'informatique musicale au département Sonvs du Conservatoire national supérieur de musique de Lyon. Depuis 1992, il est réalisateur en informatique musicale à l'Ircam. Il collabore avec les chercheurs au développement d'outils informatiques et participe à la réalisation des projets musicaux de compositeurs parmi lesquels Florence Baschet, Laurent Cuniot, Michael Jarrell, Jacques Lenot, Jean-Luc Hervé, Michaël Levinas, Magnus Lindberg, Tristan Murail, Marco Stroppa, Fréderic Durieux et autres. Il a notamment assuré la réalisation et l’interprétation en temps réel de plusieurs œuvres de Philippe Manoury, dont K…, la frontière, On-Iron, Partita 1 et 2, et l’opéra Quartett de Luca Francesconi.
 

Christophe Lengelé / Université de Montréal

Actuellement étudiant au doctorat en musique - composition et design sonore - à l'Université de Montréal, son champ d'activité et de recherche regroupe le design sonore spatial, la composition et la performance électronique et électroacoustique avec un accent particulier sur le développement d'outils et d'interfaces audio expérimentaux en direct construits à partir de logiciels libres. Après des études en droit et en économie et quelques années de travail comme analyste de marché et de marketing dans des entreprises internationales, il décide de quitter le domaine des affaires en 2006 et retourne aux études pour se former en composition électroacoustique et obtenir une maîtrise en informatique musicale. Il cherche à réunir les sphères de la composition et de l'improvisation et se concentre sur l'interprétation de pièces sonores ouvertes spatio-temporelles variables avec un outil global personnalisé de live, qu'il développe régulièrement dans SuperCollider depuis 2011 afin de jouer le lieu et la musique en même temps.
La création en temps réel de polyrythmies spatialisées dans la musique électroacoustique
Le projet de recherche présenté est axé sur le développement d’un outil de création sonore spatialisée, qui facilitera l’improvisation de musiques électroacoustiques et électroniques sur de multiples haut-parleurs. En particulier, il s’agit d’analyser et composer des polyrythmies spatialisées, combinées à des textures enveloppantes en temps réel.
Actuellement, il est particulièrement difficile de contrôler dynamiquement et simultanément de multiples sons dans l’espace, en raison en partie de la stratification du processus de composition dans plusieurs logiciels et de la complexité à spatialiser individuellement chaque événement sonore. En dotant l’improvisateur d’outils de spatialisation flexibles, celui-ci pourra exploiter les dimensions spatiales tout au long du processus de création, de la composition jusqu’à la performance. L’intégration des autres paramètres sonores, comme le rythme ou le spectre, dans un outil de création global, lui permettra également de créer de nouveaux liens dans la composition de l’espace.
Cette interface novatrice, implémentée durant ma maîtrise sur la plate-forme en source libre SuperCollider, propose une approche comprenant différentes échelles temporelles, où la spatialisation est déterminée autant au niveau local sur des événements individuels que global sur des flux sonores. Des oeuvres ouvertes du point de vue spatial et temporel peuvent ainsi être réalisées à partir de multiples séquences pré-composées, qui sont organisées et modifiées en temps réel. Cet outil de performance spatiale met l’accent sur la construction et la déformation de boucles de paramètres, rythmiques ou spatiales. Il permet, en outre, de questionner le développement spatio-temporel entre les objets sonores eux-mêmes, leurs traitements ou leurs réflexions et ouvre sur des questions plus larges sur les liens qui existent entre l’espace et le temps réel.

Frank Madlener / Ircam

Frank Madlener est pianiste et chef d'orchestre, directeur culturel et artistique ; il a supervisé de nombreux festivals et événements musicaux. Depuis 2006, il dirige l'IRCAM (Institut de Recherche et Coordination Acoustique/Musique), un institut de recherche dynamique et innovant fondé au Centre Pompidou à la fin des années 1970, dont il était auparavant le directeur artistique. En tant que directeur de l'IRCAM, Madlener explore la relation entre l'homme et la machine et la façon dont la technologie affecte le compositeur. Son objectif est de mettre en œuvre la technologie dans des compositions pour des instruments particuliers ainsi que pour l'ensemble de l'orchestre. Il permet à large public d'assister à des pièces musicales novatrices et expérimentales.
Esteban Maestre / McGill University
Esteban Maestre (Barcelone, 1979) est un chercheur en acoustique musicale et en traitement du signal audio, avec une formation en génie électrique (BSc'00, MSc'03) et en informatique (DEA'06, PhD'09). Il a occupé des postes de recherche et/ou d'enseignement à l'Universitat Politecnica de Catalunya, l'Universitat Pompeu Fabra, l'Université de Stanford et l'Université McGill. En étudiant de nouveaux moyens d'interaction avec le son et la musique, il a travaillé sur divers sujets liés à l'analyse/synthèse du son, la modélisation vibro-acoustique, la modélisation physique des instruments de musique, l'analyse de la capture du mouvement des musiciens, le machine learning appliqué au contrôle moteur du rendu sonore et l'audio spatial.
Vers une réplication acoustique virtuelle des violons acoustiques réels
Dans le but de préserver les instruments de musique historiques en tant qu'artefacts acoustiques numériques et interactifs, qui peuvent être joués et entendus en temps réel, nous poursuivons actuellement le développement de nouveaux moyens pour modéliser et recréer virtuellement les caractéristiques du rayonnement sonore des violons acoustiques réels. Nous travaillons en mesurant la directivité d'un violon acoustique et en construisant un modèle de filtre numérique efficace, pouvant être utilisé pour le traitement en temps réel d'une version éclaircie du signal électrique, provenant d'un violon silencieux joué par un musicien. Dans une chambre à faible réflectivité, nous utilisons un réseau de microphones pour caractériser la fonction de transfert de radiations d'un violon acoustique en excitant le chevalet avec un marteau à percussion et en mesurant la pression acoustique à 4320 points sur une sphère entourant l'instrument. Nous concevons ensuite un filtre numérique qui permet d'obtenir le signal correspondant au front d'onde de pression acoustique rayonnée dans n'importe quelle direction, pour de nombreuses directions variant dans le temps simultanément, offrant des possibilités de spatialisation en temps réel et des applications de réalité acoustique virtuelle. Cette présentation donnera un aperçu de nos progrès les plus récents sur ce projet, qui vise à reconstruire virtuellement le son du Stradivari Messiahi.

Emanuelle Majeau-Bettez / McGill University - IRCAM

Emanuelle Majeau-Bettez est doctorante en musicologie et études féministes à l’Université McGill, où elle est supervisée par David Brackett et Lisa Barg. Ses recherches portent sur la phase électronique de la carrière d’Éliane Radigue ainsi que sur les présentes collaborations de la compositrice avec les instrumentistes. Entre autres publications, Emanuelle est l’autrice du « parcours d’œuvre » d’Éliane Radigue, publié sur la base de documentation B.R.A.H.M.S. de l’Ircam. Emanuelle est membre du comité de rédaction de la revue Circuit, musiques contemporaines et, depuis l’automne 2019, elle travaille au sein de l’équipe de recherche du projet MICA (Musical Improvisation and Collective Action) à l’Ircam. En dehors de ses études académiques, Emanuelle est professeure de piano à l’École de musique de Verdun, au Camp musical Père Lindsay, et elle est passionnée de surf.
Oozing out of the walls : l’espace immersif selon Eliane Radigue
Lors de la diffusion de Psi 847 (1973), œuvre composée par Éliane Radigue avec le synthétiseur ARP 2500, le compositeur et critique Tom Johnson note avoir entendu certains motifs émaner de coins incongrus. À partir de notes tenues, des battements sortaient des haut-parleurs, certes, mais également du mur latéral, ou encore d’un point précis, près du plafond. Bien qu’un tel phénomène de spatialisation ne soit pas exclusif à Radigue, cette présentation soutiendra que l’approche de la compositrice a la qualité propre d’attirer l’attention vers ces jeux acoustiques qui, dans bien d’autres musiques, passent totalement inaperçus. Au risque de choquer certains ingénieurs de son en plaçant ses haut-parleurs de manière « tout à fait anti-acoustique », il a toujours été primordial pour Radigue faire sonner le lieu : une attention à la réponse acoustique d’un espace, de manière à ce que le son ne puisse être retracé à une source en particulier et qu’il construise, ainsi, partout une histoire intéressante. Radigue est donc une « architecte auditive » tel que défini par Berry Blesser : à l’antipode des techniques d’ingénierie du son qui, transformant un lieu, créent des zones d’écoutes dirigées et optimales, Radigue se « concentre sur la manière dont les auditeurs expérimentent l’espace ».

Lara Morciano / EA 7410 (SACRe) Paris Sciences et Lettres Research University - Conservatoire L. Cherubini de Florence 

Après ses études musicaux en Italie (diplômes de Composition; Piano; Musique Chorale et Direction de Chœur; Piano, analyse et réduction de la partition) et un Master en composition avec Franco Donatoni à l’Académie Nationale de Sainte Cécile, Lara Morciano développe ses activités artistiques et de recherche en France, notamment à l’Ircam, à l’université Paris 8 (Master d’Arts) et à PSL Research University (PhD SACRe, en partenariat avec CNSMDP, ENS et Ircam). Ses compositions sont jouées régulièrement dans le plus prestigieux festivals et institutions (Philarmonie de Paris, Ircam-Centre Pompidou, Festival Présences, Création Mondiale - Radio France, La Biennale de Venise, ZKM à Karlsruhe, New York City Electroacoustic Music Festival, Onassis Foundation à Athènes, Musica à Strasbourg, Opéra de Dijon, International Gaudeamus Music Week à Amsterdam, Warsaw Autumn Festival à Varsovie, International Festival of Exploratory Music en Australie, Contrechamps à Géneve, etc....). Elle a reçu des commandes d’œuvres, notamment du Ministère de la Culture Français, de l’Ircam-Centre Pompidou, de l’Ensemble intercontemporain, de Radio France, de La Biennale de Venise, du ZKM de Karlsruhe, du GRAME / Auditorium Orchestre de Lyon, du Festival Musica de Strasbourg, Festival Traiettorie, Nuova Consonanza.... Lauréate de la sélection Tremplin 2008 de l’Ensemble intercontemporain et de l’Ircam, elle est lauréate en 2012 du concours international de composition Prix Giga-Hertz en Allemagne et elle a remporté en 2019 le I à l’International Computer Music Conference (ICMC) à New York.
Entre réel et virtuel: captation gestuelle, transducteurs, lieu d’écoute

Stephen McAdams, Meghan Goodchild, Beatrice Lopez et Kit Soden / McGill University

Stephen McAdams a étudié la composition et la théorie musicale au De Anza College en Californie avant de se tourner vers la psychologie perceptuelle à McGill (BSc, 1977). Il a ensuite étudié la psychoacoustique et les neurosciences auditives à l'université de Northwestern (1977-1979), puis a obtenu un doctorat en sciences de l'audition et de la parole à l'université de Stanford (1984). En 1986, il a fondé l'équipe Perception et Cognition de la Musique à l'IRCAM-Centre Pompidou à Paris et y a organisé la première conférence sur la Musique et les Sciences Cognitives en 1988. Il a été chercheur au CNRS français (1989-2004), puis est retourné à McGill pour diriger le Centre interdisciplinaire de recherche sur les médias et les technologies musicales (CIRMMT, 2004-2009). Il est titulaire de la Chaire de recherche du Canada en perception et cognition musicales. Il s'intéresse actuellement à la perception du timbre musical appliquée à une base psychologique pour une théorie de l'orchestration musicale.
Meghan Goodchild est bibliothécaire des systèmes de gestion des données de recherche à l'Université Queen's et du portail des chercheurs du Conseil des bibliothèques universitaires de l'Ontario (OCUL). Dans son rôle, elle développe l'infrastructure des données de recherche localement à Queen's et collabore à des initiatives qui soutiennent l'OCUL, telles que l'assistance aux utilisateurs et la gestion des projets de développement de la plateforme Dataverse du Scholars Portal. Elle possède une expertise dans les projets de recherche interdisciplinaires, la visualisation des données, la préservation numérique et les dépôts de données. Meghan a précédemment travaillé comme boursière postdoctorale et chef de projet pour le projet Orchestration and Perception Project de l'Université McGill, dirigé par Stephen McAdams. Elle est titulaire d'une maîtrise en études de l'information (MISt) et d'un doctorat en théorie de la musique de l'Université McGill.
Pendant ses dernières années de licence en mathématiques à l'Université McGill, Alistair Russell a conçu et construit l'application web OrchARD en utilisant le framework web Django et a intégré l'application avec le constructeur de requêtes jQuery pour faciliter les requêtes complexes de la vaste base de connaissances OrchARD. Il a travaillé au Music Perception and Cognition Lab entre les années 2014 et 2017 sous la direction et la supervision de Meghan Goodchild et Stephen McAdams. Depuis, Alistair a travaillé comme coordinateur de production pour une équipe de soutien en génie logiciel chez Industrial Light and Magic à Vancouver, en Colombie-Britannique. Il a travaillé dans le secteur des effets visuels au cours des trois dernières années, commençant sa carrière en tant que spécialiste technique avant d'amorcer la transition vers un poste de direction.
Beatrice Lopez est titulaire d'une licence en informatique de l'Université McGill. Elle a travaillé comme développeur de la base de données web OrchARD, en s'appuyant sur le travail du développeur précédent Alistair Russell. Elle s'intéresse à tout ce qui touche au développement du web et des logiciels et a également sauté dans le train de l'intelligence artificielle amateur et de l'apprentissage machine. Elle rêve de construire des choses qui peuvent avoir un impact sur ce monde d'une manière belle et positive. Elle aime le café, la couleur bleue, les codes, la lumière naturelle et le grand air.
Kit Soden est un compositeur, chercheur et professeur de musique basé à Montréal, QC, Canada. Il poursuit actuellement un doctorat en composition à l'Université McGill, étudie avec John Rea et Stephen McAdams, et travaille comme assistant de recherche pour le projet "Analyse, création et enseignement de l'orchestration" (ACTOR). En tant que compositeur, Kit est inspiré par l'interaction et la relation entre le timbre et la narrativité en musique, et en particulier par l'utilisation de l'orchestration pour améliorer la dramaturgie expressive d'une composition. Travaillant actuellement sur deux projets d'opéra, Kit compose également des œuvres pour instruments solistes, électronique et ensemble en direct, divers ensembles de chambre et grand orchestre à vent.
The Orchestration Analysis and Research Database (Orchard)
Afin de fournir un outil de recherche sur le rôle des effets de groupement auditif dans la pratique d'orchestration et sur le rôle du timbre en tant que force structurante de la musique, une base de données en ligne unique en son genre a été créée et une taxinomie et une méthodologie d'analyse ont été établies. La taxonomie comprend des processus de groupement de trois types : simultané, séquentiel et segmental. Ceux-ci jouent un rôle dans les mélanges sonores qui donnent naissance à de nouveaux timbres par la fusion perceptive, la séparation des voix sur la base du timbre, l’intégration de multiples lignes instrumentales dans des textures de surface, la formation de couches de proéminence variable sur la base de l'instrumentation et le registre, et l'orchestration progressive dans les gestes à plus grande échelle. La taxinomie a servi à la création du modèle de données pour la base de données. Des partitions de 85 mouvements orchestraux allant de Haydn à Vaughan Williams ont été analysées, tout en écoutant des enregistrements commerciaux, par des experts en équipes de deux qui analysaient les partitions individuellement, puis confrontaient leurs résultats avant de les entrer dans la base de données. L'utilisateur peut construire des requêtes hiérarchiques à différents niveaux de la taxinomie, plus le compositeur, la pièce, le mouvement et l'instrumentation. Les résultats des requêtes affichent la partition annotée sur la page appropriée et fournissent un extrait sonore des mesures correspondantes de l'enregistrement commercial utilisé dans l'analyse. La base de données s'est avérée utile pour explorer la diversité de chaque effet orchestral et pourrait être utilisée pour la fouille de données et l'apprentissage par machine pour la découverte de connaissances.

 

Landon Morrison / Harvard University

Landon Morrison est membre du Collège de l'Université Harvard, où il a récemment commencé à enseigner après avoir complété son doctorat en théorie musicale à l'École de musique Schulich de l'Université McGill à Montréal. Sa thèse, intitulée " Sons, signaux, signes : Les courants transducteurs dans la post-Spectral Music à l'Ircam ", examine la relation entre la composition contemporaine de l'évolution technologique et de la psychoacoustique dans le contexte de la musique créée à l'Institut de Recherche et Coordination Acoustique/Musique (Ircam). En général, ses recherches visent à faire de la théorie de la musique et des études des médias une dialogue qui suit le flux transductif des sons dans les nouveaux environnements médiatiques. Les récentes publications et celles à venir comprennent des articles analytiques dans Circuit : musiques contemporaine, Nuove Musiche et Music Theory Online, ainsi qu'un chapitre sur l'histoire de la quantification du rythme qui sera publiée dans l'Oxford Handbook of Time in Music.
Orchestration assistée par ordinateur, théorie des formats et constructions du timbre
Dans un article de Jonathan Harvey's Speakings (2008), Gilbert Nouno et al. documentent les résultats d'un projet collaboratif de l'Ircam mené par " l'objectif artistique de faire parler un orchestre à travers des processus informatiques musicaux" (2009). La musique qui s'ensuit met en scène cet objectif, dépeignant un programme audible où l'orchestre progresse à travers les étapes du "babillage" de bébé, du "bavardage" des adultes et, finalement, du "langage rituel" sous la forme d'un mantra tibétain. Retournant ce récit, mon article prend Speakings comme point de départ pour une analyse généalogique des techniques d'orchestration assistée par ordinateur, montrant comment, pour faire parler un orchestre, il fallait d'abord faire écouter un logiciel.
Par un examen attentif des documents d'archives et des "e-sketches", je suis la transition de Harvey d'une configuration logicielle hybride (Melodyne et un programme de suivi partiel personnalisé) vers la nouvelle application Orchidée (Carpentier et Bresson 2010), qui utilise notamment des méthodes de recherche d'information musicale (MIR). J'encadre ce changement par rapport à la théorie du format (Sterne 2012), en montrant comment les catégories utilisées pour coder les fichiers sonores avec des descripteurs audio des attributs timbraux de bas niveau (spectral, temporel et perceptuel) dépendent elles-mêmes d'un certain nombre de facteurs, notamment : a) des couches sédimentaires de recherche en psychoacoustique fondées sur les mesures de similitude des timbres (Wessel 1979) ; b) une délégation de ces connaissances aux outils logiciels de l'Ircam, que l'on retrouve déjà avec l'application de l'algorithme de Terhardt dans le programme IANA (Terhardt 1982) ; et c) le réseau élargi des négociations institutionnelles entourant la création de formats de fichiers normalisés comme le protocole MPEG-7 (Peeters 2004).

Zvonimir Nagy / Texas A&M University

Zvony Nagy est compositeur et professeur de musique à Texas, où il excerce à la faculté de musique de la Tarleton State University (Texas A&M). Il est titulaire d'un doctorat de Musique en Composition de la Nortwestern University. Nagy compose de la miusique acoustique, chorale, electroacoustique et multimedia. Ses compositions s'inspirent des sciences cognitives et informatiques, spécialement sur la relation entre musique et incarnation. Ses compositions font également appel à des processus assistés par ordinateur pour la composition, la notation et l'analyse de la musique, ainsi qu'à des systèmes autoréférentiels et dynamiques, de même qu'à des approches plus intuitives des techniques et des processus de composition. La musique de Nagy est publiée sur PARMA Recordings, Albany Records, et MSR Classics ; une sélection de ses compositions est publiée par Aldebaran Editions et Musik Fabrik. Son livre Embodiment of Musical Creativity : The Cognitive and Performative Causality of Musical Composition (Routledge, 2017) offre un regard novateur sur l'interdisciplinarité de la création dans la composition musicale.
Code as Music, Music as Code : Une introduction à l'encodage musical des compositions avec la programmation orientée objet
La composition assistée par ordinateur est considérée à la fois comme un outil de création, de modification, d'analyse ou d'optimisation du processus de composition et comme un moyen de générer automatiquement de la musique créée par un ordinateur.
La vision de cette approche de la créativité compositionnelle a été divisée, certains compositeurs travaillant vers une application plus intégrée, offrant des moyens d’encodage méthodologique qui fusionnerait la conceptualisation du codage musicale avec la contextualisation de la musique codée, tout en permettant au compositeur de continuer à jouer un rôle actif dans cet espace de création.
Dans cette présentation, l’auteur présente une approche qui vise à fournir une idée plus unifiée du codage de la musique, en combinant processus de génération et récupération d’information musicale symbolique, avec une représentation numérique de la structure musicale. Le premier est obtenu par le codage conceptuel de structures de données, à l’aide d’Abjad, une interface de programmation d’application, Python. Cette dernière permet aux compositeurs de coder des représentations musicales et des niveaux de structure musicale de façon incrémentale (par exemple, par l’assemblage de blocs de base d’objets musicaux : notes, accords, rythmes, mètres, ainsi que dynamique, articulations, etc.). Cette dernière est réalisée sous la forme d’une partition de composition utilisant Lilypond, un programme informatique de gravure musicale écrit en C++ intégré au progiciel Abjad, qui permet aux compositeurs d’avoir un contrôle direct sur la notation et la gravure des objets notables.
Cette approche modulaire de l’encodage d’une composition musicale consiste d’abord à sélectionner les structures de données Python, puis à organiser ces attributs conceptualisés en fonctions et classes, dans l’environnement de programmation orienté du package Abjad. Le résultat donne une partition musicale entièrement gravée qui représente les structures de données symboliques codées de la musique, une représentation contextualisée de la composition sous la forme d’une partition musicale. En retour, la sortie du package Abjad se présente sous la forme d’une partition LilyPond encodée, faisant d’Abjad un moyen programmé de générer des fichiers LilyPond. Le processus permet non seulement une encapsulation plus interactive du processus créatif dans l’environnement de composition algorithmique, mais il tient également compte de la formation des héritages compositionnels de la programmation orientée objet.

Ben Neill / Ramapo College of New Jersey

Ben Neill est compositeur/interprète et créateur de la Mutantrumpet, un instrument hybride électro-acoustique. La Mutantrumpet a été développée à l'origine avec Robert Moog et ensuite au STEIM à Amsterdam. Neill a sorti onze albums sur des labels tels que Universal/Verve, Thirsty Ear, Astralwerks et Six Degrees. Il a joué au Big Ears Festival, au BAM Next Wave Festival, au Lincoln Center, au Whitney Museum, au Getty Museum, au Moogfest, au Festival de Spoleto, à Umbria Jazz, à Bang On A Can, à l'ICA de Londres, au Vienna Jazz Festival, au Bing Concert Hall de Stanford et au Festival d'Édimbourg. Neill a travaillé en étroite collaboration avec de nombreux musiciens et artistes innovants, dont La Monte Young, John Cage, John Cale, Pauline Oliveros, Petr Kotik, Rhys Chatham, DJ Spooky, David Berhman, Mimi Goese, Nicolas Collins et David Wojnarowicz. Il est actuellement artiste en résidence dans le cadre du programme d'expérimentation en art et technologie de Nokia Bell Labs, et professeur de musique au Ramapo College of New Jersey.
Fantini Futuro 
Fantini Futuro est une nouvelle œuvre de performance audiovisuelle pour Mutantrumpet V4 de Ben Neill, contre-ténor, claviers baroques et projections vidéo interactives. Il est en cours de création pour l'antichambre 64 canaux de Nokia Bell Labs où Neill est artiste en résidence dans le programme Experiments in Art and Technology.
La pièce est basée sur la musique et la vie du trompettiste/compositeur baroque Girolamo Fantini, qui a amené la trompette de la chasse et du champ de bataille à l'intérieur du royaume de la musique artistique. Fantini était une célébrité musicale de son temps, et a écrit l'une des premières collections de musique écrite pour trompette seule ainsi qu'avec des claviers. Il a également été le pionnier de l'utilisation des muets pour élargir la gamme dynamique de l'instrument pour une utilisation en intérieur, ainsi que de nombreuses autres techniques de jeu. Fantini Futuro remixe et collage le matériel de Fantini, aussi bien en composition qu'en temps réel pendant l'exécution par le biais de l'échantillonnage live. L'œuvre établit des liens entre l'énergie dynamique des premiers vocabulaires musicaux et architecturaux baroques et les modèles et processus minimalistes, en réfléchissant sur les pratiques d'interprétation musicale improvisée de l'époque de Fantini à travers une variété de technologies interactives.
La composante visuelle est principalement composée d'images architecturales provenant de lieux où Fantini a vécu et joué. L'imagerie architecturale animée est contrôlée en direct de la Mutantrumpet de Neill et crée la sensation que les interprètes se trouvent dans des mondes virtuels créés à partir de ces éléments historiques.

Jason Noble / McGill University

Les compositions de Jason Noble ont été décrites comme des " réalisations remarquables " et une " peinture sonore formidable ", avec des performances à travers le Canada et aux États-Unis, en Argentine, au Mexique, en France, en Belgique, aux Pays-Bas, en Allemagne, au Danemark et en Italie, et de nombreuses publications, enregistrements et émissions. John's, le Festival de musique de chambre de Bathurst, le Edge Island Festival for Choirs and Composers, la Newfoundland and Labrador Registered Music Teachers' Association et l'Orchestre symphonique de Sudbury. Également chercheur accompli, Jason est actuellement chercheur postdoctoral à l'Université McGill, où il travaille sur le projet ACTOR (Analysis, Creation, and Teaching of Orchestration). Son doctorat à McGill a été financé par la prestigieuse bourse Vanier (CRSH). Ses recherches sont publiées dans Music Perception and Music Theory Online, avec des publications à venir dans Organised Sound et la série Routledge Companion. Il a fait des présentations lors de nombreux congrès nationaux et internationaux et a été invité à donner des conférences.
Etude de cas sur les défis et avantages perceptifs de l'orchestration homogène : fantaisie harmonique (2019) pour deux orchestres de guitares
L’orchestration est définie par Stephen McAdams comme "le choix, la combinaison ou la juxtaposition de sons pour atteindre un but musical". Ceci évoque typiquement une palette de sons hétérogènes, en particulier ceux des instruments de l'orchestre symphonique, mais la définition de McAdams s'applique également aux palettes sonores homogènes rencontrées dans des ensembles de composition uniforme, tels que l'orchestre de guitare. Étant donné que les effets orchestraux fondés sur la différence de perception - comme la stratification et la segmentation - reposent souvent sur l'hétérogénéité timbrale, l'orchestration d'ensembles homogènes présente un ensemble différent de défis lorsque de tels effets sont souhaitables. D'autre part, comme les effets orchestraux fondés sur la similitude perceptuelle - comme le mélange et l'intégration des textures - sont facilités par l'homogénéité timbrale, l'orchestration d'ensembles homogènes peut présenter de nombreux avantages.
Dans cette présentation, je parlerai de ma composition “fantaisie harmonique” (2019), pour deux orchestres de guitare (un de guitares classiques et un autre de guitares électriques). Plusieurs dispositifs musicaux sont exploités, ce qui seraient difficiles voir impossibles à réaliser avec la même efficacité dans un ensemble plus hétérogène, y compris : (1) un système d'accordage élaboré combinant des éléments de tempérament égal et d'intonation juste, dans lequel chaque orchestre est divisé en six groupes d'accordage différents, (2) une vaste section de hocketing, (3) des sonorités de masse exploitant une variété de principes perceptifs. La pièce a été conçue en gardant à l’esprit le déploiement spatial des groupes instrumentaux, et un prochain enregistrement de la pièce utilisera la spatialisation comme repère perceptuel pour distinguer les groupes, remplissant un des rôles traditionnels de l'hétérogénéité timbrale dans les approches plus orthodoxes de l'orchestration.

James O'Callaghan

James O'Callaghan est un compositeur et artiste sonore basé à Montréal. Sa musique a été décrite comme "très personnelle... avec sa propre couleur ancrée dans l'imprévisible." (Goethe-Institut) Son travail s'étend de la chambre à l'orchestre, en passant par les idiomes électroniques et acousmatiques en direct, les installations audio et les performances spécifiques à un lieu. Il utilise souvent des enregistrements sur le terrain, des objets trouvés amplifiés, la transcription assistée par ordinateur de sons environnementaux et des conditions de performance uniques. Sa musique a reçu plus de trente prix et nominations, dont le Prix Salvatore Martirano (2016), le Prix du jeune compositeur de la SIMC (2017) et le Prix Jan V. Matejcek (2018), et des nominations pour un Prix JUNO (2014) et le Prix Gaudeamus (2016). Actif comme organisateur artistique, il a cofondé et codirigé le Laboratoire de musique contemporaine de Montréal. Originaire de Vancouver, il a obtenu un baccalauréat en beaux-arts à l'Université Simon Fraser en 2011, et une maîtrise en musique de l'Université McGill en 2014.
Alone and unalone : préoccupations conceptuelles dans la diffusion simultanée des écouteurs et des haut-parleurs
Deux de mes œuvres récentes, «Alone and unalone» pour sextuor et électronique, et «With and without walls» (acousmatique), utilistent une diffusion simultanée aux haut-parleurs et intra-auriculaire avec écouteurs fournis au public. Les œuvres examinent la relation entre les expériences individuelles et collectives. Lorsque nous écoutons la musique ensemble, comme dans un concert, nous partageons une réalité commune, mais simultanément, nous avons des expériences individuelles et impartageables dans nos propres têtes. Affrontement du «problème des autres esprits» en philosophie, l’affect des pièces cherche à osciller entre le solipsisme et le genre de construction de l’empathie qui se produit par l’art.
Cette conférence est conçue pour accompagner la performance de «Alone and unalone» par Ensemble Paramirabo le 3 avril 2020 dans le cadre du symposium. J'y discutera la configuration technique du système de diffusion aux écouteurs que j'ai conçu, ainsi que les stratégies de composition pour la combinaison et le mouvement du son entre la spatialisation intra-auriculaire et celle des haut-parleurs. Le système offre des possibilités immersives uniques de l’imagerie spatiale: je vais illustrer quelques possibilités avec des exemples tirés de l’œuvre et discuter le processus de composition, ainsi que des motivations conceptuelles et artistiques qui sous-tendent ces stratégies.

Ofer Pelz et Matan Gover / CIRMMT

Ofer Pelz est né à Haifa (Israël) et vit à Montréal. 
Compositeur, il a remporté de nombreux prix nationaux et internationaux, tels que la bourse Ernst Von Siemens et le prix ACUM. Sa musique est jouée aussi bien en France qu'en Italie, en Allemagne, en Corée du Sud, aux Pays-Bas ou en Israël, à La Biennale di Venezia, à MATA Festival, à Manifeste\Ircam, au Zeitkunst Festival Radialsystem à Berlin, au Centre Pompidou, au festival Nuova Consonanza à Rome, par les ensembles Meitar, Cairn, Geneva Camerata, les Israel Contemporary Players, le Quatuor Ardeo, le Nouvel Ensemble Moderne, et le neue Vocalsolisten de Stuttgart. Il a travaillé par ailleurs avec de nombreux chorégraphes, notamment avec François Raffinot. Pelz est un improvisateur, notamment en piano préparé et électronique, et a cofondé l’Ensemble Whim avec Preston Beebe. 
Il a effectué ses études supérieures à l'Académie de Musique et de Danse de Jérusalem. Il a perfectionné ses études de composition électroacoustique au Conservatoire de Blanc-Mesnil avec Thierry Blondeau et Gilles Racot, ainsi qu'au Conservatoire de Paris. Il a terminé son doctorat en musique à l'Université de Montréal avec Ana Sokolovic et Caroline Traube.
Matan Gover est un musicien multidisciplinaire et développeur de logiciels. Dans le département de Technologie Musicale de l’Université McGill, il combine actuellement ses deux passions où, supervisé par le professeur Philippe Depalle, il étudie le traitement informatique de la musique vocale. Matan a remporté la bourse de l’America-Israel Cultural Foundation avec une performance au piano et a terminé son B.Mus. en direction d'orchestre, summa cum laude, à Jérusalem. Matan est un chanteur professionnel de chorale et a écrit des orchestrations et des arrangements pour des ensembles tels que le Jerusalem Symphony Orchestra et le Jerusalem Academy Chamber Choir. Depuis l'âge de 15 ans, Matan est aussi un développeur de logiciels. Il travaille ces jours-ci chez LANDR Audio Inc. sur un moteur de traitement de musique alimenté par I.A., qui exécute un matriçage automatisé de la musique.
Sound Tracks: An interactive video game composition
Dans cette démo, nous présenterons et interrogerons notre pièce intitulée Sound Tracks, écrite à l'origine pour un concert live@CIRMMMT et interprétée par l'Ensemble Aka. Sound Tracks se situe sur le continuum entre un jeu vidéo et une composition musicale. L'interface utilisateur graphique du jeu se compose d'un ensemble de " pistes ", une piste par musicien. Chaque piste contient des symboles graphiques en mouvement qui représentent des gestes musicaux, et ces symboles approchent les spectateurs de l'horizon. Lorsque les symboles graphiques arrivent aux musiciens, ils doivent jouer le geste musical correspondant. Cette interface s'inspire d'un jeu vidéo bien connu appelé Guitar Hero.
Dans notre démo, nous ferons la démonstration d'une interprétation ou d'un enregistrement de cette œuvre, tout en discutant des idées qui sous-tendent sa création et des questions qui ont surgi lors de son exécution avec plusieurs ensembles. Les thèmes suivants seront abordés :
- Composition gamifiée : En quoi le fait de remplacer la notation musicale traditionnelle et le développement musical par une interface basée sur le jeu affecte-t-il l'état d'esprit des musiciens et de l'auditoire pendant un concert ?
- Improvisation contre prédétermination : Comment les musiciens improvisent-ils dans un cadre musical donné ? Quelle quantité d'information devrait être dictée par une note, par opposition à une marge d'interprétation ?
- Timbre et orchestration : Comment un petit ensemble de gestes musicaux répartis sur plusieurs instruments se combine-t-il en timbres et textures complexes ? Comment différents instruments interprètent-ils les mêmes idées musicales ?
- La technologie derrière cette pièce de jeu - la mise en œuvre et le contrôle de l'application pour la performance.

Laurie Radford / University of Calgary

Laurie Radford est un compositeur, un artiste du son, un technologue de la musique, professeur et chercheur canadien qui crée de la musique pour diverses combinaisons d'instruments et de voix, de médias électroacoustiques et d'interprètes en interaction avec le traitement des signaux de son et d'image contrôlé par ordinateur. Sa musique fusionne les caractéristiques timbrales et spatiales des instruments et des voix avec le son et l'image transmis par ordinateur dans un art sonore rythmiquement viscéral, formellement expérimental et musicalement engageant. Sa musique a été largement interprétée et il a reçu des commandes et des prestations d'ensembles pour l'Aventa Ensemble, Esprit Orchestra, New Music Concerts, Le Nouvel Ensemble Modern, l'Ensemble contemporain de Montréal, Meitar Ensemble, Paramirabo, Thin Edge New Music Collective, le Trio Fibonacci, les quatuors à cordes Penderecki, Bozzini et Molinari, et les orchestres symphoniques de Winnipeg, Calgary, Edmonton et Montréal. Radford a enseigné la composition, la musique électroacoustique et la technologie musicale à McGill University, à Concordia University, à la Bishop’s University, à University of Alberta, à la City University (Londres, R.-U.), et il est actuellement professeur d'arts sonores et de composition à l’University of Calgary.

Se mettre en place/espace : La Pédagogie de l'Audio Spatiale

L'acquisition humaine de compétences et de connaissances sur les espaces qu'ils habitent est liée à notre développement de compétences proprioceptives dès les premiers instants de la négociation physique et psychologique avec le monde qui nous entoure. L'acquisition de "l'intelligence spatiale" s'étend au développement de compétences, dans la compréhension des espaces acoustiques à travers lesquels nous nous déplaçons, en mesurant, comparant et mémorisant inconsciemment et consciemment les signaux et les sources sonores qui peuplent ces espaces et en construisant une bibliothèque d'espaces sonores auxquels nous retournons et auxquels nous faisons référence. Musiciens, compositeurs et artistes du son développent leur art par l'enseignement séculaire de l'écoute attentive des instruments et des sources sonores, en tenant compte de leurs moyens d'activation et des nombreux paramètres de la production sonore en mouvement dans le temps.
On tient pour acquis que cette activité sonore se déroule dans un espace délimité particulier et que cet espace affecte la perception du son et, par extension, le mode de pratique de l'interprétation et l'activation sonore requise. Pourtant, mis à part certaines études électroacoustiques qui examinent les ramifications de la médiation technologique de l'espace par le biais d'environnements de projection sonore stéréo et multicanaux, la recherche en conception de cinéma et de jeux vidéo immersifs et les méthodes spatiales de formation auditive pour les ingénieurs du son, il existe très peu de formation explicite en écoute spatiale, une étude dirigée et méthodique de l'espace acoustique telle qu'on en fait l'expérience dans une multitude de lieux, des espaces où les musiciens et artistes sonores reçoivent de la musique et des œuvres sonores. La prolifération actuelle de réseaux de haut-parleurs à haute densité dédiés à la conception spatiale, ainsi que les technologies améliorées et accessibles pour capturer, préserver et reproduire les complexités des espaces acoustiques, offrent un environnement fertile pour initier et développer une telle pédagogie de l'écoute spatiale. Cette présentation portera sur certains des paramètres fondamentaux de l'écoute spatiale et de la perception de l'espace qui contribuent aux compétences nécessaires à la conception et au contrôle de la composition de l'audio spatial. Un aperçu d'une méthodologie de pédagogie du son spatial est proposé et illustré par une série d'exercices audio spatiaux qui tiennent compte de l'apprentissage par l'expérience, de la terminologie et des concepts, des technologies de déploiement et des applications créatives.

Eric Raynaud / Ircam
Fraction, de son vrai nom Éric Raynaud, est un artiste audiovisuel né en Bretagne et résidant à Paris. Éric s’intéresse plus particulièrement aux formes d’immersion sonores et leurs interactions avec les médias visuels. Ses premières production apparaissent sous le label Allemand Shitkatapult avant de rejoindre le label parisien Infiné en 2008.  Avec le support du CNC-Dicream (2010), Il créé la performance audiovisuel immersive DROMOS (réutilisée par Apple). Il vise en particulier à tisser des liens entre l’immersion sonore 3D, l’art contemporain et l’architecture, avec un intérêt particulier pour des problématique associant science et enjeux environnementaux. Son travail a été présenté dans de nombreux lieux, festivals ou évènements de culture électroniques, experimentale, digitales ou audiovisuelles d'envergure nationale ou internationalle comme le festival MIRA, MUTEK, GogBot, MEQ, Maintenant, Sonica, Lab360, Z-KU, Gaieté Lyrique, SAT Montreal, Resonate, Kikk, etc.
 

Jacques Rémus / Ipotam Mécamusique

Biologiste à l'origine (agronome et chercheur en aquaculture), Jacques Rémus a choisi à la fin des années 70, de se consacrer à la musique et à l'exploration de différentes formes de création. Saxophoniste, il a participé à la fondation du groupe Urban-Sax. Il apparaît également dans de nombreux concerts allant de la musique expérimentale (Alan Sylva, Steve Lacy) à la musique de rue (Bread and Puppet). Après des études en Conservatoires, G.R.M. et G.M.E.B., il a écrit des musiques pour la danse, le théâtre, le "spectacles totaux", la télévision et le cinéma. Il est avant tout l'auteur d'installations et de spectacles mettant en scène des sculptures sonores et des machines musicales comme "Bombyx", le "Double Quatuor à Cordes", "Concertomatique", "Léon et le chant des mains", les "Carillons" N ° 1, 2 et 3, : « l’Orchestre des Machines à Laver » ainsi que ceux présentés au Musée des Arts Forains (Paris). Depuis 2014, son travail s'est concentré sur le développement des «Thermophones».
Les Thermophones, récentes évolutions et spatialisation
Jacques Rémus a développé le projet des Thermophones en expérimentant divers phénomènes liés à une science récente la ThermoAcoustique.
Plusieurs installations et concerts ont d’abord été faites avec des tuyaux utilisant le principe des “pyrophones”, basé sur l’effet Rijke.
En relation avec Steve Garret de Penn State University et avec plusieurs chercheurs travaillant dans des laboratoires français (Limsy CNRS Saclay, Paris VI, et Laum au Mans), Jacques Rémus a commencé à développer un instrumentarium avec des tuyaux chauffés par des résistances électriques, les Thermophones.
Une présentation a été faite au Forum de l’Ircam en novembre 2015.
Depuis, les manipulations de ces tuyaux aux sons purs, profonds, puissants et troublants, ont permis de développer des écritures musicales spécifiques et de produire des installations où la spatialisation de sources sonores acoustiques, s’adapte aux configuration sacoustiques des lieux d’installation.
La spécificité des sons qui sont essentiellement constitués de l’onde fondamentale de chaque tuyau permet par contre d’envisager de les exploiter en tant qu’instruments «augmentables» pour d’autres écritures où la capture de leur chant peut être source de transformations audio et video
Si les conditions de transport le permettent la présentation pourra se faire avec une démonstration sur un ou plusieurs Thermophones.
Les Thermophones sont pilotés par Max.

 
Lindsey Reymore / Ohio State University
Lindsey termine son dernier semestre au sein du doctorat en théorie musicale à l'Université Ohio State. Sa recherche se concentre sur la sémantique du timbre et le langage multimodal; D'autres projets récents traitent des associations d'émotions multimodales dans la musique et la danse, de la hauteur absolue spécifique à un instrument et de l'harmonie du XVIIe siècle. En 2018, Lindsey a reçu le Prix du Chercheur en début de carrière de la part de la European Society for the Cognitive Sciences of Music (ESCOM) pendant la International Conference on Music Perception and Cognition et est co-présidente de la prochaine conférence qui se tiendra dans l'état de l'Ohio du 11 au 15 mai, "Future Directions of Music Cognition".
Analyse de la qualité des instruments, des profils de traits de timbre et de l'orchestration sémantique
Je présente une méthode d'analyse d'orchestration computationnelle construite à partir d'études empiriques de la sémantique du timbre. Dans le cadre d'entrevues ouvertes, 23 musiciens ont été invités à décrire leur expérience phénoménale des sons de 20 instruments occidentaux. Une analyse du contenu des entrevues transcrites a permis de dégager 77 catégories qualitatives qui sous-tendent les descriptions des musiciens. Dans une deuxième étude, 460 musiciens participants ont évalué des sous-ensembles des mêmes 20 instruments en fonction de ces 77 catégories. Les analyses en composantes principales et les sondages supplémentaires ont produit un modèle final en 20 dimensions de la linguistique cognitive de la qualia du timbre. Les dimensions du modèle sont les suivantes : grondement/faible, doux/chantantant, aqueux/fluide, direct/fort, nasal/rouge, strident/bruit, percussif, pur/clair, cuivré/métallique, râpeux/graineux, sonnant/déclin long, pétillant/éclatant, aérien/respirant, résonant/vif, creux, boisé, muet/voilé, soutenu/même, ouvert et concentré/compact. Dans une troisième étude, 243 participants ont évalué des sous-ensembles d'un groupe de 34 instruments d'orchestre à l'aide du modèle à 20 dimensions. Ces notes ont été utilisées pour générer des Profils de Caractères du timbre, qui servent de base à la méthode d'analyse d'orchestration, pour chacun de ces instruments. Un programme de calcul est en cours d'élaboration (prévu pour février-mars 2020) afin de générer un tracé d'orchestration sémantique à partir d'une pièce musicale. L'analyse fournira des informations sur la façon dont les dimensions sémantiques du timbre évoluent tout au long d'une œuvre, en utilisant d'abord un modèle qui combine les Profils de Caractères du Timbre en fonction de l'orchestration et utilise des modificateurs d'intensité basés sur des indications dynamiques. En plus des intrigues d'orchestration sémantique, je vise à traduire les données musicales en une analyse visuelle animée en temps réel qui peut être jouée avec la pièce pour illustrer les changements dynamiques du timbre résultant de l'orchestration.

Monique Savoie / Société des Arts Technologiques

Vidéaste interpellée par l'art de l’installation et la musique électroacoustique, Monique Savoie marque l’avant-garde montréalaise par un cheminement transversal qui l’amène à travailler avec différentes disciplines artistiques. En 1995, elle dirige le sixième Symposium international des arts électroniques ISEA95 Montréal, événement qui a grandement participé à positionner Montréal sur la scène internationale de la création numérique. L’année suivante, elle fonde la Société des arts technologiques [SAT] qu’elle préside également tout en cumulant les fonctions de directrice artistique et du développement. Comptant aujourd’hui plus de 36 000 membres, la SAT offre un lieu de réseautage unique au moment où le numérique transforme radicalement nos façons de penser, de créer et de diffuser. Depuis 1996, elle a fait de ce centre transdisciplinaire de recherche, de création, de production, de formation et de diffusion voué au développement et à la conservation de la culture numérique, le lieu incontournable des arts technologiques à Montréal. Et depuis ce temps, il jouit d’une réputation internationale. Récompensée en 2014 par la Ville de Montréal, Monique Savoie a reçu le prix de la Bâtisseuse du 21e siècle en plus d’avoir reçu l'insigne de chevalier de l'Ordre des arts et des lettres de la République française en 2017. Depuis août 2016, elle représente la SAT à titre d'associée de la Gaîté Lyrique à Paris, jusqu'en 2022.

Marlon Schumacher et Núria Gimenez Comas

Le parcours universitaire de Marlon Schumacher est pluridisciplinaire, avec des diplômes pédagogiques et artistiques en théorie musicale, médias numériques et composition (sous la direction de Marco Stroppa) de l'UMPA Stuttgart, et un doctorat en technologie musicale de l'Université McGill (co-encadré par l'IRCAM). Ses principaux sujets de recherche sont la perception/synthèse spatiale du son, la composition assistée par ordinateur et l'interaction musicale ; il a apporté à ce domaine au travers de publications scientifiques, de services universitaires, sortie de différentes versions de logiciels libres et des projets artistiques/de recherche. Marlon Schumacher est un interprète/compositeur actif qui crée des œuvres pour une grande variété de médias et de formats, y compris des pièces instrumentales et intermédias, des performances de foule et des installations. Il travaille actuellement comme professeur d'informatique musicale à l'Institut d'informatique musicale et de musicologie de l'Université de musique de Karlsruhe, où il a organisé une série de conférences internationales et conçu des laboratoires de recherche en tant que directeur du ComputerStudio. Il est membre associé du CIRMMT, de l'IDMIL, de la RepMuS et membre organisateur de la conférence annuelle sur la musique et les arts sonores (MUSA).
Sculpting space
Le projet de recherche artistique collaborative proposé a exploré et développé la notion de synthèse spatiale du son d'un point de vue artistique et perceptuel, amalgamant véritablement les algorithmes de spatialisation et les moteurs de synthèse sonore selon une idée ou une approche musicale intégrale. D'un point de vue de recherche, l'étude de la mécanique de la perception auditive devrait permettre de mieux comprendre comment ces dimensions - le plus souvent musicalement séparées - interagissent, suscitent et évoquent des sensations sonores nouvelles.
Exploration de la spatialisation au-delà du concept prédominant de la spatialisation des sources sonores, telles que les sources étendues (avec extension et formes), les techniques de spatialisation spectrale, ainsi que la notion de "paysage sonore synthétique" dans le sens de travailler avec des densités et des distributions dans différentes dimensions de synthèse (en fréquence aussi bien qu'en espace). D'un point de vue artistique, cette approche peut être considérée comme le prolongement d'une tradition d'exploitation des principes psychoacoustiques comme modèle musical (comme dans l'école spectrale française) afin de créer de nouvelles compositions sonores et formes musicales - parfois paradoxales.
A cette fin (comme pour la réalisation technique), la compositrice Nuria Gimenez-Comas a utilisé les descriptions graphiques des densités de masse avec les outils de synthèse sonore et de spatialisation avec Open Music.
Cette approche est rendue possible grâce à.....
La contribution de Marlon Schumachers sera consacrée à la recherche et développement de nouveaux outils s'appuyant sur les mécanismes cognitifs étudiés dans la perception spatiale auditive et l'analyse de scène. Plus précisément, le cadre OMChroma/OMPrisma, combinant modèles de synthèse/spatialisation, traitement perceptuel, et effets de salle.
Le nouveau cadre de traitement du son des outils présentés permet de construire des dsp-graphes complexes -directement dans l'environnement de composition-. Cela étend le processus de composition à une "lutherie" ou à une "orchestration" virtuelle, brouillant les frontières entre le matériel musical et les instruments. Le cadre offre la possibilité de concevoir des commandes pour des attributs spatiaux de niveau supérieur, tels que la diffusion, la netteté, la définition, etc.
Concrètement, nous proposons de combiner des systèmes de spatialisation dans une configuration d'enceintes peu orthodoxe (voir fiche technique) pour synthétiser un large spectre d'"objets sonores spatiaux" allant des sources sonores de proximité aux textures ou ambiances distantes, que l'auditeur peut explorer et apprécier individuellement.
L'idée est de créer non seulement la sensation de sources sonores données projetées dans l'espace mais aussi de multiples morphologies sonores spatiales autour et à l'intérieur du public, c'est-à-dire densifiant - augmentant, dans différentes couches sonores émergentes.

Nadine Schütz / Ircam

Nadine Schütz se présente comme architecte du son, ou interprète environnementale. S’appuyant sur une recherche à la fois théorique et poétique, elle explore l’espace sonore à travers des compositions, performances, installations et ambiances qui mettent en relation l'espace et l'écoute, le paysage et la musique, l’urbain et l’humain. Ses œuvres ont été présentées à Zurich, Venise, Naples, New York, Moscou, Tokyo et Kyoto. Parmi ses projets en cours, un dispositif sonore pour le parvis du TGI à Paris, des instruments élémentaires pour le Franchissement Urbain Pleyel à Saint-Denis, et le Jardin des Réflexions pour la Place de La Défense rénovée. Pendant quatre ans elle a dirigé le laboratoire multimédia de l’institut du paysage à l'EPF/ETH Zurich, où elle a installé un nouveau studio pour la simulation spatiale des paysages sonores, lors de son doctorat Cultivating Sound finalisé en 2017. Actuellement elle est compositrice invitée à l‘Ircam au Centre Pompidou Paris.
Présentation de son travail artistique et pistes de collaboration avec les équipes de recherche de l'Ircam
1) "Composer avec des échos" : investiguer comment l’empreinte acoustique d’un lieu peut s'inscrire dans des nouveaux contenus sonores et aux différents échelles spatiales et temporelles d’une composition destinée à ce même lieu. (EAC)2) Instrument - espace : c’est la recherche d'une corrélation compositrice entre lieu, structures architecturaux / physiques et événements sonores à travers leur lecture/conception/définition respective comme instrument et espace - source sonore et corps de résonance - en même temps. (EAC / S3AM)3) Acoustique-sémantique : développer l’outil speak vers une lexicologie (spatiale) des scènes sonores, afin de créer des liens acoustiques et sémantiques entre la description d’une scène sonore et d’un seul son / d’un événement sonore individuel dans la composition. (PDS / EAC)4) Préfiguration en studio / Mastering hors du studio / Aspects multi modales, notamment les interactions entre l’auditif et le visuel: questions méthodologiques dans le processus de création des oeuvres destinées aux lieux / environnements spécifiques.

Georgia Spiropoulos / Ircam

Formée à Athènes au piano et à toutes les disciplines entourant la composition, Georgia Spiropoulos pratique aussi le jazz et se passionne pour la musique grecque traditionnelle. Elle suit les classes de P. Leroux et M. Levinas. Au cursus de l’Ircam, elle travaille avec J. Harvey, T. Murail, B. Ferneyhough, P. Hurel et M. Stroppa. Elle fait un master à l’EHESS, en collaboration avec des anthropologues et des hellénistes. Ce regard porté vers les origines orales des musiques s’enrichit d’autres champs d’exploration : l’improvisation, l’art performatif et pluridisciplinaire, la voix, le langage. Lors du festival Manifeste-2015, l’Ircam lui consacre un concert-portait au Centre Pompidou. Elle a enseigné la composition à l’université McGill à la chaire Schulich de professeur invité distingué.
 

Christopher Trapani / University of Texas

Le compositeur américain/italien Christopher Trapani est né à la Nouvelle-Orléans, en Louisiane. Il a obtenu une licence à Harvard, une maîtrise au Royal College of Music et un doctorat à l'Université de Columbia. Il a passé un an à Istanbul grâce à une bourse Fulbright, étudiant la microtonalité dans la musique ottomane, et près de sept ans à Paris, dont plusieurs à l'Ircam. Christopher a reçu le prix de Rome 2016-17, une bourse Guggenheim 2019 et le prix Gaudeamus 2007. Il a reçu des commandes de la Fondation Fromm (2019), de la Fondation Koussevitzky (2018) et de Chamber Music America (2015). Son premier CD, Water- lines, est sorti sur New Focus Recordings en 2018. Il est actuellement professeur adjoint invité de composition et directeur intérimaire des studios de musique électronique de l'Université du Texas à la Butler School of Music d'Austin.
L'orchestre augmenté: Spinning in Infinity
Spinning in Infinity (RIM: Greg Beller), créée à la Maison de la Radio en février 2015, représente une approche singulière à la spatialisation et l'orchestration. Un dispositif de douze haut-parleurs sur scène, intégrés parmi les instrumentistes, sert à fusionner l’acoustique et l’électronique. L’électronique sert à augmenter l’orchestre avec des sons qui pousse au-delà des limites de l’interpretation instrumentale, créant un fond microtonal qui fusionne de façon credible avec l’orchestre. Instrumentations kaléidoscopiques façonnés avec la synthèse concatenative, avec des échantillons choisis et ré-accordés en temps réel, servent à créer une espèce de cercle chromatique sonore, balades en forme spirale traduit en espace timbrale avec CataRT — entre bois et cuivres, entre terne et brillant, ou entre bruit et hauteur — renvoyés à leur tour au dispositif de spatialisation sur scène.
Le résultat, synchronisé avec l'orchestre grâce au suivi de tempo fourni par Antescofo, crée l'impression d’un orchestre augmenté, à formation variable; une dizaine de flûtes pourrait apparaitre, remplacé dans le moment qui suit par un choeur microtonal de cuivres nuancés par plusieurs types de sourdines, ou un courant ondulé de tintements déclenché par un seul percussionniste sur scène—ondes et patterns en mouvement constant, convergeant ou divergeant, vectors vers l’infini.
 

Roxanne Turcotte / CMCQ SMCQ

Active comme compositrice et designer sonore depuis 1980, Turcotte a construit son esthétique autour d'un art cinématographique d'intégration, de musique acousmatique et immersive. Elle est invitée à siéger comme jurys de composition, et elle donne régulièrement des formations et des ateliers de composition. Turcotte a reçu des subventions du Conseil des Arts du Canada (CAC) et du Conseil des arts et des lettres du Québec (CALQ). La musique de Roxanne Turcotte a remporté de nombreux prix et distinctions aux États-Unis, en 1987 et en 1989, ainsi que des nominations (LCL, en nomination pour les Journées mondiales de la musique d'Oslo, en 1990), Hugh Le Caine (Canada, 1985, 1989), Luigi Russolo (Italie, 1989), 6e Concours d'art radiophonique (La France, 2005), Bourges (France). Ses œuvres électroacoustiques ont été programmées par plusieurs événements : Florida Electroacoustic Music Festival (1996), Montréal en lumière (2000), Bourges (2003), Perpignan (2000), Futura (2006), Marseille (2002), Barcelone (2004), Genève (2005), Akousma, 16 pistes (Bestiaire), Aix-en-Provence (2007), Edmonton (2014), Montpellier (Festival Klang, 2017), Festival MNM 2019".

Les oiseaux de Nias

Étude sonore comportementale et comparative du fonctionnement des oiseaux en société et les conséquences de la déshumanisation de l’homme vouée à son autodestruction, un désordre universel. La diminution de la biodiversité d’ici jusqu’à l’ile de Nias, témoignent de l’incrédulité humaine et des gouvernements climatosceptiques. L’extinction graduelle des espèces animales causée par le pouvoir industriel sans limites et les batailles idéologiques, font en sorte que des petits groupes d’individus dissidents, émergent des populations en révolte. Ceci est un appel à la liberté et à la sauvegarde de notre espace vital.
 

Hans Tutschku / Harvard University

Hans Tutschku est un compositeur de musique instrumentale et électroacoustique. En 1982, il a rejoint l'"Ensemble for intuitive music Weimar" et a ensuite étudié le théâtre et la composition à Berlin, Dresde, La Haye, Paris et Birmingham. Il a collaboré sur des productions de film, de théâtre et de danse, et a participé à des cycles de concerts avec Karlheinz Stockhausen. Depuis 2004, il dirige les studios électroacoustiques de l'Université de Harvard. L'improvisation avec l'électronique a été une des ses activités centrales au cours des 35 dernières années. Il est lauréat de plusieurs concours internationaux, entre autres : Hanns Eisler Preis, Bourges, CIMESP Sao Paulo, Prix Ars Electronica, Prix Noroit, Prix Musica Nova, ZKM Giga-Hertz, CIME ICEM et Klang . En 2005, il a reçu le prix de la culture de la ville de Weimar. En plus de ses cours réguliers à l'université, il a animé des ateliers internationaux pour musiciens et non-musiciens sur les aspects de l'appréciation de l'art, de l'écoute, de la créativité, de la composition, de l'improvisation, de l'électronique en direct et de la spatialisation du son dans plus de 20 pays.
Combiner la base de données de la création sonore avec la spatialisation ambisonique
Travailler avec de grandes bases de données sonores pour constituer des textures sonores denses a constitué l’essentiel de mes recherches au cours des dernières années. Actuellement, je combine la sortie d’un moteur de lecture multi-voix, qui produit des centaines de voix en simultanée avec leur spatialisation, dans un dôme ambisonics - jusqu’au 7ème ordre.
L’ensemble de l’environnement est programmé en Max/MSP, en utilisant les bibliothèques bach et cage, ainsi que plusieurs outils de spatialisation, dont les outils de l’Ircam, Spat et ICST.
Des modèles de flocage d'oiseaux et des réseaux de masses physiques sont utilisés pour guider les aspects spatiaux des nuages sonores.
Cette conférence montrera la création de la base de données, le moteur de recherche, les possibilités de représentations sonores symboliques et leurs possibilités de montage, ainsi que mon approche de la spatialisation sonore.
La conférence sera accompagnée d’une représentation de ma composition acousmatique “dark matter - avalanche” (2018), un hommage à Iannis Xenakis.

Marcel Zaes

Marcel Zaes (né en 1984) est artiste, interprète et compositeur. Il est titulaire d'un master en arts médiatiques et en composition musicale de la Haute école des arts de Berne et de la Haute école des arts de Zurich. Il a également étudié la composition avec Peter Ablinger et Alvin Curran. Actuellement, il poursuit son doctorat en musique et composition multimédia à l'Université de Brown. En tant que chercheur et artiste, il explore la manière dont le rythme constitue la base de la communauté, c'est-à-dire que le rythme permet ce lien social que l'on appelle traditionnellement "faire de la musique ensemble" ou "danser ensemble", même si cela n'implique aucune action de ce genre. Il étudie les formes mécaniques du rythme, sa politique et sa signification socioculturelle dans un cadre interdisciplinaire qui englobe les études sur le son et les médias, les nouveaux médias, les études critiques raciales et les études sur la performance et la danse.
Résistance à la grille - Exécution d'une asynchronie
Une grande partie de la production musicale d'aujourd'hui repose sur le chronométrage mécanique, que ce soit sur le métronome, la boîte à rythmes, le séquenceur pas à pas, l'échantillonneur, le quartz dans le CPU ou la grille visuelle dans n'importe quelle DAW contemporaine. En tant qu'artiste-chercheur, je suis profondément intéressé par ces formes mécaniques de rythme et par les techniques qui émergent à la frontière entre ces machines rythmiques et leurs utilisateurs humains.
En tant que doctorant, je suis actuellement en train de composer de la musique nouvelle (musique électronique et instrumentale mixte) qui - et c'est là ma motivation première - remet en question le fait que le modernisme de la mécanique, du réseau et de la synchronisation soit les principaux acquis de la révolution industrielle. Mon travail englobe la conception d'outils de composition-technologie (dans Max MSP et Phython3) qui mettent l'accent sur les anti-tropes du temps : le décalage temporel (Rebecca Schneider), la coupure (Fred Moten), la rupture (Tricia Rose), la faillite (Jack Halberstam), l'humanisation de la machine (Louis Chude-Sokei) et les ambiguïtés politiques de l’irrégularité.
Dans mon travail artistique, j'ai à plusieurs reprises détaché la création de la texture sonore intérieure, de sa forme temporelle plus " sociale " (Tara Rodgers), c'est-à-dire, par exemple, que les altistes fournissent un timbre continu, tandis qu'un algorithme numérique applique des enveloppes d'amplitude et forme le rythme perçu selon des grilles irrégulières. Dans ma présentation, je présenterai mon projet et jouerai des exemples de 1 ou 2 de mes œuvres musicales les plus récentes, probablement "Pulsations" et "The December Sketch", tout en utilisant ces exemples comme dispositifs de création d'espace pour réfléchir à la "résistance" et aux formes temporelles alternatives.

Tiange Zhou / UC San Diego

Né en Chine en 1990, Tiange Zhou est compositrice, photographe, designer et danseuse d'improvisation. Elle s'intéresse à l'art audiovisuel interactif et à d'autres formes d'art intégrées. Ses compositions acoustiques, ses œuvres électroniques et ses installations ont été présentées et exposées en Asie, en Europe et en Amérique du Nord. Elle est également invitée comme conférencière pour présenter ses recherches sur l'audiovisuel au Forum Ircam Shanghai 2019. Tiange poursuit son doctorat en composition à l'Université de Californie, San Diego, où elle étudie avec le professeur Roger Reynolds pour la composition. Elle a obtenu sa maîtrise à l'Université de Yale et une licence à la Manhattan School of Music. Elle a également suivi un programme d'échange à la Staatliche Hochschule für Musik und Darstellende Kunst, Stuttgart. Outre les projets indépendants, Tiange participe à de nombreux projets de collaboration avec des artistes et des scientifiques de différents genres. Elle a réalisé plusieurs projets sur les dilemmes socio-psychologiques contemporains qui la touchent.
LUX FLUX: Design sound and light work in Max/Msp through DMX
Lorsque les musiciens parlent de créations audiovisuelles interactives au cours des dernières années, la plupart du temps, ils mentionnent l'impact que le son pourrait avoir sur les paramètres des composantes vidéo. Il est facile d'ignorer que la conception de l'éclairage s'est faite parallèlement à la performance musicale en direct depuis le début de l'histoire du théâtre. La nature de la lumière est plus proche du son, dans lequel ils ont tous deux des caractères abstraits et pourraient porter une continuité artistique avec un aspect narratif spécifique. Les musiciens utilisent souvent des terminologies légères pour indiquer les sons, tels que clairs, sombres, colorés, pâles, ombragés, etc.D'autre part, il devrait également être passionnant de composer des événements lumineux avec de la musique, à travers le temps en appliquant des méthodologies de conception sonore.Dans cette démonstration, je montrerai comment réaliser des conceptions d'éclairage intrigantes par programmation Max/MSP via une interface USB vers DMX. Je partagerai plusieurs patchs Max faciles à apprendre pour que le public comprenne les méthodes principales et l'utilisation du design d’éclairage et de l'interactivité avec le traitement du signal audio. Je présenterai mon travail d'éclairage audio Sexet pendant la démo en utilisant six lumières LED comme ensemble de chambre.DMX est un protocole de contrôle de l'éclairage qui permet aux utilisateurs d'avoir un contrôle ultime sur leurs besoins en éclairage. La technologie d'accès à ce protocole est très proche du contrôle MIDI. Il est donc très pratique d'utiliser MAX/MSP pour programmer des œuvres de création passionnantes.