CONFÉRENCIERS
- Azevedo Anesio - Cerrado: Applying spatialization techniques to expanded perceptive fields
- Aurélien Antoine, Depalle Philippe, McAdams Stephen - Harnessing the Computational Modelling of the Perception of Orchestral Effects for Computer-Aided Orchestration Tools
- Beuret Denis - Ensemble virtuel, un programme qui groove
- Bolles Monica - Orbits: An exploration in spatial audio and sonification
- Bouchard Linda - Structures vivantes
- Boyd Jeffrey, Sallis Friedemann, Ritter Martin - The hallucinogenic belfry: analyzing the first forty measures of Keith Hamel's Touch for piano and interactive electronics (2012)
- Brandon Amy - Composing for AR space: creating interactive spatial scores for the METAVision headset
- Brook Taylor - Human Agency and Meaning of Computer-Generated Music in Virtutes Occultae
- Century Michael - Performance-demonstration of Pauline Oliveros’s Expanded Instrument System for HoA using Spat
- Chandler Christopher -The Generative Sound File Player: A Corpus-Based Approach to Algorithmic Music
- Delgado Carlos - Multidimensional Movement: Gestural Control of Spatialization in Live Performance
- Féron François-Xavier, Cédric Camier et Catherine Guastavino - La centrifugeuse sonore : les effets spatiaux induits par les trajectoires circulaires à grande vitesse
- Fortin Emilie et Dupuis Sophie - Reconceptualiser une oeuvre interdisciplinaire : Known Territories 2.0.
- Gantt Matthew - Sound and Virtuality: Creative VR, Ambisonics and Expanded Composition
- Giannini Nicola - Eyes Draw Circles of Light, acousmatic piece for dome of speakers
- Goldford Louis - Assisted Orchestration, Spatialization, and Workflow in Two Recent Compositions
- Gozzi Andrea - Listen to the theatre! Exploring Florentine performative spaces
- Grond Florian et Woszcyk Weslaw - Exploring the possibilities of navigating and presenting music performances with a 6DOF capture system
- Catherine Guastavino, Valérian Fraisse (McGill University, CIRMMT), Simone D’Ambrosio, Etienne Legast (Audiotopie) & Maryse Lavoie (Ville de Montréal) - L’art sonore spatial dans les espaces publics
- Hamilton Rob - Virtual Instrument Design for the 21st Century
- Heng Lena, McAdams Stephen (McGill University) - Timbre’s function in perception of affective intents. Can it be learned?
- Huynh Erica Y. (McGill University), Bensoam Joël (IRCAM), McAdams Stephen (McGill University) - Bowed plates and blown strings: Odd combinations of excitation methods and resonance structures impact perception
- Kelly Jack - SPAT tools for presence research in immersive music reproduction
- Krukauskas Mantautas - Some conceptions for effective use of immersive sound techniques for music composition and orchestration
- Kim Hanna -Timbre Saturation for Chamber Orchestra
- Lee Dongryul - A Thousand Carillons: Acoustical Implementation of Bell Spectra Using the Finite Element Method and Its Compositional Realization
- McAdams Stephen, Meghan Goodchild, Alistair Russell, Beatrice Lopez, Kit Soden, Er Jun Li, Alfa Barri, Shi Tong Li, Félix Baril (McGill University) - The Orchestration Analysis and Research Database (Orchard)
- Morrison Landon - Computer-Assisted Orchestration, Format Theory, and Constructions of Timbre
- Neill Ben - Fantini Futuro
- Noble Jason - A case study of the perceptual challenges and advantages of homogeneous orchestration: fantaisie harmonique (2019) for two guitar orchestras
- Normandeau Robert - ControlGRIS/SpatGRIS3: Les outils de spatialisation développés à l'UdeM
- Pelf Ofer et Gover Matan - Sound Tracks: An interactive video game composition
- Quiroz Diego - Gestural Control for immersive recordings using Leap Motion for SPAT:Revolution
- Radford Laurie - Getting into Place/Space: The Pedagogy of Spatial Audio
- Rémus Jacques - Les Thermophones, récentes évolutions et spatialisation
- Reymore Lindsey - Instrument Qualia, Timbre Trait Profiles, and Semantic Orchestration Analysis
- Landolt Ludovic - Musique Éternelle - Bourdon et occurrences harmoniques des cloches
- Schumacher Marlon et Gimenez Comas Nuria - Sculpting space
- Schütz Nadine - Composing with echos
- Trapani Christopher - The orchestra increased: Spinning in Infinity
- Turcotte Roxanne - Les oiseaux de Nias
- Zaes Marcel - #otherbeats: Resisting the Grid — Performing Asynchrony
- Zhou Tiange - LUX FLUX: Design sound and light work in Max/Msp through DMX
INTERVENANTS IRCAM
Carpentier Thibaut
Conforti Simone - “Within the sound”, recherche de nouveaux sons via TS2
Esling Philippe
Giavitto Jean-Louis - Concevoir des systèmes cyber-temporels avec Antescofo
COMPOSITEURS INVITÉS
Blondeau Sasha, Cella Carmine Emanuele, Di Castri Zosha,
Fernandez José Miguel - Score centralisé : AntesCollider et autres applications artistiques dans Antescofo
Hervé Jean-Luc, O'Callaghan James, Leroux Philippe, Spiropoulos Georgia
COMPOSITEURS ÉTUDIANTS DU STUDIO DE COMPOSITION DIGITALE DE MCGILL
Barash Omer, Blanchard Joy, Han Xue, Regnier Jonas
CONFÉRENCIERS
Anésio Azevedo Costa Neto / Instituto Federal São Paulo - Universidade Brasília - IDMIL - McGill University
Anésio Azevedo est professeur de philosophie à l'Instituto Federal de Saõ Paulo (IFSP) et candidat au doctorat de philosophie à l'Universidade de Brasilia (UnB), au Brésil. Sous le nom de "stellatum_.", Anésio explore les sons, soit enregistrés à partir du Cerrado (biome du Brésil), soit produits par lui-même. En combinant différentes caractéristiques sonores dans des ambiances, Anésio vise à élargir sa perception de la Nature en offrant des indices pour appréhender sa propre durée.
Cerrado: Applying spatialization techniques to expanded perceptive fields
En tant que chercheur dans le domaine de l’art, je pars de l’hypothèse que chaque environnement spécifique a une forme d’écoute qui devient fondamentale dans la perception générale de cet environnement. Le but de cette présentation de recherche est de montrer comment j’arrive à améliorer la sensation d’immersion en modifiant la distribution, la trajectoire, ainsi que l’intensité des sources de son, dans un axe spatial tridimensionnel. Le but est aussi de montrer comment cela m’a aidé à développer un environnement élargi, où les gens pourraient ressentir une certaine complexité de la nature, qui sous-tend ce qui est percevable. L’idée artistique évoque non seulement la recherche technique, mais aussi le processus continu qui rassemble les données audiovisuelles en matériaux potentiels tels que des éléments constitutifs, au sein de mes performances.
Aurélien Antoine, Philippe Depalle, Stephen McAdams (McGill University)
Aurélien Antoine est boursier postdoctoral à l'Université McGill et travaille avec Stephen McAdams et Philippe Depalle. Ses recherches actuelles se concentrent sur la modélisation des effets et des techniques d’orchestration à partir d’informations symboliques de partitions et de signaux audio lisibles par machine, en passant par l’exploration de données et les techniques d’apprentissage machine. Son travail bénéficie des ressources disponible dans la base de données Orchard, et souhaite la développer. Ses résultats contribueront également à la compréhension et à l’utilisation des différents effets et techniques d’orchestration.
Harnessing the Computational Modelling of the Perception of Orchestral Effects for Computer-Aided Orchestration Tools (EN)
De récentes avancées dans le domaine de l’orchestration assistée par ordinateur ont fourni des approches intéressantes pour relever certains des nombreux défis de l’orchestration, soutenus par les progrès des capacités informatiques et des méthodes d’intelligence artificielle. Néanmoins, la maîtrise des multiples facettes de cet art musical, qui consiste à combiner les propriétés acoustiques d’un grand ensemble d’instruments variés, n’a pas encore été atteinte. Un des aspects à étudier touche les effets perceptuels façonnés par les combinaisons d’instruments, comme le mélange, la ségrégation et les contrastes orchestraux, pour n’en nommer que trois. Ces effets résultent de trois processus de regroupement auditif, à savoir le regroupement simultané, séquentiel et segmentaire. Par conséquent, la recherche en analyse de scène auditive (ASA) pourrait être utilisée pour établir des modèles informatiques qui traitent l’information sur les partitions musicales symboliques et les signaux audio pour identifier des effets orchestraux spécifiques. Notre travail dans ce domaine, pourrait aider à comprendre et à identifier les différentes propriétés techniques musicales impliquées dans la réalisation de ces effets qui sont appréciés par les compositeurs. Ces développements pourraient profiter aux systèmes conçus pour effectuer des analyses d'orchestration à partir de partitions musicales lisibles par machine. De plus, la compréhension des différents paramètres responsables de la perception des effets orchestraux pourrait être incorporée dans des outils d'orchestration assistée par ordinateur conçus pour rechercher les combinaisons d'instruments optimales en ajoutant des caractéristiques perceptuelles à leurs méthodes de recherche.
Denis Beuret
Denis Beuret est un compositeur, tromboniste, vidéaste, développeur informatique, improvisateur et médiateur culturel suisse. Il a étudié la batterie, le trombone, l’informatique musicale, la direction et l'orchestration, ainsi que la médiation culturelle. Il est spécialisé dans la recherche sonore : techniques de jeu étendu du trombone basse et intégration de l’électronique en concert. Il a mis au point un trombone basse augmenté, muni de divers capteurs qui lui permettent de contrôler des programmes musicaux en fonction de ses mouvements et de son jeu. Il a présenté ses travaux à plusieurs reprises à l'IRCAM, ainsi qu'à ImproTech Paris - New York 2012.
Ensemble virtuel, un programme qui groove
Ce programme génère des mélodies, la basse, la batterie et les accords appropriés en temps réel et joue le tout en rythme. Il analyse les hauteurs et dynamiques de quatre sources audio (micros ou fichiers), il se cale à la vitesse d’une source sonore et quantife sa production musicale en temps réel, selon des rythmes, ou de la valeur de division choisis. Au niveau orchestration, il est possible de choisir les sons que l’on veut, car le programme analyse de l’audio ou du MIDI et génère du MIDI. Pour cette présentation et la démo, Denis Beuret va jouer du trombone et utiliser un pédalier qui lui permet de contrôler des effets audio en temps réel.
Monica Bolles
Monica Bolles travaille avec l'audio spatial depuis 2011, date à laquelle elle a eu accès pour la première fois via son planetarium local au système surround 15.1. Depuis lors, elle n'a cessé de développer des outils dans Max MSP pour pouvoir créer de grands paysages sonores texturés qui explorent l'espace, le mouvement et l'interaction. Puisant ses racines dans l'ingénierie audio traditionnelle, elle travaille avec des compositeurs et des interprètes en direct pour explorer des méthodes permettant de traduire leur travail en environnements spatiaux tout en explorant le rôle que l'ingénieur du son joue en tant qu'interprète et musicien. En tant qu'artiste, elle s'est concentrée sur la construction d'instruments personnalisés qui explorent la sonification des données et utilisent le contrôle gestuel pour créer des expériences audio spatiales improvisées. En tant que productrice, elle réunit des équipes pour construire de grandes œuvres immersives qui réunissent performance en direct, danse, projections à 360 degrés, audio spatial et autres nouvelles technologies.
Orbits: An exploration in spatial audio and sonification
Orbits est un instrument conçu sur mesure pour les performances musicales spatiales en direct qui utilise des données relatives aux schémas de rotation de Vénus et de la Terre autour du Soleil. Cette pièce a été interprétée dans des réseaux audio spatiaux allant de 8 canaux à 140 canaux et est réalisée à l'aide d'un iPad et de gants Mi.Mu. Dans cette présentation, Monica Bolles fera une courte démonstration de l'instrument et discutera de ses approches de la sonification des données pour les réseaux de haut-parleurs multicanaux, de son utilisation du contrôle gestuel pour les performances en direct, et des défis et solutions qu'elle a développés pour la musique spatiale en tournée.
Linda Bouchard / Résidence au Matralab - Concordia University
Née à Val d'Or, au Québec, Linda a vécu à New York de 1979 à 1991 où elle a excercé comme compositrice, orchestratrice, chef d'orchestre, enseignante et productrice. Elle a été compositrice en résidence avec l'Orchestre du Centre national des Arts (1992-1995) et vit à San Francisco depuis 1997. Ses œuvres ont reçu des prix aux États-Unis et au Canada, dont le Prix Opus Compositeur de l'année au Québec, le Fromm Music Foundation Award, le Princeton Composition Contest, les prix de composition de la SOCAN et des résidences de la Rockefeller Foundation, Civitella Ranieri, Camargo Foundation et autres. La musique de Bouchard est enregistrée en Allemagne sur ECM, aux États-Unis sur CRI, et au Canada sur Marquis Classics. Depuis 2010, Linda crée des œuvres multimédias qui ont été accueillis avec succès par la critique en Amérique du Nord. En 2017, elle a reçu une subvention pluriannuelle du Conseil des Arts du Canada pour développer des outils permettant d'interpréter les données en paramètres musicaux.
Structures vivantes
Live Structures est un projet de recherche et composition, qui explore les différentes manières d’interpréter les données au sein des notations et compositions graphiques. Le projet Live Structures a commencé en Octobre 2017, supporté par une subvention Exploration et Création du Conseil des Arts du Canada, reçue par Bouchard. Un des objectifs du projet Live Structures est d’interpréter les données issues de l’analyse des sons complexes pour en faire une notation musicale visuelle. L’outil, développé en collaboration avec Joseph Browne du Matralab de l’Université de Concordia, est appelé Ocular Scores™. Jusque là, trois itérations de l’Ocular Scores ont été créées, chacune exécutant des fonctions multiples : a) la capacité de dessiner une image à partir de l’analyse de sons complexes qui peuvent petre utilisés comme éléments gestuels pour composer de nouvelles oeuvres ou pour comparer un son complexe à un autre, b) la capacité de faire des transcriptions complètes d’un spectacle en vue d’interprétation future, et c) la capacité de dessiner des images en temps réel, et de manipuler pour créer des partitions interactives projetées, qui seront jouées en direct par plusieurs interprètes. Ces diverses applications et la façon dont elles peuvent inspirer les compositeurs et les interprètes seront démontrées avec un interprète en direct (tbd).
Jeffrey Boyd, Friedemann Sallis, Martin Ritter / Université de Calgary
Jeffrey Boyd est professeur d'informatique à l'Université de Calgary. Ses intérêts comprennent la musicologie computationnelle, la sonification, l'art interactif, la vidéo et la détection appliquée au mouvement humain. Friedemann Sallis est professeur émérite à la Division de musique de l'Université de Calgary. Martin Ritter est titulaire d'un DMA de l'Université de la Colombie-Britannique et est candidat au doctorat en conception de médias informatiques à l'Université de Calgary.
The hallucinogenic belfry: analyzing the first forty measures of Keith Hamel's Touch for piano and interactive electronics (2012)
La musicologie computationnelle émerge de la nécessité de trouver de nouvelles méthodes pour traiter la musique (tant artistique que populaire) qui échappent à la notation occidentale conventionnelle. Pour mieux comprendre cette musique, nous utilisons des méthodes informatiques pour décomposer les enregistrements d'interprétations de musique contemporaine en objets musicaux numériques. Dans cet article, nous examinons les 40 premières mesures de Touch for Piano and Interactive Electronics (Hamel 2012). Hamel utilise le spectre des cloches comme base d'une partition qui imite le timbre des cloches et le combine avec le timbre du piano, le traitement électronique et le rendu spatial avec huit haut-parleurs entourant le public. Pour les objets musicaux, nous choisissons d'utiliser plus de 200 échantillons de cloches utilisés dans la partie électronique de la pièce.
Une recherche informatique exhaustive des occurrences de chaque échantillon de cloche sur quatre enregistrements de prestations du même pianiste (Megumi Masaki) dans deux lieux sur 100 directions (échantillonnés avec un microphone ambisonique) donne une base de données de milliers de détections d'événements de cloche. Notre recherche a produit 1) de nombreux objets (échantillons) explicitement codés dans la " partition " électronique (ce qui n'est pas une surprise) ; 2) un nombre étonnamment élevé d'objets non explicitement codés. Ce dernier groupe correspond aux hauteurs dans les registres supérieurs, appelées "cuivres secs" ou "glock" dans la partition électronique. L'inspection de notre code, et la vérification par écoute, confirment que ces objets ne sont pas produits à partir des échantillons de cloche de la source électronique. Au contraire, ils sont le produit de hauteurs de piano soigneusement harmonisées en temps réel pour les rapprocher progressivement des échantillons de cloches au cours du segment des quarante mesures. En diffusant ces sons dans l'espace de concert, le compositeur invite le public à entrer progressivement dans son beffroi hallucinogène, où se déroule l'œuvre musicale.
Amy Brandon / Dalhousie University
Les pièces de la compositrice et guitariste canadienne Amy Brandon ont été décrites comme " ... hypnotisantes " (Musicworks Magazine) et " d'un autre monde et médidatif... un conflit entre la tristesse et la beauté... " (Minor Seventh). Les événements à venir en 2019-20 comprennent des premières par l'Ensemble KIRKOS (Irlande), l'Ensemble Exponential (NYC) ainsi que des performances et des installations au Festival de musique nouvelle de Winnipeg, au Centre de musique canadienne et au Centre d'expérimentation musicale du Québec. Elle a reçu des prix de composition canadiens et internationaux, dont le Leo Brouwer Guitar Composition Competition (Grand Prix), et termine actuellement un doctorat interdisciplinaire à l'Université Dalhousie à Halifax, en Nouvelle-Écosse.
Composing for AR space: creating interactive spatial scores for the METAVision headset
Au cours de ces dernières années, les possibilités de composition et performance au sein de l’environnement VR et AR se sont développées, grâce à des compositeurs tels que Paola Prestini et Giovanni Santini, entre autres, et leurs travaux sur la VR, AR et les technologies 360. Mes propres compositions, de 2017 à 2019, se sont focalisées sur les affordances particulières des oreillettes METAVision AR, qui habite l’intersection de la partition graphique, du contrôleur et du mouvement d’improvisation. Le but principal de ces travaux (Hidden Motive, 7 Malaguena Fragments for Augmented Guitar, flesh projektor) est et a été la découverte et la manipulation par l’improvisateur (ou musicien) des moyens de l’espace AR, en particulier sa réactivité aux gestes de la main. Ce projet explore comme les corps dans leurs individualités interagissent dans un environnement de réalité augmentée performative, en particulier comment ces espaces interactifs peuvent se fondre avec les objets du monde " réel " comme les instruments. Dans cette démo, je vous présenterais les précédents travaux pour le casque METAVision AR ainsi qu'un travail multicanal en cours de développement.
Taylor Brook / Université de Columbia
Taylor Brook est un compositeur canadien basé à New York depuis 2011. Brook écrit de la musique pour la scène, de la musique électronique, ainsi que de la musique pour vidéo, théâtre et danse. Décrites comme " captivantes " et " passionnantes " par le New York Times, les compositions de Brook ont été interprétées partout dans le monde par des ensembles et des solistes tels que Anssi Kartunnen, Mira Benjamin, l'Ensemble Ascolta, le JACK Quartet, le Mivos Quartet, le Nouvel Ensemble Moderne, le Quatuor Bozzini, l'Ensemble Talea et d'autres. Sa musique s'intéresse souvent aux sonorités microtonales finement accordées, combinant son intérêt pour l'exploration des qualités perceptuelles du son avec un sens unique de la beauté et de la forme. En 2018, Brook a obtenu un doctorat en arts musicaux (DMA) en composition musicale à l'Université Columbia. Il est titulaire d'une maîtrise en composition musicale à l'Université McGill. Actuellement, Brook est chargé de cours à l'Université Columbia et est directeur technique du TAK Ensemble.
Human Agency and Meaning of Computer-Generated Music in Virtutes Occultae
Cet article explore les concepts autour du contrôle compositionnel qui découlent de la musique générée par ordinateur et de l'improvisation informatique. À partir d'une analyse de ma composition électroacoustique, Virtutes Occultae, j'analyserai les implications de l'improvisation informatique du rôle de compositeur, la façon dont la valeur est attribuée à l'art expérimental et la relation élargie aux données et à l'automatisation dans la société en général.
En créant le logiciel pour générer de la musique pour Virtutes Occultae, j'ai été confronté à des décisions concernant le degré de contrôle ou de chaos que j'allais insuffler dans l'algorithme d'improvisation. Le degré de randomisation et les probabilités pondérées intégrées dans le logiciel fixent les niveaux d'imprévisibilité ; l'imprévisibilité de l'improvisation informatique devient stimulante sur le plan artistique, conduisant même le compositeur à imiter l'improvisateur informatique dans des sections plus traditionnellement composées.
Les entreprises commerciales récentes (AIVA, Jukedeck, Melodrive, etc.) disposent d'algorithmes qui génèrent automatiquement des jingles commerciaux et des bandes sonores : choisissez une ambiance et un style pour créer une pièce musicale originale en un seul clic. Le moteur AIVA promeut une fonction étrange où l'on peut sélectionner un morceau de musique existant, par exemple un Nocturne de Chopin, et déplacer un curseur entre "similaire" et "vaguement similaire" pour créer une œuvre dérivée. Que signifie cette méthode de création musicale pour la façon dont nous valorisons la musique ? Bien que ce logiciel crée de la musique à des fins commerciales, j'ai employé des techniques similaires dans l'art non commercial dans Virtutes Occultae et d'autres œuvres. Décomposer les ramifications de ce que la musique générée par ordinateur signifie pour le rôle d'un artiste et sa relation à son art est un sujet complexe et varié qui doit être considéré.
Michael L. Century / Rensselaer Polytechnic Institute
Michael Century est professeur à la New Media and Music in the Arts Department à la Rensselaer Polytechnic Institute à Troy, N.Y. (depuis 2002). Musicalement à l'aise dans des contextes classiques, contemporains et d'improvisation, Century détient des diplômes en musicologie des universités de Toronto et de Californie à Berkeley. Longtemps associé au Banff Centre for the Arts, il a dirigé le programme inter-arts du Centre entre 1979 et 1988, et a fondé son programme d'arts médiatiques en 1988. Avant l'IPR, il était chercheur en nouveaux médias, producteur inter-arts et décideur dans le domaine des arts (gouvernement du Canada, Patrimoine canadien et ministère de l'Industrie, 1993-1998). Ses œuvres pour instruments en direct et traitées électroniquement ont été jouées et diffusées dans des festivals internationaux.
Tout au long de sa carrière de compositrice et d'interprète, Pauline Oliveros (1932-2016) s'est toujours intéressée à l’élargissement de l'expérience temporelle et a souvent qualifié son propre système d'instrument élargi (EIS) de "machine temporelle" - un dispositif permettant au présent, au passé et au futur, selon ses propres termes, "simultanément aux transformations". Avec la permission du Pauline Oliveros Trust, je continue à développer et propose ici une démonstration pour le Forum de ma propre musique électronique live utilisant l'accordéon dans un système HoA utilisant Spat.
La démonstration comprendra ma propre interprétation musicale et la collaboration à la programmation de Matthew D. Gantt. Le système EIS a joué un rôle important non seulement dans l'œuvre enregistrée d'Oliveros, mais a également eu un impact significatif dans l'histoire plus large de la musique électronique en direct. Mes recherches sur l'histoire du système m'ont également permis de fournir un bref résumé sur Oliveros en tant qu'artiste et sur la façon dont son système de manipulation et de modulation de la musique improvisée avec des retards dans le temps s'est développé sur un demi-siècle.
Ce développement a commencé avec des œuvres classiques pour bande, suivies successivement par des machines à retarder manuelles et à commande au pied (1980’s), des patchs Max contrôlés par MIDI (début des années 1990), une transcription numérique complète en MaxMSP (2002) et enfin divers modules pour une spatialisation de base. La démonstration proposée ici utilise l'EIS en conjonction avec Spat et fournit un développement significatif dans la puissance du système, tant sur le plan esthétique que technique.
Christopher Chandler / Union College
Christopher Chandler est un compositeur, artiste sonore, et cofondateur ainsi que directeur exécutif du [Switch~ Ensemble]. Il est professeur de musique adjoint à l'Union College de Schenectady, NY, où il enseigne la théorie, la composition et la technologie dans la musique. Ses travaux acoustiques et électroacoustiques s'appuient sur des enregistrements de terrain, des objets sonores trouvés et des logiciels génératifs personnalisés. Sa musique a été jouée aux États-Unis, au Canada et en France par des ensembles de premier plan tels que Eighth Blackbird, l'American Wild Ensemble, l'Oberlin Contemporary Music Ensemble, le Cleveland Chamber Symphony et Le Nouvel Ensemble Moderne. Sa musique a reçu une forte reconnaissance et de nombreux prix, dont un BMI Student Composer Award, une commande ASCAP/SEAMUS, deux premiers prix du Austin Peay State University Young Composer's Award, le prix annuel de composition de l'American Modern Ensemble et le prix Nadia Boulanger du American Conservatory de Fontainebleau, en France. Christopher est titulaire d'un doctorat en composition de la Eastman School of Music, d'une maîtrise en composition de la Bowling Green State University et d'un baccalauréat en composition et théorie de l'Université de Richmond.
The Generative Sound File Player: A Corpus-Based Approach to Algorithmic Music
Le Generative Sound File Player est un outil de composition et de performance pour l'organisation algorithmique du son. Construit avec Max et intégrant la bibliothèque Bach et MuBu, le logiciel permet à l'utilisateur de charger, d'analyser et de contrôler paramétriquement la présentation d'un nombre illimité de fichiers sonores. Le nouveau langage de script de Bach (bach evaluation language on lllls), qui permet un contrôle riche et puissant du son grâce à une saisie de texte ou une interface graphique, est au cœur de ce système. Le logiciel se trouve à l'intersection de la musique générative, de la synthèse concaténative et de l'électronique interactive. Pour les ateliers du Forum Ircam 2020, je propose de faire une démonstration de ses fonctionnalités de base, de ses applications créatives et de ses capacités de spatialisation récemment développées.
Carlos Delgado
La musique de Carlos Delgado a été jouée lors de concerts, de festivals et d'émissions de radio en Argentine, en Australie, en Angleterre, en Finlande, en France, en Allemagne, en Hongrie, en Italie, au Japon, en Roumanie, en Espagne et aux États-Unis. Ses œuvres ont été présentées dans des lieux tels que le Merkin Recital Hall à New York, le 11e Symposium biennal sur les arts et la technologie : Giles Cripplegate / Barbican, à Londres, Angleterre ; la Rencontre Internationale de Science & Cinema (RISC) à Marseille, France ; le Festival Strada Facendo, à Pise, Italie ; la Semaine internationale de la musique contemporaine et les Journées mondiales de la musique contemporaine de la Société internationale pour la musique contemporaine à Bucarest, Roumanie ; le Théâtre BKA de Berlin, Allemagne. Ses œuvres électroacoustiques et acousmatiques ont également été incluses dans les éditions 2011, 2012 et 2013 du EMUFest au Conservatorio Santa Cecilia, Rome ; dans les festivals Festa Europea della Musica 2013 et 2014 à Rome ; et dans le New York City Electroacoustic Music Festival 2018.
Lauréat du prix de la série CD de la Society of Composers en 1996, ses œuvres ont été enregistrées par des artistes de renommée mondiale comme Emil Sein, Corrado Canonici, Roger Heaton et Beate-Gabriela Schmitt, et sont disponibles sur les labels New World Records, Living Artist, Capstone Records et Sonoton ProViva. Il s'est produit en tant qu'interprète sur ordinateur portable à Symphony Space et au Abrons Art Center (New York) ; à l'Institut culturel roumain Titu Maiorescu à Berlin ; au Festival Musica Senza Frontiere, à Pérouse ; et bien d'autres.
www.carlosdelgadomusic.com.
Multidimensional Movement: Gestural Control of Spatialization in Live Performance
Lev est un logiciel de contrôle gestuel que j'ai développé et qui permet le contrôle spontané du son, de la vidéo et de la spatialisation en direct. Lev prend les données vidéo de la caméra intégrée d'un ordinateur portable et les divise en trois matrices, disposées sous la forme d'une porte ou d'une barrière le long des bords extérieurs de son champ de vision. Chacune de ces matrices définit trois zones de lecture distinctes qu'un interprète en direct utilise pour générer des données qui contrôlent la sortie audio et vidéo de l'instrument. La zone de jeu de la main droite de l'interprète permet de contrôler la hauteur et la durée, tandis que la zone de la main gauche peut être mappée pour contrôler divers paramètres comme l'amplitude, le pitch-bend, le filtrage, la modulation, etc. La troisième matrice, située le long du bord supérieur du champ de vision de la caméra, relie les deux et définit une zone de contrôle pour la spatialisation (panoramique et réverbération). Les données gestuelles générées par les trois zones de lecture peuvent être mappées simultanément pour contrôler les paramètres de traitement vidéo tels que la chromakeie, la luminosité, le contraste, la saturation, etc. Le résultat est un spectacle multidimensionnel qui amplifie les gestes spontanés d'un interprète en direct en élargissant leur portée dans les domaines du son, de la localisation spatiale, du mouvement et de la vidéo. Le programme a été écrit en Max/MSP, et il porte le nom de Lev Termen, inventeur du Theremin.
François-Xavier Féron is researcher at the French National Centre for Scientific Research (CNRS). He is affiliated to Science and Technology of Music and Sound laboratory (STMS – CNRS, Ircam, Sorbonne université) and is member of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT).
Cédric Camier is an electroacoustic composer and research engineer in Acoustics affiliated to Saint-Gobain Recherche. He is also member of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT).
Catherine Guastavino is associate professor (William Dawson Scholar - School of Information Studies, McGill University) and member of the Centre for Interdisciplinary Research in Music Media and Technology (CIRMMT).
The sound centrifuge: spatial effects induced by circular trajectories at high velocity
"Si les révolutions du son dans l'espace dépassent un certain seuil de révolutions par seconde, elles deviennent autre chose" explique Karlheinz Stockhausen lors d'une conversation avec Jonathan Cott en 1971. Plus tard, le compositeur portugais Emmanuel Nunes, en étroite collaboration avec l'informaticien Eric Daubresse, expérimente à l'Ircam des sons se déplaçant à des vitesses très élevées et observe de nouveaux effets perceptuels. Ces expérimentations musicales nous ont inspiré à initier une ligne de recherche sur la perception des figures spatiales dès 2009. Grâce à une série d'expériences scientifiques contrôlées, menées au CIRMMT, nous avons pu documenter les mécanismes perceptifs en jeu pour suivre les sons en mouvement. Nous avons estimé les seuils de détection perceptive pour la réception auditive du mouvement et la perception de la vitesse et étudié l'influence de la réverbération, des techniques de spatialisation et des configurations de haut-parleurs. Tout au long de ce processus, de nouveaux outils basés sur une méthode de spatialisation hybride combinant la propagation numérique et le panoramique d'amplitude basé sur l'angle, ont été développés pour déplacer les sons autour de l'auditeur à très haute vitesse. A de telles vitesses, la fréquence de rotation est du même ordre de grandeur que les fréquences audibles. De nouveaux effets ont été obtenus en manipulant la position de l'auditeur, la direction de la rotation, la vitesse et la nature du matériau sonore à l'aide de notre "centrifugeuse sonore" sur mesure développée avec Max-MSP. Il s'agit notamment des ambiguïtés spatiales, du décalage Doppler du pitch-shifting et de la modulation d'amplitude induite par la variation apparente de la vitesse, de l'enrichissement du bois, du battement spatial (modulation d'amplitude en fonction de la fréquence de révolution et de la fréquence fondamentale du son) et d'un effet spatial wagon-roue, tous dépendant de la position de l'écoute. Ces effets ont d'abord été utilisés à des fins créatives dans deux pièces électroacoustiques multicanales du compositeur Cédric Camier créées en 2017 et 2019. Dans cette démonstration, les effets seront présentés de façon paramétrique comme des éléments centraux des études spatiales fondées sur la vitesse.
Sophie Dupuis et Emilie Fortin
Émilie Fortin est une musicienne et enseignante aventureuse qui explore toutes les facettes possibles de la trompette. Interprète et improvisatrice polyvalente, elle a contribué à la création de plus d'une vingtaine d'œuvres internationales avec divers compositeurs afin d'enrichir le répertoire de son instrument. Elle est également directrice artistique du collectif de solistes Bakarlari et membre du duo Violete (trompette/violon). Elle a participé à de nombreux ateliers avec, entre autres, l'International Contemporary Ensemble (Peter Evans), MusikFabrik (Marco Blaauw) et Ensemble Modern.
Sophie Dupuis est une compositrice du Nouveau-Brunswick qui s'intéresse à la musique artistique interdisciplinaire et à la musique pour petits et grands ensembles. Elle est reconnue pour sa technique impressionnante et son imagination débordante. Elle trouve sa voix dans son enfance passée dans les paysages pittoresques des Maritimes et, inversement, par son attirance pour les sons bruts, électriques et durs. Ses œuvres ont été jouées dans le cadre d'ateliers par le Toronto Symphony Orchestra et le Symphony Nova Scotia, et de concerts par des ensembles comme le duo aTonalHits, l'ensemble Array et Architek Percussion. Elle a été commandée et interprétée par Caution Tape Sound Collective, Thin Edge New Music Collective, et plus récemment par ECM+ pour leur tournée Generation2018.
Territoires connus est le fruit d'une étroite collaboration entre la compositrice canadienne Sophie Dupuis et la trompettiste Émilie Fortin. Les deux artistes s'intéressent vivement à l'exploration d'œuvres qui mettent en vedette les artistes dans leur intégralité, par le jeu, le théâtre et l'électronique.
Reconceptualiser une oeuvre interdisciplinaire : Known Territories 2.0.
En octobre 2017, Sophie Dupuis a composé la pièce Known Territories pour trompette, bande et deux danseurs.ses. L'oeuvre faisait référence aux souvenirs et à l'enfance; comment le futur est toujours lié au passé, et comment le présent est toujours chargé de ces deux dimensions. Known Territories fut présentée à Array Music (Toronto), la ville d'études à ce moment de la compositrice.Après plusieurs discussions, il devenait évident qu'il n'était pas nécessairement facile de faire voyager la pièce dû à l'effectif de base. C'est pour cela que Dupuis/Fortin a décidé d'en faire une version pour trompette solo et bande, mais sans rien enlever de la trame narrative de l'oeuvre de base.Cette bande est en fait composée d’extraits déclenchés à des moments spécifiques au cours de la pièce, afin de donner à Émilie l’espace pour s’exprimer librement à travers son jeu. Elle intégrera plusieurs éléments venant de la danse, du mime et du théâtre dans sa performance. Cette composition représente les souvenirs de l’enfance de Sophie passée dans un village rural du Nouveau-Brunswick, dans une maison isolée située sur un grand terrain qui semblait devenir féérique au crépuscule, avec ses chants de grenouilles et lucioles scintillantes. La mélancolie ressentie lorsque ces souvenirs lui reviennent, ainsi que le réconfort et l’inconfort à la fois, ont été transmis en musique.Known Territories sort des sentiers battus de la performance musicale traditionnelle, en demandant à l'interprète de dépasser ses limites physiques, tout en étant supporté.e par l’électronique qui ajoute une autre dimension à l’œuvre.
Nicola Giannini / Université de Montréal, CIRMMT
Nicola Giannini est un artiste sonore et un compositeur de musique électroacoustique basé à Montréal. Sa pratique s’articule autour de la musique immersive, acousmatique ou en direct. Il s’intéresse aux sons qui évoquent des matériaux physiques. Ses œuvres ont été présentées au Toronto International Electroacoustic Symposium (TIES), Akousma (Canadà), Cube Fest, ICMC, Nycemf (É.-U.), TEDxLondon, Sound-Image Colloquium, Serge Postgraduate Conference (R.-U.), Sound Spaces (Suède), File Festival (Brésil), Coloquio Internacional : Espacio-Inmersividad, Electroacoustic Music International Exhibition (Mexique), Museo Palazzo Strozzi, Audior, Tempo Reale (Italie), parmi d’autres. En juillet 2017, il a été compositeur invité à l'EMS de Stockholm.
Sa pièce Eyes Draw Circles of Light a obtenu le premier prix au concours Jeux de Temps / Times Play (JTTP) 2019 organisé par la Communauté électroacoustique canadienne et a reçu une mention d’honneur au Concours 2019 de la Fundación Destellos. Sa pièce For Hannah a été choisie comme finaliste au concours international de composition Città di Udine 2018.
Originaire d’Italie, Nicola est titulaire d’une maîtrise en composition électroacoustique du Conservatoire de Florence. Il est étudiant au doctorat à l’Université de Montréal sous la direction de Robert Normandeau et il est actuellement assistant de recherche au Groupe de recherche en immersion spatiale. Il est l'un des coordinateurs étudiants au CIRMMT pour l'Axe de recherche sur la pratique musicale élargie.
Eyes Draw Circles of Light, acousmatic piece for dome of speakers
Eyes Draw Circles of Light explore des aspects spécifiques de l’inconscient lorsqu’on est sur le point de s’endormir. Au moyen de la spatialisation sonore, la relation entre la psyché et le corps est évoquée. L’accent est sur ces mouvements involontaires rapides, les secousses hypniques, qui marquent ce moment. La pièce est le fruit d’une collaboration avec les artistes Elisabetta Porcinai et Alice Nardi, qui ont écrit un poème pour la pièce, et vise à trouver un équilibre entre élégance et expérimentation. Porcinai a interprété le texte. L'œuvre a été composée dans les studios de musique immersive de l'Université de Montréal.
Matthew D. Gantt / Rensselaer Polytechnic Institute, Harvestworks
Matthew D. Gantt est un artiste et compositeur basé à Troy, NY. Sa pratique se concentre sur la (dés)incarnation dans les espaces virtuels, les systèmes procéduraux facilités par la technologie idiosyncrasique et la nature récursive de la production et de la consommation numériques. Il a fait des présentations dans divers espaces institutionnels et locaux, notamment au Panoply Performance Laboratory, à Harvestworks, au New Museum, à The Stone, à Issue Project Room et à l'IRCAM Academy (via CIEE) et Koma Elektronik, entre autres.Il a été artiste en résidence à Pioneer Works, au Bard College et à Signal Culture, et il est actuellement candidat au doctorat de Rensselaer Polytechnic Institute. Gantt produit et distribue sa musique avec Orange Milk et Oxtail Recordings, et a travaillé comme assistant de studio du pionnier de l'électronique Morton Subotnick de 2016 à 2018.
Sound and Virtuality: Creative VR, Ambisonics and Expanded Composition
La réalité virtuelle offre au compositeur contemporain un certain nombre de possibilités au-delà de la création de jeux, de simulations ou de la simple musique "audiovisuelle". Cette démonstration présentera de nouvelles approches autour de l'application de techniques communes à la musique générative, au patch de style modulaire et à la composition électronique à des environnements immersifs par le biais de la passerelle OSC d'Unity/VR, Max/MSP, et Spat~/Panoramix de l'Ircam. Des démonstrations pratiques d'œuvres de RV en cours montreront à la fois des méthodologies "conviviales pour le compositeur" pour travailler avec le son spatialisé en temps réel et les médias immersifs, ainsi que de nouveaux cadres conceptuels pour aborder la RV contemporaine comme sculpture cinétique numérique, les médias immersifs comme site et partition simultanés pour la performance et la RV comme instrument sonore et salle de concert.
Louis Goldford / Columbia University
Louis Goldford est un compositeur de musique acoustique et mixte dont les œuvres s'inspirent souvent de l'illusion auditive, de la transcription et de la psychanalyse. Il a collaboré avec des ensembles tels que JACK Quartet, Ensemble Dal Niente, Ensemble Modelo62, Meitar Ensemble, Rage Thormbones, et Yarn/Wire. Ses projets récents incluent des créations avec l’Ensemble Talea de New York, le violoniste Marco Fusi à Paris, un concert avec les musiciens de la Cité des arts et du Conservatoire supérieur de Paris, ainsi qu’une création en collaboration avec l’Ircam dans le cadre du festival ManiFESTE en juin 2019.Ses œuvres ont été présentées dans de nombreux festivals de musique contemporaine à travers l’Europe et l’Amérique du Nord, ainsi que lors de conférences internationales. Louis a également joué comme saxophoniste et musicien électronique à Taïwan, en Pologne et aux États-Unis. Sa pièce Uncanny Valley (2014) pour orchestre a reçu une mention honorable par le Minnesota Orchestra Composers Institute 2017 et par l'American Composers Orchestra 2015/Underwood New Music Readings. Louis est actuellement bénéficiaire d’une bourse d’étude de l’Université Columbia à New York, où il étudie la composition avec Georg Friedrich Haas, Zosha Di Castri, George Lewis, Brad Garton et Fred Lerdahl. Lors d’ateliers et de leçons individuelles Louis a également bénéficié des enseignements de Brian Ferneyhough, Philippe Leroux, Yan Maresz, Chaya Czernowin et Magnus Lindberg. Plus d’info: louisgoldford.com.
Assisted Orchestration, Spatialization, and Workflow in Two Recent Compositions
Dans cette présentation se concentrant sur mes deux derniers travaux de 2019, je discuterai de mon utilisation étendu d'Orchidea, la dernière logiciel d'orchestration assistée de la lignée des outils Orch*, et de la spatialisation à l'aide d'OpenMusic et du package Spat~ de l’Ircam pour le Max.
« Au-dessus du carrelage de givre » pour ténor, électronique et vidéo, créé à la Soirée du Cursus à l'Ircam ManiFeste, le 18 juin 2019 au Centquatre à Paris; ainsi que « Dîtes-moi, comment ai-je empoisonné votre soupe ? » pour 12 musiciens et électronique, créé par l’Ensemble Talea à New York, le 31 mars 2019, au DiMenna Center for Classical Music. Des extraits de partitions, de sons et de vidéos seront présentés, ainsi que des exemples d'outils logiciels utilisés pour générer des passages spécifiques.
Étant donné que ces outils génèrent de nombreux fichiers intermédiaires, y compris les patches de Max et OpenMusic, les analyses et synthèses orchestrales et le travail sur le vidéo, il devient rapidement nécessaire d’organiser son flux de travail en studio de manière délibérée. Je proposerai des solutions pour la coordination et de la synchronisation des fichiers de projet sur de nombreux ordinateurs utilisant l'architecture de version control du type Git, en mettant l'accent sur la manière dont de tels outils peuvent être maîtrisés par les artistes et les créateurs.
Andrea Gozzi / SAGAS - University of Florence
Musicien et musicologue ; diplômé en musique de l'Université de Paris 8 Vincennes-Saint-Denis et membre de l'équipe du Tempo Reale, centre de recherche, de production et de pédagogie musicale de Florence, fondé par Luciano Berio. Doctorant à SAGAS (Université de Florence), Andrea Gozzi est également professeur de Sound Design à l'Académie LABA de Florence et professeur d'Histoire du Rock et de Sound Design à DAMS (Université de Florence). En tant que musicien, il a travaillé avec des artistes italiens et internationaux, aussi bien en live qu'en studio.participant à des événements tels que LIVE 8 à Rome en 2005, il a également joué en France, en Angleterre, en Allemagne et au Canada.il a publié des livres et des essais sur l'histoire du rock et des biographies musicales en Italie et au Canada.
Un espace de performance musicale constitue à la fois le cadre et le contenu de l'expérience de l'auditeur. D'autre part, l'environnement acoustique est impliqué dans des négociations continues qui diffèrent selon le rôle et la position de l'auditeur en tant que compositeur, interprète ou membre d'un public dans lequel il forme différemment l'image sonore de l'espace. L'empreinte acoustique d'un environnement musical spécifique ne peut être saisie qu'en tenant compte de ces différences. Les technologies numériques peuvent aider à tracer cette empreinte digitale par rapport au contexte artistique ainsi qu'à l'histoire et à l'identité de l'espace de représentation.
Mes recherches visent à proposer un modèle pour l'étude des environnements acoustiques à partir d'une étude de cas : le Teatro del Maggio Musicale Fiorentino à Florence. A cet égard, je suis actuellement deux voies complémentaires. La première est le développement d'une application qui propose un modèle acoustique interactif : l'utilisateur peut virtuellement explorer l'environnement acoustique du théâtre en choisissant entre la reproduction binaurale de 13 positions d'écoute différentes. La seconde concerne la perception acoustique et visuelle d'une représentation sur scène de la romanza "Una furtiva lagrima" de l'opéra L'elisir d'amore de Gaetano Donizetti. L'utilisateur vivra cette performance à partir de trois positions différentes dans le théâtre - sur scène, dans la fosse d'orchestre et dans les sièges du public - à travers un son tridimensionnel à 360 degrés, des vidéos à 360 degrés et la réalité virtuelle.
Florian Grond et Weslaw Woszcyk / McGill University
Florian Grond est un designer d'interaction qui travaille comme associé de recherche au département d'enregistrement sonore de l'École de musique Schulich de l'Université McGill. Ses recherches interdisciplinaires et ses intérêts en matière de conception se concentrent sur l'utilisation immersive du son. Il a plusieurs années d'expérience dans l'enregistrement sonore avec réseaux de microphones et la reproduction avec installations à haut-parleurs multiples. Il utilise actuellement son expertise en matière de capture et de mixage du son en 3D, en collaboration avec Randolph Jordan, pour le pavillon du Canada à la Biennale d'art de Venise de cette année. Depuis de nombreuses années, il est également actif en tant qu'artiste indépendant dans le domaine des médias, exposant ses œuvres dans le cadre d'expositions individuelles et collectives dans plusieurs lieux en Amérique du Nord, en Europe et en Asie. Ses projets artistiques et de recherche appliquent des pratiques sonores créatives à la conception participative multimodale dans le contexte du handicap, des arts et de la technologie d'assistance. Au cours des dernières années, il a entamé diverses collaborations avec des collègues handicapés de la communauté locale, du monde universitaire et des arts, qui ont débouché sur des résultats de recherche, des créations artistiques et le commissariat d'expositions.
Wieslaw Woszczyk est un chercheur et un éducateur reconnu au niveau international dans le domaine de l'audio. Il possède une expertise de premier plan dans les tendances technologiques émergentes en matière d'audio. Woszczyk est titulaire de la bourse de recherche James McGill et professeur titulaire à l'Université McGill. Il est le directeur fondateur du programme d'études supérieures en enregistrement sonore (1978) et le directeur fondateur du Centre de recherche interdisciplinaire sur les médias et la technologie musicale (CIRMMT), un centre de recherche interuniversitaire, interfacultaire et interdisciplinaire créé à l'Université McGill en 2001. Membre de l'AES depuis 1976, Woszczyk est membre de l'Audio Engineering Society (1996) et ancien président de son conseil technique (1996-2005), administrateur (deux fois, en 1991-1993 et 2008-2010) et président (2006-2007). Il a également fait partie du comité de révision du journal de l'AES. Woszczyk a reçu le prix du conseil d'administration en 1991 et un prix de citation de groupe en 2001 pour avoir été "le pionnier de la technologie permettant des performances multicanaux collaboratives sur l'Internet à haut débit".
Exploring the possibilities of navigating and presenting music performances with a 6DoF capture system
De nos jours, il est possible de capturer plusieurs champs sonores dans un espace de performance musicale en utilisant plusieurs réseaux de microphones synchronisés d'ordre supérieur, séparés dans l'espace. Avec un logiciel de post-traitement pour l'interpolation entre ces points de capture, cette nouvelle technologie est connue sous le nom de 6DoF, car elle offre 3 degrés de liberté translationnelle à travers la scène, en plus des 3 degrés de liberté de rotation déjà existants dans un seul point. Ceci offre de nouvelles possibilités dans l'étape de post-production en ce qui concerne la sélection à partir de la capture et l'équilibrage de la scène acoustique enregistrée. Dans le contexte de la RV, 6DoF offre de nouvelles possibilités pour immerger l'auditeur dans un contenu audio original qui couvre un espace étendu, par exemple des ensembles orchestraux. Cela donne aux auditeurs la possibilité d'explorer l'espace du spectacle avec leurs propres stratégies de navigation à l'aide d'outils interactifs permettant la rotation et la translation. En fonction de la résolution spatiale de la capture du champ sonore, un éventail de possibilités est possible pour l'équilibrage du son, y compris les variations de perspective, la séparation des sources et de l'ambiance, le degré de netteté et la diffusion de l'image dans une présentation 3D. Les auteurs partageront les résultats de l'exploration des captures 6DoF à l'aide de réseaux de microphones Ambisonics de premier et de troisième ordre à plusieurs endroits d'un espace de représentation. Ils discuteront également de divers compromis qui pourraient être envisagés pour améliorer davantage la qualité et la souplesse de la capture de la musique par le biais de champs sonores multiples. Des réflexions seront également prises en compte en ce qui concerne les reproductions dans des formats standard basés sur les canaux pour les projections sonores 2D et 3D.
Catherine Guastavino, Valérian Fraisse (McGill University, CIRMMT), Simone D’Ambrosio, Etienne Legast (Audiotopie) & Maryse Lavoie (Ville de Montréal)
Catherine Guastavino est professeure agrégée à l'École d'études de l'information de l'Université McGill, membre du Centre interdisciplinaire de recherche sur les médias musicaux et la technologie (CIRMMT) et membre associée de l'École de musique McGill Schulich. Ses sujets de recherche touchent à la perception et la cognition auditives, le paysage sonore, l'audition spatiale et l'audio spatiale, la psychologie musicale et la perception multisensorielle. Valerian Fraisse a obtenu sa maîtrise de sciences en technologie de la musique (ATIAM) à l'IRCAM et a été stagiaire de recherche à McGill pendant l'été 2019. Simone d'Ambrosio et Etienne Legast sont des compositeurs du collectif d'art Audiotopie, spécialisé dans l'art sonore dans les espaces publics. Maryse Lavoie est agente de contrôle du bruit pour la Ville de Montréal et ancienne membre du CIRMMT. Elle a obtenu un doctorat en psychoacoustique de l'Université de Montréal sur le timbre de guitare classique.
L’art sonore spatial dans les espaces publics
Nous présenterons une collaboration interdisciplinaire entre McGill, Audiotopie et l'arrondissement Plateau-Mont-Royal autour de la conception et de l'évaluation des installations sonores spatiales à Montréal. A l'été 2019, la nouvelle place des Fleurs-de-Macadam a été équipée d'un sonomètre pour la surveillance acoustique et la mise en place de 8 enceintes Dryade développées par Audiotopie. L'analyse des questionnaires préalablement collectés sur place et le suivi acoustique ont permis d'identifier les principales activités réalisées tout au long de la journée à l'intérieur et autour de la place. Ces résultats ont éclairé le processus de composition en termes d'évolution temporelle au cours de la journée afin que l'art sonore résonne dans les ambiances désirées. Deux stratégies de composition contrastées, identifiées dans la littérature, ont été déployées, à savoir une composition statique intégrée, destinée à se fondre dans le paysage sonore ambiant, et une composition spatiale oppositionnelle, destinée à émerger et à attirer l'attention à mesure que les utilisateurs se déplacent dans l'espace.
Un total de 700 questionnaires, recueillis auprès des passants avant et pendant l'installation, ont révélé que la place publique était perçue comme plus agréable, plus calme et moins bruyante en présence de l'art sonore. Ces résultats mettent en évidence le potentiel de façonner délibérément les espaces publics à l'aide de l'art sonore. Le travail a été réalisé dans le cadre du partenariat Sounds in the city, qui réunit des chercheurs, des artistes du son, des artisans et des usagers de la ville, afin d'examiner le son urbain dans une perspective nouvelle et axée sur les ressources et de trouver des solutions créatives pour rendre les villes plus saines.
Rob Hamilton / Rensselaer Polytechnic Institute
Le compositeur et chercheur Rob Hamilton explore les espaces convergents entre le son, la musique et l'interaction. Sa pratique créative comprend des œuvres d'interprétation en réalité virtuelle et mixte construites dans des environnements de jeu en réseau entièrement rendus, des moteurs de musique procédurale et des écosystèmes musicaux mobiles. Ses recherches portent sur les implications cognitives du geste et du mouvement musical sonifié et sur le rôle de l'espace perçu dans la création et le plaisir du son et de la musique. M. Hamilton est titulaire d'un doctorat du Center for Computer Research in Music and Acoustics (CCRMA) de l'Université Stanford et est actuellement professeur agrégé de musique et de médias au département des arts du Rensselaer Polytechnic Institute à Troy, NY.
Virtual Instrument Design for the 21st Century
Cette présentation décrira la conception, le développement et la mise en œuvre d'une série d'instruments de musique en réalité virtuelle appelée Coretet. Coretet est un instrument de réalité virtuelle qui explore la traduction du geste et de la mécanique de performance des instruments à cordes à archet traditionnels en une mise en œuvre intrinsèquement non physique. Construit à l'aide d'Unreal Engine 4 et de Pure Data, Coretet offre aux musiciens un instrument de musique souple et articulé ainsi qu'un environnement de représentation en réseau capable de soutenir et de présenter un quatuor à cordes traditionnel de quatre membres. Cette conférence traite de la mise en œuvre technique du Coretet et explore les possibilités musicales et performatives rendues possibles par la traduction de la conception d'instruments physiques en réalité virtuelle et réalisées dans la composition Trois Machins de la Grâce Aimante (Coretet n° 1).
Lena Heng, Stephen McAdams (McGill University)
Lena prépare actuellement un doctorat interdisciplinaire au Laboratoire de perception et de cognition de la musique de l'Université McGill, sous la supervision du professeur Stephen McAdams. Leurs intérêts de recherche portent sur la perception du timbre, l'herméneutique musicale, la représentation cognitive et la perception des émotions en musique. En tant que membre de la Ding Yi Music Company et professeur auxiliaire à l'Académie des Beaux-Arts de Nanyang, ils sont particulièrement soucieux d'intégrer leurs intérêts de recherche à la performance, la compréhension musicale et l'écoute. Leur travail sur cet aspect leur a valu le prix Research Alive de l'École de musique Schulich de McGill en 2018/19.
Avant leurs études supérieures, Lena a obtenu un B.Mus (avec mention) de l'Académie des Beaux-Arts de Nanyang sous la direction de M. Wong Sun Tat, et un B.Soc.Sci (avec mention) en psychologie de l'Université nationale de Singapour. En 2016, Lena a reçu la Bourse d'études supérieures en arts du CNA ainsi que la Bourse d'excellence aux cycles supérieurs de l'Université McGill et le Prix d'excellence aux étudiants de l'Université McGill pour leurs études à l'Université McGill.
Présentations à la conférence : SMPC 2019 ; ICTM 2016.
Chapitre de livre : Négociations au sein de la sphère culturelle de Singapour : Études de cas (en version imprimée).
Timbre’s function in perception of affective intents. Can it be learned?
Le timbre a été identifié par les spécialistes de la perception musicale comme un élément important dans la communication de l'affect en musique. Bien que sa fonction en tant que support d'informations perceptuellement utiles sur la mécanique des sources sonores ait été établie, les études visant à déterminer si et comment il fonctionne en tant que support d'informations pour communiquer l'affect dans la musique n'en sont encore qu'à leurs débuts. Si le timbre fonctionne comme un vecteur de contenu affectif dans la musique, la façon dont il est utilisé peut s'apprendre différemment selon les différentes traditions musicales. La quantité d'informations que le timbre porte sur les différentes parties d'une phrase peut également varier en fonction du contexte musical.
Pour étudier cette question, trois groupes d'auditeurs ayant une formation musicale différente (musiciens chinois, musiciens occidentaux et non musiciens, n = 30 par groupe) ont été recrutés pour une expérience d'écoute. On leur a présenté a) des phrases et des mesures, et b) des notes individuelles, d'extraits enregistrés interprétés avec diverses intentions affectives par des interprètes d'instruments occidentaux et chinois.
Ces extraits ont été analysés pour déterminer les aspects acoustiques qui sont corrélés avec les caractéristiques du timbre. L'analyse a révélé une utilisation constante des attributs temporels, spectraux et spectrotemporels dans l'évaluation de l'intention affective en musique, ce qui suggère une utilisation ciblée de ces propriétés dans les sons par les auditeurs. La comparaison entre les différentes perceptions des auditeurs entre les notes et les segments plus longs a également révélé des différences de perception selon le contexte musical. La manière dont le timbre est utilisé pour la communication musicale semble donc être impliquée différemment selon les traditions musicales. L'importance des jeux de timbre semble également varier selon les différentes positions d'une phrase musicale.
Erica Y. Huynh (McGill University), Joël Bensoam (IRCAM), Stephen McAdams (McGill University)
Erica Huynh est étudiante en technologie musicale (interdisciplinaire) à l'École de musique Schulich de l'Université McGill. Sa thèse poursuivra la recherche menée durant sa maîtrise au Laboratoire de perception et de cognition musicale, sous la direction du professeur Stephen McAdams, et en collaboration avec Joël Bensoam de l'IRCAM. Ses recherches visent à comprendre comment les nouveaux stimuli sont incorporés dans les modèles mentaux des sons des auditeurs et comment les catégories d'action et les catégories d'objets sont façonnées par ces modèles mentaux.
Bowed plates and blown strings: Odd combinations of excitation methods and resonance structures impact perception
Comment nos modèles mentaux limitent-ils notre perception des sons dans le monde physique ? Nous avons évalué la perception des sons synthétisés par l'une des méthodes les plus convaincantes : la modélisation physique. Nous avons utilisé Modalys, une plateforme de modélisation physique numérique, pour simuler les interactions entre deux classes de propriétés mécaniques des instruments de musique : les méthodes d'excitation et les structures de résonance. La méthode d'excitation met en vibration la structure de résonance, qui agit comme un filtre qui amplifie, supprime et irradie les composantes sonores. Nous avons simulé et couplé trois méthodes d'excitation (archet, soufflage, frappe) et trois structures de résonance (corde, colonne d'air, plaque), formant ainsi neuf interactions excitation-résonateur.
Ces interactions étaient soit typiques des instruments de musique acoustiques (p. ex., cordes à archet), soit atypiques (p. ex., plaque soufflée). Les auditeurs ont évalué la mesure dans laquelle les stimuli ressemblaient à des excitations de type archet, soufflage et frappe (expérience 1), ou la mesure dans laquelle ils ressemblaient à des résonateurs à cordes, à colonne d'air et à plaque (expérience 2). Ils ont attribué les cotes de ressemblance les plus élevées : (1) aux excitations qui ont réellement produit le son et (2) aux résonateurs qui ont réellement produit le son. Ces effets étaient les plus forts pour les stimuli représentant des interactions excitation-résonateur typiques. Cependant, les auditeurs ont confondu différentes excitations ou différents résonateurs les uns pour les autres pour des stimuli représentant des interactions atypiques. Nous examinons comment les données perceptuelles peuvent informer les approches de modélisation physique, étant donné que Modalys transmettait efficacement les excitations et les résonateurs d'interactions typiques mais non atypiques. Nos résultats soulignent que nos modèles mentaux pour la façon dont les instruments de musique sont joués sont très spécifiques et limités à l'exposition antérieure et à la plausibilité mécanique perçue des interactions excitation-résonateur.
Jack Kelly (McGill University)
Jack Kelly est doctorant au sein du département de recherche musicale de l’Université McGill, dans le domaine de l'enregistrement sonore. Ses recherches portent sur la présence comme attribut perceptuel dans la reproduction musicale immersive. À l'aide d'un logiciel de réverbération à convolution à 22 canaux, et un ensemble d'enregistrements anéchoïques tridimensionnels d'instruments acoustiques, son travail vise à mieux comprendre les interactions entre la reverberation et la source-sonore, dans le but d'acquérir une compréhension plus approfondie des facteurs qui forment la sensation «d'être là» dans les expériences musicales virtuelles. Jack est un ingénieur de l'enregistrement de la musique classique, actif depuis 2013. Il a reçu un M.mus en enregistrement sonore (programme Tonmeister) de McGill (2016). Son intérêt pour ce domaine est né de sa formation en composition et en performance, développée pendant son baccalauréat en études électroacoustiques (2012) à l'Université Concordia.
SPAT tools for presence research in immersive music reproduction
Les médias immersifs sont devenus de plus en plus familiers au consommateur moyen. Cependant, les techniques et technologies utilisées pour développer le contenu des médias immersifs n'en sont qu'à leurs débuts. Cela souligne la nécessité de disposer d'outils permettant aux artistes et aux ingénieurs de créer des contenus 3D attrayants, qui se fait de plus en plus sentir. L'un des principaux défis pour les créateurs de contenu est de produire des expériences auditives permettant à l'auditeur de ressentir un sentiment de "présence" dans l'environnement virtuel. Pour éclairer cette question, des recherches sur la sensation de présence de l'auditeur dans la reproduction musicale acoustique tridimensionnelle sont en cours. Des recherches exploratoires ont été menées pour mettre en évidence les aspects de la relation entre le son direct et la réverbération qui ont la plus grande influence sur la sensation de présence de l'auditeur. Afin de mener cette recherche, un outil a été nécessaire pour créer et manipuler la réverbération immersive en temps réel. Le développement de cet outil a été rendu possible grâce à une collection d'objets issus de la boîte à outils SPAT de l'IRCAM, mise en œuvre dans Max MSP. Cette présentation explorera comment SPAT5 / SPAT Revolution est utilisé pour la recherche de présence dans la musique immersive. Les sujets abordés comprendront la génération et la spatialisation des premières réflexions, la convolution de la réponse impulsionnelle sur 22 canaux, la spatialisation des réseaux de microphones basés sur les canaux et la binauralisation.
Mantautas Krukauskas / Lithuanian Academy of Music and Theatre, Music Innovation Studies Centre
Mantautas Krukauskas (né en 1980) est compositeur et artiste sonore, professeur au département de composition de l'Académie lituanienne de musique et de théâtre, ainsi que directeur du Centre d'études sur l'innovation musicale. Ses compositions, y compris la musique de chambre, les œuvres d'art audiovisuel et sonore, la musique pour les productions théâtrales ont été jouées en Lituanie, en Autriche, en Allemagne, en France, au Canada, aux États-Unis et dans d'autres pays. Mantautas Krukauskas a participé activement à diverses activités d'organisation, y compris la coordination de projets, l'organisation d'événements, la participation à des programmes internationaux artistiques, de recherche et d'éducation. Ses intérêts comprennent l'interdisciplinarité, la créativité, la musique et les technologies des médias, ainsi qu'une synergie de différentes approches esthétiques et culturelles.
Some conceptions for effective use of immersive sound techniques for music composition and orchestration
Les technologies sonores immersives et spatiales sont de plus en plus utilisées, en particulier dans la composition de musique électroacoustique. Bien que le son spatial soit largement considéré comme un domaine relativement nouveau, ses racines remontent à des temps beaucoup plus anciens, également dans la musique orchestrale. L'accessibilité de nouveaux outils avec des interfaces intuitives a élargi les possibilités des compositeurs de travailler avec l'analyse et la modélisation de la spatialisation sans une courbe d'apprentissage abrupte et des connaissances spécialisées profondes. Cela nous a permis de déplacer notre attention des défis technologiques vers les défis artistiques. D'un côté, surtout dans le domaine de la musique acousmatique, la majeure partie de la recherche concerne les aspects techniques plutôt que le contenu lui-même ; de l'autre côté, nous avons des enquêtes et des aperçus plus abstraits sur les conceptions de l'espace en musique. Les études qui concernent les techniques de spatialisation, ainsi que l'application des découvertes en audio spatial à la musique acoustique et à l'orchestration sont assez rares. Le savoir-faire existant est principalement détenu par des experts et est partagé de manière essentiellement interpersonnelle.
L'auteur de cette présentation travaille activement avec la spatialisation depuis 2013, ce qui a contribué à l'acquisition d'une expertise de diverses techniques d'adaptation et de mélange de matériaux sonores dans l'espace 3D. Le champ de travail comprend également l'exploration de l'espace comme paramètre de composition, le travail avec la musique et le son dans des contextes interdisciplinaires, etc. Cette expérience a conduit à la découverte de certaines tendances et orientations pour une application artistiquement efficace des techniques sonores immersives, tant pour l'audio spatial que pour la composition et l'orchestration traditionnelles.
Cette présentation se concentrera sur la définition des contextes artistiques les plus répandus pour l'application spatiale du son et décrira les techniques de spatialisation qui mènent à un impact artistique efficace. L'auteur montrera également quelques modèles et expérimentations de principes architecturaux sonores immersifs pertinents pour la composition et l'orchestration de musique acoustique.
Hanna Kim / Université de Toronto
Saluée comme " véritablement inspirée " par Ludwig van Toronto pour son travail de composition en collaboration avec la University of Toronto Opera Division en 2018, la compositrice Hanna Kim englobe un large éventail de styles traditionnels, néo-romantiques, minimalistes et d'improvisation pour son travail de composition. Elle a reçu plusieurs prix, dont la bourse commémorative Lothar Klein en composition de 2019, le concours de composition de la cathédrale St. James de 2019, la bourse Miriam Silcox de 2014 et le concours de composition Joseph Dorfman de 2013 (Allemagne). Hanna a remporté de nombreux appels de partitions, et s’est vu demandé la composition de nouvelles œuvres pour des concerts de différents styles. Née en Corée du Sud, elle travaille actuellement sur son doctorat (DMA) à l'Université de Toronto au Canada. En plus de sa passion pour la musique, Kim est également une musicienne d'église active. Elle est actuellement Ministre de la Musique à l'Église baptiste Calvary de Toronto.
Timbre Saturation for Chamber Orchestra
Ma présentation portera sur une nouvelle pièce pour orchestre de chambre que j'ai écrite comme thèse pour mon doctorat à l'Université de Toronto. Cette pièce porte spécifiquement sur l'économie réalisée grâce à l'utilisation efficace des instruments. L'oeuvre s'adresse à un plus petit nombre de musiciens que l'orchestre standard. Habituellement, lorsqu'il s'agit de marquer des progressions d'accords pour un grand orchestre, deux méthodes sont courantes : l'une consiste à doubler et l'autre à harmoniser. Mon projet de composition s’interroge sur si ces pratiques courantes ne causent pas une surcharge sonore. De plus, que se passe-t-il si un compositeur élimine des éléments mélodiques/intervalles qui pourraient être considérés comme du " gaspillage ", comme le doublage ? En cherchant à créer l'orchestration la plus économique, le but de ce projet est de proposer une solution pour optimiser les effets et les couleurs de l'orchestre avec un nombre limité d'instruments. De plus, mon travail de thèse s'appuiera sur le nombre minimum d'instruments pour qu'une pièce de grand ensemble soit aussi efficace qu'un orchestre de taille normale, en mettant l'accent sur l'utilisation des couleurs (timbre). La pièce nécessitera vingt-huit musiciens : 1ère flûte, 2ème flûte (+ picc), cor anglais, 1ère clarinette en Sib, 2ème clarinette en Sib, 3ème clarinette en Sib (+ cl basse), saxophone ténor, basson, 1er cor, 2ème cor, trompette en Ut, 1er trombone, 2ème trombone, mandoline, piano (+ céleste), harpe, 1ère percussion, 2ème percussion, timbales et cordes (le minimum de 2, 2, 2, 2, 1, et le maximum de 8-8-6-4-3). La pièce comportera trois mouvements. La durée de l'interprétation sera d'environ quinze minutes.
Dongryul Lee / University of Illinois at Urbana-Champaign
La musique de Dongryul Lee est profondément orientée autour des phénomènes acoustiques et de la pratique virtuose de l'interprétation classique. Il cherche à écrire une musique qui crée des expériences auditives profondes avec dramaturgie et pathos. Ses compositions ont été interprétées par des ensembles tels que l'Avanti !, Contemporanea, Jupiter, MIVOS, Paramirabo, Callithumpian Consort, GMCL Lisboa, S.E.M., Wellesley Conference Ensemble, Illinois Modern Ensemble. Il a obtenu le troisième prix du premier Concours mondial Bartók pour sa pièce Le Tombeau de Harvey, dont la première mondiale a eu lieu à l'Académie Liszt de Budapest en novembre 2018. Parmi les autres distinctions récentes, citons le Presser Foundation Award, qui soutiendra l'enregistrement et l'interprétation de Unending Rose avec le Kairos quartett (Berlin, mai 2020) ; le Prix spécial Piero Pezzé au douzième Concours international de composition Città di Udine (Italie, 2018) ; et le deuxième prix au troisième Concours international de composition GMCL (Portugal, 2017). Sa Quasi una Macchina a été interprétée par l'Ensemble S.E.M. (New York), le Callithumpian Consort (Boston), le GMCL (Lisbonne) ; sa Parastrata a été jouée dans quatre villes différentes en Europe et en Amérique du Nord.Lee est diplômé en informatique et en composition musicale, respectivement de l'université Yonsei et de l'école Eastman. Ses professeurs de composition comprennent Heinrich Taube, Stephen Taylor, Reynold Tharp, Erin Gee et Carlos Sanchez-Gutierrez. Il a suivi des master classes dirigées par Jukka Tiensuu, Hans Abrahamsen, Unsuk Chin, Oliver Knussen, Julian Anderson et Ben Johnston, ainsi que des séminaires de Tristan Murail, Mario Davidovsky et Helmut Lachenmann. Lee est le chercheur postdoctoral 2020-21 du Center for Contemporary Composition de l'Université de Chicago. Il a obtenu un diplôme de DMA à l'université de l'Illinois à Urbana-Champaign. Les projets à venir de Lee comprennent de nouvelles œuvres pour le Grossman Ensemble (Chicago), l'Axiom Quintet (Chicago), Miranda Cuckson (New York) et le Callithumpian Consort (Boston) qui seront créées en 2021.
A Thousand Carillons: Acoustical Implementation of Bell Spectra Using the Finite Element Method and Its Compositional Realization
Je présenterai une implémentation de cloches virtuelles, basée sur la Méthode des Eléments Finis de l'ingénierie physique. La MEF a été largement utilisée en analyse d'ingénierie et en acoustique, en particulier pour la création et l'optimisation de carillons. En commençant par une brève introduction de la musique spectrale inspirée des sons de cloches, je présenterai les bases théoriques de la MEF et son application aux éléments isoparamétriques 2-D, y compris le Principe du Travail Virtuel et les fonctions de forme de la MEF. La création de géométries virtuelles 3D de cloches avec analyse structurelle, et leur processus d'optimisation suivront, avec un fond acoustique sur la campanologie.
Pour mes réalisations informatiques, je suis les recherches révolutionnaires de Schoof et Roozen-Kroon ; leurs recherches ont constitué la base sur laquelle le premier prototype de la troisième cloche principale a été conçu et coulé. Une brève introduction de l'accordage juste et du 72 TET dans le seuil de 5 cents sera analysée, pour la création de profils spectraux de couleurs optimales de la tonalité de la cloche. La présentation sera accompagnée d'exemples originaux de SuperCollider et d'images de géométries de cloches créées en multiphysique COMSOL, pour visualiser et sonifier les caractéristiques des cloches et de leurs sons.
Stephen McAdams, Meghan Goodchild, Alistair Russell, Beatrice Lopez, Kit Soden, Er Jun Li, Alfa Barri, Shi Tong Li, Félix Baril (McGill University)
Stephen McAdams a étudié la composition et la théorie de la musique avec Julia Hansen au De Anza College en Californie (1971-1973) avant de se tourner vers le domaine de la psychologie de la perception (BSc en psychologie, Université McGill, 1977; PhD en sciences de l'audition et de la parole, Université Stanford, 1984). Il a également étudié la musique électronique avec alcides lanza et Edgar Valcárcel à l'Université McGill (1975-1976). En 1986 il a fondé l'équipe Perception et cognition musicales à l'Ircam, un institut de recherche musicale de renommée internationale à Paris. Il a organisé le premier congrès sur la musique et les sciences cognitives à l'Ircam en 1988, ce qui a donné naissance au trois sociétés savantes internationales dédiées à la perception et la cognition musicales. Il était Chargé de Recherche et puis Directeur de Recherche au CNRS en France de 1989 à 2004. Il s'est installé à l'Université McGill en 2004 où il est Professeur et Chaire de recherche du Canada en Perception et cognition musicales. Il a dirigé le Centre interdisciplinaire de recherche en musique, médias et technologie (CIRMMT) à l'Ecole de musique Schulich de 2004 à 2009. Ses problématiques de recherche comprennent l'analyse de scènes multimodale, la perception du timbre musical, la perception des sources sonores et la dynamique cognitive et affective de l'écoute musicale.
The Orchestration Analysis and Research Database (Orchard)
Afin de fournir un outil de recherche sur le rôle des effets de groupement auditif dans la pratique d'orchestration et sur le rôle du timbre en tant que force structurante de la musique, une base de données en ligne unique en son genre a été créée et une taxinomie et une méthodologie d'analyse ont été établies. La taxonomie comprend des processus de groupement de trois types : simultané, séquentiel et segmental. Ceux-ci jouent un rôle dans les mélanges sonores qui donnent naissance à de nouveaux timbres par la fusion perceptive, la séparation des voix sur la base du timbre, l’intégration de multiples lignes instrumentales dans des textures de surface, la formation de couches de proéminence variable sur la base de l'instrumentation et le registre, et l'orchestration progressive dans les gestes à plus grande échelle. La taxinomie a servi à la création du modèle de données pour la base de données. Des partitions de 85 mouvements orchestraux allant de Haydn à Vaughan Williams ont été analysées, tout en écoutant des enregistrements commerciaux, par des experts en équipes de deux qui analysaient les partitions individuellement, puis confrontaient leurs résultats avant de les entrer dans la base de données. L'utilisateur peut construire des requêtes hiérarchiques à différents niveaux de la taxinomie, plus le compositeur, la pièce, le mouvement et l'instrumentation. Les résultats des requêtes affichent la partition annotée sur la page appropriée et fournissent un extrait sonore des mesures correspondantes de l'enregistrement commercial utilisé dans l'analyse. La base de données s'est avérée utile pour explorer la diversité de chaque effet orchestral et pourrait être utilisée pour la fouille de données et l'apprentissage par machine pour la découverte de connaissances.
Landon Morrison / Harvard University
Landon Morrison est membre du Collège de l'Université Harvard, où il a récemment commencé à enseigner après avoir complété son doctorat en théorie musicale à l'École de musique Schulich de l'Université McGill à Montréal. Sa thèse, intitulée " Sons, signaux, signes : Les courants transducteurs dans la post-Spectral Music à l'Ircam ", examine la relation entre la composition contemporaine de l'évolution technologique et de la psychoacoustique dans le contexte de la musique créée à l'Institut de Recherche et Coordination Acoustique/Musique (Ircam). En général, ses recherches visent à faire de la théorie de la musique et des études des médias une dialogue qui suit le flux transductif des sons dans les nouveaux environnements médiatiques. Les récentes publications et celles à venir comprennent des articles analytiques dans Circuit : musiques contemporaine, Nuove Musiche et Music Theory Online, ainsi qu'un chapitre sur l'histoire de la quantification du rythme qui sera publiée dans l'Oxford Handbook of Time in Music.
Dans un article de Jonathan Harvey's Speakings (2008), Gilbert Nouno et al. documentent les résultats d'un projet collaboratif de l'Ircam mené par " l'objectif artistique de faire parler un orchestre à travers des processus informatiques musicaux" (2009). La musique qui s'ensuit met en scène cet objectif, dépeignant un programme audible où l'orchestre progresse à travers les étapes du "babillage" de bébé, du "bavardage" des adultes et, finalement, du "langage rituel" sous la forme d'un mantra tibétain. Retournant ce récit, mon article prend Speakings comme point de départ pour une analyse généalogique des techniques d'orchestration assistée par ordinateur, montrant comment, pour faire parler un orchestre, il fallait d'abord faire écouter un logiciel.
Par un examen attentif des documents d'archives et des "e-sketches", je suis la transition de Harvey d'une configuration logicielle hybride (Melodyne et un programme de suivi partiel personnalisé) vers la nouvelle application Orchidée (Carpentier et Bresson 2010), qui utilise notamment des méthodes de recherche d'information musicale (MIR). J'encadre ce changement par rapport à la théorie du format (Sterne 2012), en montrant comment les catégories utilisées pour coder les fichiers sonores avec des descripteurs audio des attributs timbraux de bas niveau (spectral, temporel et perceptuel) dépendent elles-mêmes d'un certain nombre de facteurs, notamment : a) des couches sédimentaires de recherche en psychoacoustique fondées sur les mesures de similitude des timbres (Wessel 1979) ; b) une délégation de ces connaissances aux outils logiciels de l'Ircam, que l'on retrouve déjà avec l'application de l'algorithme de Terhardt dans le programme IANA (Terhardt 1982) ; et c) le réseau élargi des négociations institutionnelles entourant la création de formats de fichiers normalisés comme le protocole MPEG-7 (Peeters 2004).
Ben Neill (Ramapo College of New Jersey)
Le compositeur-interprète Ben Neill est l'inventeur de la Mutantrumpet, un instrument électroacoustique hybride, et est largement reconnu comme un innovateur musical à travers ses enregistrements, performances et installations. La musique de Neill mélange les influences de l'électronique, du jazz et de la musique minimaliste, estompant les frontières entre les performances des médias numériques et des instruments acoustiques.
Neill a commencé à développer la mutantrumpet au début des années 1980 avec l'inventeur du synthétiseur Robert Moog. En 1992, alors qu'il était en résidence au laboratoire de recherche et développement de STEIM à Amsterdam pour de nouveaux instruments, Neill a réalisé une nouvelle version entièrement interactive sur ordinateur. En 2008, il crée un nouvel instrument chez STEIM et y revient en 2016-17 pour concevoir la dernière version.Actuellement artiste en résidence au programme Nokia Bell Labs Experiments in Art and Technology, Neill a enregistré onze CD sur des labels comme Universal/Verve, Thirsty Ear, Astralwerks et Six Degrees. ITSOFOMO, sa pièce majeure créée en 1989 en collaboration avec le plasticien David Wojnarowicz, a récemment été présentée au Whitney Museum. D'autres performances comptent parmi le BAM Next Wave Festival, Big Ears Festival, Bing Concert Hall Stanford University, Lincoln Center, Whitney Museum of American Art, Cite de la Musique Paris, Moogfest, Spoleto Festival, Umbria Jazz, Bang On A Can Festival, ICA London, Istanbul Jazz Festival, Vienna Jazz Festival, et Edinburgh Festival. Neill a travaillé avec de nombreux innovateurs musicaux dont La Monte Young, John Cage, John Cale, Pauline Oliveros, Rhys Chatham, DJ Spooky, David Berhman, Mimi Goese, King Britt et Nicolas Collins. Neill dirige les concerts de Young's The Second Dream avec un ensemble international de cuivres.
Fantini Futuro
Fantini Futuro est une nouvelle œuvre de performance audiovisuelle pour Mutantrumpet V4 de Ben Neill, contre-ténor, claviers baroques et projections vidéo interactives. Il est en cours de création pour l'antichambre 64 canaux de Nokia Bell Labs où Neill est artiste en résidence dans le programme Experiments in Art and Technology. La pièce est basée sur la musique et la vie du trompettiste/compositeur baroque Girolamo Fantini, qui a amené la trompette de la chasse et du champ de bataille à l'intérieur du royaume de la musique artistique. Fantini était une célébrité musicale de son temps, et a écrit l'une des premières collections de musique écrite pour trompette seule ainsi qu'avec des claviers. Il a également été le pionnier de l'utilisation des muets pour élargir la gamme dynamique de l'instrument pour une utilisation en intérieur, ainsi que de nombreuses autres techniques de jeu. Fantini Futuro remixe et collage le matériel de Fantini, aussi bien en composition qu'en temps réel pendant l'exécution par le biais de l'échantillonnage live. L'œuvre établit des liens entre l'énergie dynamique des premiers vocabulaires musicaux et architecturaux baroques et les modèles et processus minimalistes, en réfléchissant sur les pratiques d'interprétation musicale improvisée de l'époque de Fantini à travers une variété de technologies interactives. La composante visuelle est principalement composée d'images architecturales provenant de lieux où Fantini a vécu et joué. L'imagerie architecturale animée est contrôlée en direct de la Mutantrumpet de Neill et crée la sensation que les interprètes se trouvent dans des mondes virtuels créés à partir de ces éléments historiques.
Jason Noble (McGill University)
Jason Noble a été décrit comme "un maître de la traduction des sentiments et de la transmission des émotions par la musique", et ses compositions ont été qualifiées de "succès remarquable, voire brillant, coloré, étonnant, stimulant". Son travail recherche l'équilibre entre innovation et accessibilité, motivé par la conviction que la musique contemporaine peut être à la fois véritablement progressiste et communicative. Chœur de toute une vie et chef d'orchestre à l’occasion, Jason a composé pour les meilleures chorales du Canada, y compris des messes pour Pro Coro Canada (Edmonton) et Christ Church Cathedral Choir (Montréal, QC), et travaille pour le Vancouver Chamber Choir (Vancouver, BC), Amabile Choirs (London, ON), Soundstreams (Toronto, ON), voces boreales (Montreal), Nova Voce (Halifax, NS) et Newman Sound (St. John's, NL).
Ses compositions ont été interprétées au Canada et aux États-Unis, en Argentine, au Mexique, en France, en Belgique, aux Pays-Bas, en Allemagne, au Danemark et en Italie, et ont fait l'objet de publications, d'enregistrements et de diffusions. Il a participé à de nombreuses résidences, dont Pro Coro Canada au Banff Centre, l'Orchestre symphonique de Banff et l'Orchestre symphonique de Montréal John's International Sound Symposium, le Bathurst Chamber Music Festival, le Edge Island Festival for Choirs and Composers, la Newfoundland and Labrador Registered Music Teachers' Association et le Sudbury Symphony Orchestra.
Chercheur accompli, Jason est actuellement chercheur postdoctoral à l'Université McGill, travaillant sur le projet ACTOR (Analyse, création et enseignement de l'orchestration). Son doctorat à McGill a été financé par la prestigieuse Bourse d'études Vanier (CRSH). Ses recherches sont publiées dans Music Perception et Music Theory Online. Il est intervenu lors de nombreuses conférences nationales et internationales et a été invité à donner des conférences.
A case study of the perceptual challenges and advantages of homogeneous orchestration: fantaisie harmonique (2019) for two guitar orchestras
L’orchestration est définie par Stephen McAdams comme "le choix, la combinaison ou la juxtaposition de sons pour atteindre un but musical". Ceci évoque typiquement une palette de sons hétérogènes, en particulier ceux des instruments de l'orchestre symphonique, mais la définition de McAdams s'applique également aux palettes sonores homogènes rencontrées dans des ensembles de composition uniforme, tels que l'orchestre de guitare. Étant donné que les effets orchestraux fondés sur la différence de perception - comme la stratification et la segmentation - reposent souvent sur l'hétérogénéité timbrale, l'orchestration d'ensembles homogènes présente un ensemble différent de défis lorsque de tels effets sont souhaitables. D'autre part, comme les effets orchestraux fondés sur la similitude perceptuelle - comme le mélange et l'intégration des textures - sont facilités par l'homogénéité timbrale, l'orchestration d'ensembles homogènes peut présenter de nombreux avantages.
Dans cette présentation, je parlerai de ma composition “fantaisie harmonique” (2019), pour deux orchestres de guitare (un de guitares classiques et un autre de guitares électriques). Plusieurs dispositifs musicaux sont exploités, ce qui seraient difficiles voir impossibles à réaliser avec la même efficacité dans un ensemble plus hétérogène, y compris : (1) un système d'accordage élaboré combinant des éléments de tempérament égal et d'intonation juste, dans lequel chaque orchestre est divisé en six groupes d'accordage différents, (2) une vaste section de hocketing, (3) des sonorités de masse exploitant une variété de principes perceptifs. La pièce a été conçue en gardant à l’esprit le déploiement spatial des groupes instrumentaux, et un prochain enregistrement de la pièce utilisera la spatialisation comme repère perceptuel pour distinguer les groupes, remplissant un des rôles traditionnels de l'hétérogénéité timbrale dans les approches plus orthodoxes de l'orchestration.
Robert Normandeau (Université de Montréal)
Son travail de compositeur est principalement consacré à la musique acousmatique, quoiqu’il ait composé quelques œuvres mixtes. Plus spécifiquement, par les sonorités utilisées et les choix esthétiques qui la tendent, sa démarche s’inscrit dans un «cinéma pour l’oreille» où le ‘sens’ contribue à l’élaboration de ses œuvres tout autant que le ‘son’. Plus récemment Robert Normandeau a composé un cycle d’œuvres de musique immersive multiphonique pour dôme de haut-parleurs. À son travail de compositeur de musique de concert s’est ajouté, pendant une vingtaine d’années, celui de compositeur de musique de scène, pour le théâtre notamment.
Il a aussi œuvré comme directeur artistique pendant plus de vingt ans, notamment pour les séries de concerts Clair de terre (Association pour la création et la recherche électroacoustiques du Québec (ACREQ)) de 1989 à 93 au Planétarium de Montréal, et Rien à voir et Akousma (Réseaux) de 1997 à 2006. Il est professeur de composition électroacoustique à l’Université de Montréal depuis 1999 après avoir obtenu le premier doctorat (1992) en composition électroacoustique de l’Université de Montréal, sous la direction de Marcelle Deschênes et de Francis Dhomont. Il y dirige le Groupe de recherche immersion spatiale (GRIS), qui produit des logiciels de spatialisation sonore.
Il a reçu trois Prix Opus décernés par le Conseil québécois de la musique (CQM) dont deux en 1999 — «Compositeur de l’année» et «Disque de l’année — Musique contemporaine» pour son disque Figures (IMED 0944) — et un en 2013 — «Disque de l’année — Musique actuelle, électroacoustique» pour son disque Palimpseste (IMED 12116). L’Académie québécoise du théâtre (AQT) lui a décerné deux Masques «Meilleure musique de théâtre», le premier en 2002, pour la pièce Malina et le second en 2005, pour la pièce La cloche de verre, toutes deux dirigées par la metteure en scène Brigitte Haentjens. Robert Normandeau est lauréat de plusieurs concours internationaux dont le Golden Nica à Prix Ars Electronica, Linz (Autriche, 1996).
ControlGRIS/SpatGRIS3: Les outils de spatialisation développés à l'UdeM
Depuis 2008, le groupe de recherche en immersion spatiale (GRIS) de la Faculté de musique de l'Université de Montréal développe des outils de spatialisation destinés à des environnements immersifs de multiples haut-parleurs. Nous avons d'abord produit des plugiciels destinés à l'intégration à l'intérieur des stations de travail audionumériques les plus courantes. Et par la suite nous avons publié un premier logiciel de spatialisation, d'abord destiné aux dômes de haut-parleurs, puis dans sa deuxième version à tous les types de dispositif de haut-parleurs, comme ceux qu'on retrouvent dans les acousmoniums, les galeries d'art, ou les salles de concert. Nous en sommes aujourd'hui à la version 3 de SpatGRIS, dont les principales améliorations sont l'abandon de la dépendance à JackRouter, plugiciel HAL abandonné maintenant et incompatible avec MacOS 10.15 (Catalina) et l'ouverture à une plus grande flexibilité pour l'utilisateur en termes d'entrée/sortie. Nous avons également entamé une étroite collaboration avec le développeur de BlackHole afin d'offrir aux utilisateurs un environnement de travail à 128 canaux. Nous présenterons l'essentiel des caractéristiques de ces outils lors de cette allocution.
Ofer Pelz et Matan Gover (CIRMMT)
Ofer Pelz compose de la musique pour diverses combinaisons d'instruments et de médias électroacoustiques, et est activement improvisateur. Il est le co-fondateur du Whim Ensemble avec Preston Beebe. Il a étudié la composition, la théorie musicale et la technologie musicale à Jérusalem, Paris et Montréal. Le travail d'Ofer Pelz a été reconnu par la réception de nombreux prix internationaux, dont deux prix de l'ACUM et la bourse Ernst Von Siemens. Meitar Ensemble, Cairn Ensemble, Ardeo String Quartet, The Israel Contemporary Players, Le Nouvel Ensemble Moderne, Architek Percussion, Geneva Camerata, et Neue Vocalsolisten font partis des ensembles qui ont joué la musique de Pelz. Sa musique est régulièrement jouée en Europe, aux Etats-Unis, au Canada et en Israël, entre autres à la Biennale de Venise et au Manifeste IRCAM/Pompidou.
https://oferpelz.com/
Matan Gover est musicien pluridisciplinaire et développeur de logiciels. Il combine actuellement ses deux passions au sein du département de technologie musicale de l'Université McGill, où il effectue des recherches sur le traitement informatique de la musique vocale sous la direction du professeur Philippe Depalle. Matan a remporté la bourse de la Fondation culturelle Amérique-Israël pour l'interprétation au piano et a complété son B.Mus. en direction d'orchestre avec mention très bien à Jérusalem. Matan est un chanteur de chœur professionnel, et a écrit des orchestrations et des arrangements pour des ensembles tels que l'Orchestre Symphonique de Jérusalem et le Chœur de Chambre de l'Académie de Jérusalem. Matan est un développeur de logiciels professionnel depuis l'âge de 15 ans et travaille maintenant chez LANDR Audio Inc. sur un moteur de traitement musical alimenté par l'I.A., qui effectue la masterisation automatique de la musique.
http://matangover.com
Sound Tracks: An interactive video game composition
Dans cette démo, nous présenterons et interrogerons notre pièce intitulée Sound Tracks, écrite à l'origine pour un concert live@CIRMMMT et interprétée par l'Ensemble Aka. Sound Tracks se situe sur le continuum entre un jeu vidéo et une composition musicale. L'interface utilisateur graphique du jeu se compose d'un ensemble de " pistes ", une piste par musicien. Chaque piste contient des symboles graphiques en mouvement qui représentent des gestes musicaux, et ces symboles approchent les spectateurs de l'horizon. Lorsque les symboles graphiques arrivent aux musiciens, ils doivent jouer le geste musical correspondant. Cette interface s'inspire d'un jeu vidéo bien connu appelé Guitar Hero.Dans notre démo, nous ferons la démonstration d'une interprétation ou d'un enregistrement de cette œuvre, tout en discutant des idées qui sous-tendent sa création et des questions qui ont surgi lors de son exécution avec plusieurs ensembles. Les thèmes suivants seront abordés :- Composition gamifiée : En quoi le fait de remplacer la notation musicale traditionnelle et le développement musical par une interface basée sur le jeu affecte-t-il l'état d'esprit des musiciens et de l'auditoire pendant un concert ?- Improvisation contre prédétermination : Comment les musiciens improvisent-ils dans un cadre musical donné ? Quelle quantité d'information devrait être dictée par une note, par opposition à une marge d'interprétation ?- Timbre et orchestration : Comment un petit ensemble de gestes musicaux répartis sur plusieurs instruments se combine-t-il en timbres et textures complexes ? Comment différents instruments interprètent-ils les mêmes idées musicales ?- La technologie derrière cette pièce de jeu - la mise en œuvre et le contrôle de l'application pour la performance.
Diego Quiroz (McGill University)
Ingénieur en enregistrement, musicien et professeur de production musicale, d'ingénierie sonore, et de son immersif. Il a enregistré des disques de musique classique à Montréal, au Canada, avec des orchestres classiques, des orchestres de jazz et de nombreux ensembles de musique baroque, contemporaine et moderne. Il est diplômé du Master of Sound Recording de l'Université McGill à Montréal, et de la spécialité Synthèse musicale, Magna Cum Laude, du Berklee College of Music à Boston, États-Unis. Il est actuellement candidat au doctorat en enregistrement sonore à l'université McGill avec des professeurs de grande renommée tels que George Massenburg, Richard King, Wieslaw Wosczcyk et Martha de Francisco.
Diego a participé à de nombreuses conférences de l'AES depuis qu'il est devenu doctorant sur des sujets tels que l'évaluation perceptive de l'audio immersif, l'évaluation perceptive des formats de canaux de hauteur, le contrôle gestuel de l'audio, la perception audio en RV/AR et l'audio haute résolution. Sa proposition de thèse englobe les dispositifs d'entrée et le contrôle gestuel pour la production audio en 3D. D'autres domaines d'intérêt comprennent l'ambisonique, l'audio binaurale et la RV/AR dans l'audio.
Gestural Control for immersive recordings using Leap Motion for SPAT:Revolution
Des techniques innovantes d'enregistrement immersif impliquant de hauts canaux sont régulièrement développées, mais elles ne sont pas assorties de méthodes améliorées de contrôle de panoramique. Seuls les boutons et les faders traditionnels des surfaces de contrôle existantes ont été associés aux paramètres des moteurs de spatialisation, ce qui a entraîné un balayage panoramique lourd et inadéquat des tiges multicanales complexes. Un contrôleur de mouvement par saut a été associé à certains des paramètres de spatialisation de SPAT:Revolution dans le but d'explorer l'utilisation de méthodes gestuelles dans la conception sonore et le mixage. L'utilisateur peut apprendre une autre façon de contrôler le panoramique qui permet un plus grand degré de flexibilité lors de sessions de mixage sophistiquées.
Laurie Radford / University of Calgary
Laurie Radford est un compositeur, un artiste du son, un technologue de la musique, professeur et chercheur canadien qui crée de la musique pour diverses combinaisons d'instruments et de voix, de médias électroacoustiques et d'interprètes en interaction avec le traitement des signaux de son et d'image contrôlé par ordinateur. Sa musique fusionne les caractéristiques timbrales et spatiales des instruments et des voix avec le son et l'image transmis par ordinateur dans un art sonore rythmiquement viscéral, formellement expérimental et musicalement engageant. Sa musique a été largement interprétée et il a reçu des commandes et des prestations d'ensembles pour l'Aventa Ensemble, Esprit Orchestra, New Music Concerts, Le Nouvel Ensemble Modern, l'Ensemble contemporain de Montréal, Meitar Ensemble, Paramirabo, Thin Edge New Music Collective, le Trio Fibonacci, les quatuors à cordes Penderecki, Bozzini et Molinari, et les orchestres symphoniques de Winnipeg, Calgary, Edmonton et Montréal. Radford a enseigné la composition, la musique électroacoustique et la technologie musicale à McGill University, à Concordia University, à la Bishop’s University, à University of Alberta, à la City University (Londres, R.-U.), et il est actuellement professeur d'arts sonores et de composition à l’University of Calgary.
Getting into Place/Space: The Pedagogy of Spatial Audio
L'acquisition humaine de compétences et de connaissances sur les espaces qu'ils habitent est liée à notre développement de compétences proprioceptives dès les premiers instants de la négociation physique et psychologique avec le monde qui nous entoure. L'acquisition de "l'intelligence spatiale" s'étend au développement de compétences, dans la compréhension des espaces acoustiques à travers lesquels nous nous déplaçons, en mesurant, comparant et mémorisant inconsciemment et consciemment les signaux et les sources sonores qui peuplent ces espaces et en construisant une bibliothèque d'espaces sonores auxquels nous retournons et auxquels nous faisons référence. Musiciens, compositeurs et artistes du son développent leur art par l'enseignement séculaire de l'écoute attentive des instruments et des sources sonores, en tenant compte de leurs moyens d'activation et des nombreux paramètres de la production sonore en mouvement dans le temps.
On tient pour acquis que cette activité sonore se déroule dans un espace délimité particulier et que cet espace affecte la perception du son et, par extension, le mode de pratique de l'interprétation et l'activation sonore requise. Pourtant, mis à part certaines études électroacoustiques qui examinent les ramifications de la médiation technologique de l'espace par le biais d'environnements de projection sonore stéréo et multicanaux, la recherche en conception de cinéma et de jeux vidéo immersifs et les méthodes spatiales de formation auditive pour les ingénieurs du son, il existe très peu de formation explicite en écoute spatiale, une étude dirigée et méthodique de l'espace acoustique telle qu'on en fait l'expérience dans une multitude de lieux, des espaces où les musiciens et artistes sonores reçoivent de la musique et des œuvres sonores. La prolifération actuelle de réseaux de haut-parleurs à haute densité dédiés à la conception spatiale, ainsi que les technologies améliorées et accessibles pour capturer, préserver et reproduire les complexités des espaces acoustiques, offrent un environnement fertile pour initier et développer une telle pédagogie de l'écoute spatiale. Cette présentation portera sur certains des paramètres fondamentaux de l'écoute spatiale et de la perception de l'espace qui contribuent aux compétences nécessaires à la conception et au contrôle de la composition de l'audio spatial. Un aperçu d'une méthodologie de pédagogie du son spatial est proposé et illustré par une série d'exercices audio spatiaux qui tiennent compte de l'apprentissage par l'expérience, de la terminologie et des concepts, des technologies de déploiement et des applications créatives.
Jacques Rémus / Ipotam Mécamusique
Biologiste à l'origine (agronome et chercheur en aquaculture), Jacques Rémus a choisi à la fin des années 70, de se consacrer à la musique et à l'exploration de différentes formes de création. Saxophoniste, il a participé à la fondation du groupe Urban-Sax. Il apparaît également dans de nombreux concerts allant de la musique expérimentale (Alan Sylva, Steve Lacy) à la musique de rue (Bread and Puppet). Après des études en Conservatoires, G.R.M. et G.M.E.B., il a écrit des musiques pour la danse, le théâtre, le "spectacles totaux", la télévision et le cinéma. Il est avant tout l'auteur d'installations et de spectacles mettant en scène des sculptures sonores et des machines musicales comme "Bombyx", le "Double Quatuor à Cordes", "Concertomatique", "Léon et le chant des mains", les "Carillons" N ° 1, 2 et 3, : « l’Orchestre des Machines à Laver » ainsi que ceux présentés au Musée des Arts Forains (Paris). Depuis 2014, son travail s'est concentré sur le développement des «Thermophones».
Les Thermophones, récentes évolutions et spatialisation
Jacques Rémus a développé le projet des Thermophones en expérimentant divers phénomènes liés à une science récente la ThermoAcoustique.
Plusieurs installations et concerts ont d’abord été faites avec des tuyaux utilisant le principe des “pyrophones”, basé sur l’effet Rijke.
En relation avec Steve Garret de Penn State University et avec plusieurs chercheurs travaillant dans des laboratoires français (Limsy CNRS Saclay, Paris VI, et Laum au Mans), Jacques Rémus a commencé à développer un instrumentarium avec des tuyaux chauffés par des résistances électriques, les Thermophones.
Une présentation a été faite au Forum de l’Ircam en novembre 2015.
Depuis, les manipulations de ces tuyaux aux sons purs, profonds, puissants et troublants, ont permis de développer des écritures musicales spécifiques et de produire des installations où la spatialisation de sources sonores acoustiques, s’adapte aux configuration sacoustiques des lieux d’installation.
La spécificité des sons qui sont essentiellement constitués de l’onde fondamentale de chaque tuyau permet par contre d’envisager de les exploiter en tant qu’instruments «augmentables» pour d’autres écritures où la capture de leur chant peut être source de transformations audio et video
Si les conditions de transport le permettent la présentation pourra se faire avec une démonstration sur un ou plusieurs Thermophones.
Les Thermophones sont pilotés par Max.
Lindsey Reymore / Ohio State University
Lindsey termine son dernier semestre au sein du doctorat en théorie musicale à l'Université Ohio State. Sa recherche se concentre sur la sémantique du timbre et le langage multimodal; D'autres projets récents traitent des associations d'émotions multimodales dans la musique et la danse, de la hauteur absolue spécifique à un instrument et de l'harmonie du XVIIe siècle. En 2018, Lindsey a reçu le Prix du Chercheur en début de carrière de la part de la European Society for the Cognitive Sciences of Music (ESCOM) pendant la International Conference on Music Perception and Cognition et est co-présidente de la prochaine conférence qui se tiendra dans l'état de l'Ohio du 11 au 15 mai, "Future Directions of Music Cognition".
Instrument Qualia, Timbre Trait Profiles, and Semantic Orchestration Analysis
Je présente une méthode d'analyse d'orchestration computationnelle construite à partir d'études empiriques de la sémantique du timbre. Dans le cadre d'entrevues ouvertes, 23 musiciens ont été invités à décrire leur expérience phénoménale des sons de 20 instruments occidentaux. Une analyse du contenu des entrevues transcrites a permis de dégager 77 catégories qualitatives qui sous-tendent les descriptions des musiciens. Dans une deuxième étude, 460 musiciens participants ont évalué des sous-ensembles des mêmes 20 instruments en fonction de ces 77 catégories. Les analyses en composantes principales et les sondages supplémentaires ont produit un modèle final en 20 dimensions de la linguistique cognitive de la qualia du timbre. Les dimensions du modèle sont les suivantes : grondement/faible, doux/chantantant, aqueux/fluide, direct/fort, nasal/rouge, strident/bruit, percussif, pur/clair, cuivré/métallique, râpeux/graineux, sonnant/déclin long, pétillant/éclatant, aérien/respirant, résonant/vif, creux, boisé, muet/voilé, soutenu/même, ouvert et concentré/compact. Dans une troisième étude, 243 participants ont évalué des sous-ensembles d'un groupe de 34 instruments d'orchestre à l'aide du modèle à 20 dimensions. Ces notes ont été utilisées pour générer des Profils de Caractères du timbre, qui servent de base à la méthode d'analyse d'orchestration, pour chacun de ces instruments. Un programme de calcul est en cours d'élaboration (prévu pour février-mars 2020) afin de générer un tracé d'orchestration sémantique à partir d'une pièce musicale. L'analyse fournira des informations sur la façon dont les dimensions sémantiques du timbre évoluent tout au long d'une œuvre, en utilisant d'abord un modèle qui combine les Profils de Caractères du Timbre en fonction de l'orchestration et utilise des modificateurs d'intensité basés sur des indications dynamiques. En plus des intrigues d'orchestration sémantique, je vise à traduire les données musicales en une analyse visuelle animée en temps réel qui peut être jouée avec la pièce pour illustrer les changements dynamiques du timbre résultant de l'orchestration.
Ludovic Landolt
Né en 1993, Ludovic Landolt est un artiste franco-suisse travaillant entre Metz et Paris. Il a exposé au Point Commun (Annecy), à la Galerie Tiret Point Tiret (Paris), à in.plano (Paris), au Palais de Tokyo et a présenté son travail au BBB (Toulouse). Joueur autodidacte de luth et de sitar son travail invoque une vision contemplative empruntée à la musique, à la littérature et à la poésie.Ludovic Landolt propose d’écouter plutôt qu’entendre, il conçoit des sculptures et des instruments sonores dont les modalités de jeu sont activées lors de performances ou de happening, en impliquant des protocoles expérimentaux. Il propose concrètement de questionner le sens et l’usage des sons. Il pratique le jeu de go et la méditation zazen,comme des outils épistémologiques accordés à son langage visuel et sonore.
Il est actuellement résident du laboratoire de recherche Locus Sonus au sein de l’École supérieure d’art d’Aix-en-Provence et l’Institut de recherches et d’études sur les mondes arabes et musulmans (Aix-Marseille Université/CNRS).
Eternel Music - Bourdon and harmonic occurrences of bells
Il y a deux ans, au détour d’une ballade et par hasard, j’ai assisté à un événement sonore qui marqua profondément mon travail. Au rez-de-chaussée du beffroi d’une église de la City de Londres, un groupe de sonneurs y activait simultanément un ensemble de cloches de manière à créer des variations et des séquences musicales appelées Change ringing. Si cette façon de faire sonner m’a immédiatement séduite, elle m’a ouvert à un champ d’études aussi intrigant que délicieusement désuet : la campagnologie, dédiée à l’étude des cloches et de leurs sonorités. J’ai ainsi développé beaucoup de sympathie pour ces instruments que j’apprécie écouter en me rappelant la fusion des métaux à l’origine de leur résonance, en somme une union surnaturelle de forces semblable à la greffe de végétaux. De cette expérience esthétique, leurs sonneries relèvent d’une culture sensible et invitent celles et ceux qui y prêtent attention à expérimenter une forme d’écoute particulière. Je souhaite ainsi évoquer la qualité de cette écoute et les occurrences de ces instruments, passerelles entre mondes du visible et de l’invisible propre à une culture acoustique locale. La polyphonie et la tonalité de ces instruments sont orchestrées selon une histoire vocale où la portée des sons dépasse davantage celle de la voix humaine. En dépassant leurs usages sacrés, les cloches se révèlent être avant tout des objets sonnants et musicaux, spatialisées à la fois dans le temps et l’espace où leurs sonorités se diffusent.
Marlon Schumacher et Núria Gimenez Comas
Marlon Schumacher a une formation universitaire pluridisciplinaire, avec des diplômes pédagogiques et artistiques en théorie musicale, médias numériques et composition (sous la direction de Marco Stroppa) de l'UMPA Stuttgart, et un doctorat en technologie musicale de l'Université McGill (co-supervisé par l'Ircam). Ses principaux sujets de recherche sont la perception/synthèse spatiale du son, la composition assistée par ordinateur et l'interaction musicale ; il a contribué dans ce domaine par des publications scientifiques, des services universitaires, plusieurs versions de logiciels libres et des projets artistiques/de recherche. Marlon Schumacher est un interprète/compositeur actif qui crée des œuvres pour une grande variété de médias et de formats, y compris des pièces instrumentales et intermédias, des performances de foule et des installations. Il travaille actuellement comme professeur d'informatique musicale à l'Institut d'informatique musicale et de musicologie de l'Université de musique de Karlsruhe, où il a organisé une série de conférences internationales et créé des laboratoires de recherche en tant que directeur du ComputerStudio. Il est membre associé du CIRMMT, de l'IDMIL, de l'équipe RepMuS, et membre organisateur de la conférence annuelle sur la musique et les arts sonores (MUSA).
Núria Giménez-Comas étudie à Barcelone le piano, puis les mathématiques, avant de s'orienter vers la composition, à laquelle elle se forme auprès de C. Havel. Celui-ci la confronte d'emblée à l'électroacoustique pure et à l'importance du travail du timbre que ce soit l'expansion timbrique et harmonique, la cohésion timbre/harmonie ou l'interaction de l'informatique et de l'instrumentiste.
Après une dernière année avec Mauricio Sotelo, avec qui finit son mémoire de bachelor sur "Musique et Mathématiques" elle poursuit ses études à la HEM de Genève avec M. Jarrell, L. Naon et E. Daubresse. Dans son mémoire de master, elle travaille sur quelques phénomènes de la perception sonore (développant la recherche sur des concepts comme l'image sonore).Elle est selectionnée ensuite puis faire le Cursus de l'Ircam. Elle réalise le Cursus 1 et 2 avec des projets sur la synthèse par modèles physiques et un projet sur les scènes sonores avec le système de spatialisation en 3D ambisonics.Elle suit des Académies comme la Schloss Solitude, Soundstreams Residency avec des professeurs comme Chaya Czernowin, Brian Ferneyhough et Kaija Saariaho.Très attachée aussi à l'orchestration et au travail avec l'orchestre elle travaille avec des orchestres comme OCG (Orchestre de Chambre de Genève), Brussels Philarmonic, Geneva Camerata et Orchestre de Cadaqués et avec des chefs d'orchestre comme Michel Tabachnik et David Robertson. En faisant aussi partie du suivi et développement du nouveau logiciel d'orchestration, Orchidea du projet de recherche Actor.
Très intéressée par le travail collaboratif elle réalise de projets avec d'autres artistes comme les acteurs Michel Derville, Lambert Wilson ainsi qu'avec le vidéo-artistes Dan Browne. A travaillé sur un projet de collaboration étroite avec la poétesse Laure Gauthier sur une pièce longue d'"architecture poétique".Récemment a réalisé la Residence de Recherche Artistique à l'Ircam/ZKM avec Marlon Schumacher sur le sujet "Sculptures synthetiques dans l'espace" en finalisant son travail avec des installations en 3D en format promenade.
Elle a été lauréate dans nombreux concours entre eux le Prix Colegio de España (Paris)-INAEM 2012 et le premier prix concours International Edison-Denisov. Ces pièces ont été jouées par des interprètes très réputés comme le Quatuor Diotima, l'Ensemble Contrechamps, le trio du Klangforum de Wien, le Choeur Spirito entre autres.A reçu des commandes des musiciens et orchestres comme Proxima Centauri, Geneva Camerata, Orquestra de Cadaqués, Aleph Guitar Quartet, Grupo Enigma et des institutions, comme Radio France, le Grame, l'Ircam, CNDM, Fondation BBVA, GMEM en recevant le soutien du Ministère de la Culture et de la Communication, l'INAEM et la Fondation SGAE entre autres.Elle réalise de master-class et des conférences sur la musique mixte, sur son travail et ses recherches à des centres comme l'Ircam, le ZKM, l'ICST, où le Conservatoire de Bordeaux.Très intéressée par les applications pédagogiques de la musique d'aujourd'hui elle réalise plusieurs projets pédagogiques (avec des présentations, pièces pédagogiques et aussi des interventions dans des écoles) dans différents cadres en France et en Espagne.
Sculpting space
Le projet de recherche artistique collaboratif proposé a exploré et développé la notion de synthèse sonore spatiale d'un point de vue artistique et perceptif, en amalgamant véritablement les algorithmes de spatialisation avec les moteurs de synthèse sonore dans une approche musicale intégrale. Du point de vue de la recherche, l'étude des mécanismes de la perception auditive devrait permettre de mieux comprendre comment ces dimensions, pour la plupart séparées sur le plan musical, interagissent et donnent naissance à de nouvelles sensations sonores.
L'exploration de la spatialisation au-delà du concept prévalant de spatialisation des sources sonores, comme les sources étendues (avec extension et formes), les techniques de spatialisation spectrale, ainsi que la notion de "paysage sonore synthétique" dans le sens où l'on travaille avec des densités et des diffusions dans diverses dimensions de synthèse (en fréquence comme dans l'espace). D'un point de vue artistique, on peut considérer que cette approche suit une tradition d'exploitation des principes psychoacoustiques comme modèle musical (par exemple, comme dans l'école spectrale française) afin de créer des compositions sonores et des formes musicales nouvelles - parfois paradoxales -.
À cette fin (comme pour la réalisation technique), la compositrice Nuria Gimenez-Comas a utilisé des descriptions graphiques des densités de masse avec les outils de synthèse et de spatialisation du son dans Open Music.
La contribution de Marlon Schumacher sera consacrée à la recherche et au développement de nouveaux outils fondés sur des mécanismes cognitifs étudiés dans le domaine de la perception auditive spatiale et de l'analyse de scène, plus précisément le cadre OMChroma/OMPrisma, qui combine des modèles de synthèse/spatialisation, le traitement perceptif et les effets de salle.
Le nouveau cadre de traitement du son des outils présentés permet de construire des graphiques dsp complexes - directement dans l'environnement de composition -. Cela étend le processus de composition à une "lutherie" ou une "orchestration" virtuelle, brouillant les lignes entre le matériel musical et les instruments. Le cadre offre la possibilité de concevoir des contrôles pour des attributs spatiaux de plus haut niveau, tels que la diffusion, la netteté, la définition, etc.
Concrètement, nous proposons de combiner des systèmes de spatialisation dans une configuration de haut-parleurs peu orthodoxe pour synthétiser un large spectre d'"objets sonores spatiaux" allant de sources sonores proches à des textures ou des ambiances lointaines, que l'auditeur est libre d'explorer et d'apprécier individuellement.
L'idée est de créer non seulement la sensation de sources sonores données projetées dans l'espace, mais aussi de multiples morphologies sonores spatiales autour et au sein du public, c'est-à-dire se densifiant, dans différentes couches sonores émergentes.
Nadine Schütz / Ircam
Nadine Schütz se présente comme architecte du son, ou interprète environnementale. S’appuyant sur une recherche à la fois théorique et poétique, elle explore l’espace sonore à travers des compositions, performances, installations et ambiances qui mettent en relation l'espace et l'écoute, le paysage et la musique, l’urbain et l’humain. Ses œuvres ont été présentées à Zurich, Venise, Naples, New York, Moscou, Tokyo et Kyoto. Parmi ses projets en cours, un dispositif sonore pour le parvis du TGI à Paris, des instruments élémentaires pour le Franchissement Urbain Pleyel à Saint-Denis, et le Jardin des Réflexions pour la Place de La Défense rénovée. Pendant quatre ans elle a dirigé le laboratoire multimédia de l’institut du paysage à l'EPF/ETH Zurich, où elle a installé un nouveau studio pour la simulation spatiale des paysages sonores, lors de son doctorat Cultivating Sound finalisé en 2017. Actuellement elle est compositrice invitée à l‘Ircam au Centre Pompidou Paris.
Land Sound Design
À la manière d’une interprète environnementale, je poursuis une approche de composition urbaine et paysagère in situ en faisant évoluer les qualités acoustiques et ambiances sonores données d’un site. L’espace et le lieu sont explorés comme une partition créatrice qui informe et dirige sa propre transformation. Cette présentation expose les questions artistiques et méthodologiques qui stimulent mes recherches menées en collaboration avec l’IRCAM, notamment l’équipe EAC, et en échange avec les équipes PDS et S3AM. Espace et lieu sont autant le départ que la destination de mes créations. Mais les principes fondamentaux de la perception auditive guident également l'orchestration sonore de l'environnement. Les outils de spatialisation jouent un rôle important dans ce processus. Ils permettent d'abord d'importer au studio les caractéristiques acoustiques d’un site. L'environnement sonore est alors modélisé. La composition du projet s'inscrit dans cet environnement virtuel et génère une nouvelle matière sonore contextualisée.
Composing with echoes
Espace et lieux sont décryptés comme on déchiffre une partition.Cette approche guide mon travail sur le son. Le Jardin des Réflexions, projet en cours pour la Place de la Défense, donne lieu à de nouvelles expérimentations. Les modèles acoustiques de cette intervention sonore et plastique in situ ont permis une suite évolutive de compositions, toujours liées au lieu d'origine, mais qui développent également une autonomie d'œuvre. Cette démo focalise sur l’exploitation compositrice des réponses impulsionnelles HOA enregistrées in situ. La combinaison des différentes mesures depuis différents positionnement de la source et du microphone définit un registre spatial pour les scènes imaginaires. En isolant leurs caractéristiques spatio-temporelles et spectrales, ces empreintes acoustiques structurent une orchestration spatiale et tonale, toujours imprégnée de l’esprit acoustique du lieu. L’espace acoustique se transforme en un instrument de composition.
Christopher Trapani / University of Texas
Le compositeur américain/italien Christopher Trapani est né à la Nouvelle-Orléans, en Louisiane. Il a obtenu une licence à Harvard, une maîtrise au Royal College of Music et un doctorat à l'Université de Columbia. Il a passé un an à Istanbul grâce à une bourse Fulbright, étudiant la microtonalité dans la musique ottomane, et près de sept ans à Paris, dont plusieurs à l'Ircam. Christopher a reçu le prix de Rome 2016-17, une bourse Guggenheim 2019 et le prix Gaudeamus 2007. Il a reçu des commandes de la Fondation Fromm (2019), de la Fondation Koussevitzky (2018) et de Chamber Music America (2015). Son premier CD, Water- lines, est sorti sur New Focus Recordings en 2018. Il est actuellement professeur adjoint invité de composition et directeur intérimaire des studios de musique électronique de l'Université du Texas à la Butler School of Music d'Austin.
The orchestra increased: Spinning in Infinity
Spinning in Infinity (RIM: Greg Beller), créée à la Maison de la Radio en février 2015, représente une approche singulière à la spatialisation et l'orchestration. Un dispositif de douze haut-parleurs sur scène, intégrés parmi les instrumentistes, sert à fusionner l’acoustique et l’électronique. L’électronique sert à augmenter l’orchestre avec des sons qui pousse au-delà des limites de l’interpretation instrumentale, créant un fond microtonal qui fusionne de façon credible avec l’orchestre. Instrumentations kaléidoscopiques façonnés avec la synthèse concatenative, avec des échantillons choisis et ré-accordés en temps réel, servent à créer une espèce de cercle chromatique sonore, balades en forme spirale traduit en espace timbrale avec CataRT — entre bois et cuivres, entre terne et brillant, ou entre bruit et hauteur — renvoyés à leur tour au dispositif de spatialisation sur scène.
Le résultat, synchronisé avec l'orchestre grâce au suivi de tempo fourni par Antescofo, crée l'impression d’un orchestre augmenté, à formation variable; une dizaine de flûtes pourrait apparaitre, remplacé dans le moment qui suit par un choeur microtonal de cuivres nuancés par plusieurs types de sourdines, ou un courant ondulé de tintements déclenché par un seul percussionniste sur scène—ondes et patterns en mouvement constant, convergeant ou divergeant, vectors vers l’infini.
Roxanne Turcotte / CMCQ SMCQ
Active comme compositrice et designer sonore depuis 1980, Turcotte a construit son esthétique autour d'un art cinématographique d'intégration, de musique acousmatique et immersive. Elle est invitée à siéger comme jurys de composition, et elle donne régulièrement des formations et des ateliers de composition. Turcotte a reçu des subventions du Conseil des Arts du Canada (CAC) et du Conseil des arts et des lettres du Québec (CALQ). La musique de Roxanne Turcotte a remporté de nombreux prix et distinctions aux États-Unis, en 1987 et en 1989, ainsi que des nominations (LCL, en nomination pour les Journées mondiales de la musique d'Oslo, en 1990), Hugh Le Caine (Canada, 1985, 1989), Luigi Russolo (Italie, 1989), 6e Concours d'art radiophonique (La France, 2005), Bourges (France). Ses œuvres électroacoustiques ont été programmées par plusieurs événements : Florida Electroacoustic Music Festival (1996), Montréal en lumière (2000), Bourges (2003), Perpignan (2000), Futura (2006), Marseille (2002), Barcelone (2004), Genève (2005), Akousma, 16 pistes (Bestiaire), Aix-en-Provence (2007), Edmonton (2014), Montpellier (Festival Klang, 2017), Festival MNM 2019".
Les oiseaux de Nias
Étude sonore comportementale et comparative du fonctionnement des oiseaux en société et les conséquences de la déshumanisation de l’homme vouée à son autodestruction, un désordre universel. La diminution de la biodiversité d’ici jusqu’à l’ile de Nias, témoignent de l’incrédulité humaine et des gouvernements climatosceptiques. L’extinction graduelle des espèces animales causée par le pouvoir industriel sans limites et les batailles idéologiques, font en sorte que des petits groupes d’individus dissidents, émergent des populations en révolte. Ceci est un appel à la liberté et à la sauvegarde de notre espace vital.
Marcel Zaes
Marcel Zaes (né en 1984), est un artiste et chercheur artistique. Il poursuit actuellement son doctorat en musique et en composition multimédia à l'université de Brown. Marcel étudie le temps mécanique dans un cadre interdisciplinaire. Sa pratique créative consiste en des assemblages de codes logiciels créés sur mesure qui agissent comme des chronométreurs mécaniques et des interprètes humains contre lesquels ils jouent, créant ainsi un potentiel affectif pour repenser l'écart entre ce qui est conçu comme "humain" et ce qui est conçu comme une temporalité "mécanique". Le travail de Marcel a été récemment joué et exposé à l'ISEA de Hong Kong, au Center for New Music de San Francisco, à la Biennale d'art contemporain de Lisbonne, au Cabaret Voltaire de Zurich, à l'Université Columbia de New York, à la Dampfzentrale de Berne et à la Fridman Gallery de New York. www.marcelzaes.com
Une grande partie de la musique actuelle s'appuie sur des formes mécanisées de chronométrage, telles que le métronome, la boîte à rythmes ou la grille visuelle de toute application de musique contemporaine. Dans le cadre de ma thèse à l'université de Brown, j'ai réalisé "#otherbeats », morceau audio expérimental sur le web qui remet en question l'idée du binaire entre les grilles de temps homme-machine. Pour "#otherbeats", j'ai demandé à 50 participants du monde entier d'enregistrer leurs versions idiosyncrasiques des grilles de temps. Tous ces enregistrements collectés - une histoire orale sur le chronométrage - sont conservés et rendus audibles sur un site web. Les utilisateurs peuvent naviguer, jouer et mixer en direct les archives sous forme de composition musicale sur le site https://otherbeats.net. "#otherbeats" est ambigu à plusieurs égards : il s'agit d'une pièce sur les grilles de temps mécaniques, mais elle ne les utilise pas directement. Elle traite de la régularité rythmique ainsi que de la déviance et du défi. C'est un instrument autant qu'une composition, et c'est humain autant que machinique. C'est un réseau de sons ainsi qu'une collection de sons apparemment sans lien entre eux. En tant que pièce, dans ses qualités de "mixage" et dans son esthétique visuelle, elle fait référence à des undergrounds musicaux fortement basés sur des chronométreurs mécanisés, comme la diaspora African Queer de la house de Chicago de la fin des années 1970. "#otherbeats" reconnaît ainsi à quel point la rythmique, y compris dans la culture des musicales expérimentales, est redevable à ces scènes et leur rend hommage. Cette pièce est une invitation à réfléchir sur les temporalités alternatives dans la musique électronique.Dans mon exposé, je présenterai un extrait de "#otherbeats », et discuterai les aspects techniques qui en sont à la base (traitement du son dans le navigateur avec l'API audio Web), et la théorie sociopolitique qui y est intégrée.
Tiange Zhou (UC San Diego)
Née en Chine en 1990, Tiange Zhou est une compositrice, photographe, designer et danseuse improvisatrice. Elle s'intéresse à l'art audiovisuel interactif et à d'autres formes d'art intégrées. La musique de Tiange est interprétée par des musiciens du Mivos Quartet, I.C.E., S.E.M. Ensemble, Phillip Glass Ensemble, Yale Camerata, Neue Vocalsolisten, Sandbox Ensemble, Talujon Ensemble, Third Coast Percussion, Loadbang, Yale Philharmonia et Albany Symphony. En plus d'avoir reçu la bourse Baumgardner en tant que compositrice en résidence du festival de musique de chambre de Norfolk 2016, l'œuvre de Tiange - Lament for Adonis a été finaliste pour le prix américain dans la catégorie musique chorale et collectionnée par la station de radio classique américaine WQXR. Sa musique de chambre hEArT a remporté le premier prix du Kirkos Kammer International Composition Competition en Irlande. Et sa pièce pour violon solo A Mirror for a Dream a été choisie comme l'une des pièces contemporaines du 6ème Concours International de Violon Solo Musical Summer Malaga 2016. Elle fût également invitée comme conférencière pour présenter son travail au Forum Ircam à Shanghai en 2019.
Tiange poursuit son doctorat en composition à l'Université de Californie, San Diego, où elle étudie avec le professeur Roger Reynolds sur la composition. Elle a obtenu une maîtrise à l'Université Yale et un baccalauréat à la Manhattan School of Music. Elle a également suivi un programme d'échange à la Staatliche Hochschule für Musik und Darstellende Kunst, Stuttgart.
Outre la musique de concert, Tiange participe à de nombreux projets de collaboration avec des artistes et des scientifiques de différents genres. Elle a réalisé plusieurs projets sur les dilemmes psychologiques sociaux contemporains qui l’occupe.
LUX FLUX: Design sound and light work in Max/Msp through DMX
Lorsque les musiciens parlent de créations audiovisuelles interactives au cours des dernières années, la plupart du temps, ils mentionnent l'impact que le son pourrait avoir sur les paramètres des composantes vidéo. Il est facile d'ignorer que la conception de l'éclairage s'est faite parallèlement à la performance musicale en direct depuis le début de l'histoire du théâtre. La nature de la lumière est plus proche du son, dans lequel ils ont tous deux des caractères abstraits et pourraient porter une continuité artistique avec un aspect narratif spécifique. Les musiciens utilisent souvent des terminologies légères pour indiquer les sons, tels que clairs, sombres, colorés, pâles, ombragés, etc.
D'autre part, il devrait également être passionnant de composer des événements lumineux avec de la musique, à travers le temps en appliquant des méthodologies de conception sonore.
Dans cette démonstration, je montrerai comment réaliser des conceptions d'éclairage intrigantes par programmation Max/MSP via une interface USB vers DMX. Je partagerai plusieurs patchs Max faciles à apprendre pour que le public comprenne les méthodes principales et l'utilisation du design d’éclairage et de l'interactivité avec le traitement du signal audio. Je présenterai mon travail d'éclairage audio Sexet pendant la démo en utilisant six lumières LED comme ensemble de chambre.
DMX est un protocole de contrôle de l'éclairage qui permet aux utilisateurs d'avoir un contrôle ultime sur leurs besoins en éclairage. La technologie d'accès à ce protocole est très proche du contrôle MIDI. Il est donc très pratique d'utiliser MAX/MSP pour programmer des œuvres de création passionnantes.
INTERVENANTS IRCAM
Thibaut Carpentier / Ircam
Thibaut Carpentier est ingénieur de recherche au sein du laboratoire STMS (Sciences et Technologies de la Musique et du Son) hébergé à l'Ircam. Il étudie l'acoustique à l'École centrale et le traitement du signal à Télécom ParisTech, avant d'intégrer le CNRS en 2009. Rattaché à l'équipe Espaces acoustiques et cognitifs, ses travaux portent sur la spatialisation sonore, la réverbération artificielle, l'acoustique des salles, et les outils informatiques pour la composition et le mixage 3D. Il est le développeur principal et responsable du projet Spat et de la station de mixage et de post-production 3D Panoramix. En 2018, il est lauréat de la médaille de Cristal du CNRS.
Simone Conforti / Ircam
Compositeur, réalisateur en informatique musicale, concepteur sonore et développeur de logiciels. Né à Winterthur, il est diplômé en flûte et en musique électronique et enseigne dans le département pédagogique de l'IRCAM à Paris et travaille comme réalisateur en informatique musicale au CIMM de Venise. Spécialisé dans les arts interactifs et multimédia, son travail passe également par une intense activité de conception technologique orientée vers la musique. Dans ce domaine, il a développé de nombreux algorithmes qui vont de la spatialisation du son et de la virtualisation de l'espace au masquage du son et à la musique générative. Co-fondateur et directeur technique de MUSICO, anciennement co-fondateur de MusicFit et de MUSST, il a travaillé pour Architettura Sonora, et comme chercheur pour l'université de Bâle, le centre de recherche MARTLab à Florence, le HEM Genève et le HEMU à Lausanne. Il a été professeur d'électroacoustique aux Conservatoires de Florence et de Cuneo.
“Within the sound”, recherche de nouveaux sons via TS2
Il s'agira d'un workshop sur TS2 et ses dernières fonctionnalités, dans le contexte de la conception et de la composition sonore, centré sur la façon de détecter des propriétés sonores qui sont normalement invisibles/inaudibles lorsque nous regardons/écoutons les sons sans décomposer leur structure.
Grâce à la manipulation du temps et des propriétés spectrales, TS2 permet de restituer des détails qui sont normalement imperceptibles pour l'oreille humaine.
Grâce à sa lentille sonique spéciale, il est possible de générer de nouveaux sons à partie de la source originale et d'élargir l'exploration et la création de contenus sonores.
Philippe Esling / Ircam
Philippe Esling est titulaire d’un master en acoustique, traitement du signal, et informatique reçu en 2009, ainsi que d’un doctorat en recherche et classification multi-objectives de séries temporelles décroché en 2012. Il devient ensuite bio-informaticien en post-doctorat en métagénomique et surveillance environnementale au département génétique et évolution à l’université de Genève courant 2012. Depuis 2013, il est maître de conférences à l’Ircam Paris 6. Dans ce très court laps de temps il a écrit et co-écrit plus d’une quinzaine de publications parues dans des revues spécialisées renommées telles que ACM Computing Surveys, Publications of the National Academy of Sciences, IEEE TSALP et Nucleic Acids Research. Il a également reçu un prix du Jeune Chercheur en 2011 pour son travail sur la recherche audio ainsi que le prix de thèse du conseil général pour son doctorat en recherche multi-objective de séries temporelles en 2013.
Investi dans la recherche appliquée il a développé le premier logiciel d’orchestration assistée par ordinateur appelé Orchids commercialisé à l’automne 2014 et déjà utilisé par bon nombre de compositeurs. Il supervise actuellement une équipe de sept doctorants, deux stagiaires et un développeur à temps plein. Il est à la tête de la recherche en séries temporelles à l’Ircam, et dirige le partenariat international France-Canada SSHRC ainsi qu’un groupe international sur l’orchestration.
Jean-Louis Giavitto
Directeur de recherche au CNRS, mon travail se focalise sur le développement de
nouveaux mécanismes de programmation permettant de représenter et gérer des relations temporelles et spatiales. J’ai appliqué ces travaux à la modélisation et la simulation de systèmes biologiques, en particulier dans le domaine de la morphogenèse, à l’université d’Évry du Genopole où j’ai cofondé le laboratoire
IBISC (Informatique, Biologie Intégrative et Systèmes Complexes). Depuis mon arrivée à l'Ircam (janvier 2011), mon activité s'inscrit dans la représentation et la manipulation d’objets musicaux, tant au niveau de l’analyse musicale et de la composition que de la performance sur scène. En particulier, je m’intéresse à la spécification d’interactions temps réel impliquant des relations temporelles fines lors des performances, dans le contexte du système
Antescofo utilisé pour la réalisation des pièces de musiques mixtes à l’Ircam et ailleurs dans le monde. Cette technologie profite aujourd’hui à tous, grâce à la création d’une
start-up. J’ai participé avec Arshia Cont à la création de l’équipe-projet Inria MuTAnt au sein de l’équipe Représentations musicales et je suis aussi directeur-adjoint du laboratoire.
Concevoir des systèmes cyber-temporels avec Antescofo
Le système Antescofo couple un module d’écoute automatique avec un langage de programmation réactif à des fins de composition et d'exécution. Il permet la synchronisation en temps réel des musiciens avec l’électronique lors de performances interactives, notamment dans le cadre de musiques mixtes (associant en temps réel instruments acoustiques joués par des musiciens et processus électroniques exécutés sur des ordinateurs). Le module d'écoute du logiciel Antescofo permet de prendre en compte dynamiquement les variations introduites par la performance par rapport à la partition idéale, grâce au suivi de partition permis par le module d’écoute et à des algorithmes d’inférence de tempo. Et le langage de programmation en temps réel Antescofo offre un support expressif générique pour la conception et la réalisation de scénarios musicaux complexes impliquant interactions dynamique en temps réel entre musiciens et des machine ; et permet d’expliciter les intentions du compositeur sur la manière dont ordinateurs et musiciens doivent jouer ensemble (par exemple, en adoptat des stratégies de type « call and response », en donnant le lead à un des instrumentistes, etc.)
Le programmeur/compositeur peut ainsi spécifier des scénarios interactifs à travers une partition augmentée qui réunit les instructions musicales à destinations d’un instrumentiste, le programme informatique réalisant la partie électroinqiue et les stratégies de synchronisation temporelles pour la coordination des deux lors du concert. Lors de la performance, les musiciens « mettent en œuvre » la partie instrumentale de la partition, tandis que le système évalue la partie électronique en tenant compte des informations fournies par le module d'écoute. Le système Antescofo est utilisé à l'Ircam pour la réalisation de nombreuses pièces de musique mixte, mais aussi de pièces purement électroniques.
La présentation portera sur la programmation en temps réel du langage Antescofo. Ce langage est construit sur
l'hypothèse synchrone où les actions atomiques sont instantanées (sans durée). Antescofo étend cette approche avec des actions « qui prennent du temps ». Cette approche sera comparés à d'autres approches dans le domaine de la musique mixte et du traitement audio. Dans Antescofo, comme dans de nombreux langages de programmation modernes, les processus sont de valeurs de première classe. Cela permet de programmer des comportements temporels complexes de manière concise et expressive, en composant des processus paramétrés. Au-delà des processus, les
acteurs en Antescofo sont des objets autonomes et qui fonctionnent en parallèles : ils réagissent à des messages et sont utilisés pour la définition de processus polyphoniques enn interaction complexes. Des motifs temporels peuvent être utilisés pour détecter des succession d’événements répondant à des conditions logiques et réagir en lançant des processus de traitement. Au cours de cette conférence, nous montrerons comment Antescofo dépasse le paradigme de déclenchement, prédominant en musique mixte, pour aller vers un paradigme plus expressif de synchronisation, où les « lignes de temps » sont alignées et synchronisées pour respecter les contraintes temporelles spécifiées. Dans la seconde partie de notre présentation, nous présenterons une bibliothèque appelée
AntesCollider, construite au-dessus de Antescofo, permettant de contrôler directement un serveur SuperCollider depuis la partition augmentée. Le langage est utilisé pour implémenter le contrôle de processus complexes de synthèse sonore de manière dynamique et expressive. Le serveur SuperCollider réalise le traitement audio. Bien que le système repose sur deux entités distinctes dans une architecture client-serveur (l'interprète Antescofo et le serveur SuperCollider), la partition augmentée traite tous les contrôles et les détails du traitement du son au sein d’un même document. C'est un exemple de la notion de
partition centralisée introduite par José Miguel Fernandez : une partition centralisée rassemble dans un même document unifié toutes les informations nécessaires à la définition des media temporels (électronique, partition de l'interprète, vidéo, lumière, geste, interactions et constructions sonores). Cette idée est motivée par le développement de partitions électroniques musicalement plus dynamiques, plus précises et plus expressives, qui englobent plusieurs media temporels, permettent de nouveaux couplages entre ordinateurs et musiciens et renouvellent le problème de l'interprétation tant au niveau du compositeur que de l'instrumentiste. La présentation sera illustrée par plusieurs productions artistiques qui s'appuient sur
AntesCollider, dont « Las Pintas », une pièce audiovisuelle développée pour la Société des Arts Technologiques (SAT) de Montréal.
COMPOSITEURS INVITÉS
Sasha Blondeau
Sasha J. Blondeau (1986) est compositeur de musique contemporaine mixte, instrumentale et électroacoustique. Il est docteur en composition musicale du programme Ircam-Sorbonne Université-CNRS. Il compose également des pièces pour le théâtre et s'intéresse à l'interaction entre écriture instrumentale et écriture "électroacoustique" dans un même espace d'expressivité. Sasha J. Blondeau a commencé par des études de piano et de saxophone (Gap) puis d'analyse, d'écriture et de composition au CRR de Lyon. Il entre en 2007 au CNSMD de Lyon dans les classes de composition de Denis Lorrain et François Roux. Il obtient son doctorat de composition à l'Ircam en 2017, dans l'équipe Représentations Musicales (directeurs de recherche : Jean-Louis Giavitto (CNRS) et Dominique Pradelle (Paris Sorbonne, Philosophie)) et travaille notamment sur le langage Antescofo et les nouvelles possibilités d'écriture de l'électronique qu'il implique entre 2013 et 2017. Il est résident à la Cité Internationale des Arts de Paris de juillet 2013 à juin 2015, puis de 2019 à 2020. En 2014, il participe à l'Académie Manifeste de l'Ircam ainsi que le Summer Composition Institute de Harvard aux Etats-Unis. Il est lauréat du prix de la Fondation Francis et Mica Salabert 2012 et du prix Sacem "Claude Arrieu" 2018.
Carmine Emanuele Cella
Carmine Emanuele Cella est un compositeur de renommée internationale qui a fait des études supérieures en mathématiques appliquées. Il a étudié au Conservatoire de musique G. Rossini, en Italie, où il a obtenu une maîtrise en piano, en informatique musicale et en composition, et à l'Accademia di S. Cecilia, à Rome, où il a obtenu un doctorat en composition musicale. Il a également étudié la philosophie et les mathématiques et a obtenu un doctorat en logique mathématique à l'Université de Bologne, avec une thèse intitulée "On Symbolic Representations of Music" (2011). Après avoir travaillé à l'IRCAM en 2007-2008 en tant que chercheur et à nouveau en 2011-2012 en tant que compositeur en résidence, Carmine Emanuele Cella a mené des recherches en mathématiques appliquées à l'École Normale Supérieure de Paris, de 2015 à 2016, avec Stéphane Mallat. Toujours en 2016, il est en résidence à l'Académie américaine de Rome, où il travaille sur son opéra Pane, sale sabbia, qui sera créé en juin 2017 à l'Opéra national de Kiev. De 2017 à 2018, il a travaillé sur l'orchestration assistée par ordinateur à l'Ircam - un sujet proposé depuis longtemps par Boulez-, et a réussi à proposer des solutions innovantes qui font l'objet d'un consensus au sein de la communauté. Depuis janvier 2019, Carmine est professeur assistant en musique et technologie au CNMAT, Université de Californie, Berkeley.
Zosha Di Castri
Zosha Di Castri est une compositrice-pianiste canadienne vivant à New York. Son travail (qui a été joué au Canada, aux États-Unis, en Amérique du Sud, en Asie et en Europe) dépasse le cadre de la musique de concert et comprend des projets d'électronique, d'art sonore et des collaborations avec vidéo et danse. Elle a travaillé pour des ensembles tels que le BBC Symphony, le San Francisco Symphony, l'Orchestre symphonique de Montréal, l'Orchestre du Centre national des Arts, le L.A. Philharmonic, le Chicago Symphony Orchestra, le New York Philharmonic, ICE, Wet Ink, Ekmeles, JACK Quartet, Yarn/Wire, le NEM et le Talea Ensemble, entre autres. Zosha est actuellement professeure assistante de Francis Goelet à l'université de Columbia.
José Miguel Fernandez / Ircam
José Miguel Fernández a étudié la musique et la composition à l'Université du Chili et au LIPM (Laboratoire de recherche et de production musicale) à Buenos Aires, Argentine. Il a ensuite étudié la composition au Conservatoire National Supérieur de Musique et de Danse de Lyon et a suivi le Cursus de Composition à l'Ircam. Il compose des œuvres de musiques instrumentales, électroacoustiques et mixtes. Ses œuvres sont créées en Amériques, Europe, Asie et Océanie. Il s'est également produit dans de nombreux festivals internationals. Il a été sélectionné au concours international de musiques électroacoustiques de Bourges en 2000 et a été lauréat des concours internationaux de composition Grame-EOC de Lyon en 2008 et du Giga Hertz Award du ZKM/EXPERIMENTALSTUDIO en Allemagne en 2010. En 2014 il a été sélectionnée par l'Ircam pour suivre le programme de compositeur en Résidence en Recherche Musicale et Artistique sur l'interaction en musiques mixtes et en 2018 pour une résidence en partenariat avec la Société des Arts Technologiques de Montréal sur l'écriture de l’électronique pour un projet audiovisuel. Il est actuellement au sein du programme de doctorat en musique (recherche en composition) à l'Ircam, organisé en collaboration avec Sorbonne Université. Son projet de recherche se concentre en priorité sur l'écriture pour l'électronique et la recherche de nouveaux outils pour la création de musique mixte et électroacoustique. En parallèle de ses activités de compositeurs, il travaille sur divers projets pédagogiques et de création reliant l’informatique musicale.
Score centralisé : AntesCollider et autres applications artistiques d'Antescofo
Le système Antescofo couple un module d’écoute automatique avec un langage de programmation réactif à des fins de composition et d'exécution. Il permet la synchronisation en temps réel des musiciens avec l’électronique lors de performances interactives, notamment dans le cadre de musiques mixtes (associant en temps réel instruments acoustiques joués par des musiciens et processus électroniques exécutés sur des ordinateurs). Le module d'écoute du logiciel Antescofo permet de prendre en compte dynamiquement les variations introduites par la performance par rapport à la partition idéale, grâce au suivi de partition permis par le module d’écoute et à des algorithmes d’inférence de tempo. Et le langage de programmation en temps réel Antescofo offre un support expressif générique pour la conception et la réalisation de scénarios musicaux complexes impliquant interactions dynamique en temps réel entre musiciens et des machine ; et permet d’expliciter les intentions du compositeur sur la manière dont ordinateurs et musiciens doivent jouer ensemble (par exemple, en adoptat des stratégies de type « call and response », en donnant le lead à un des instrumentistes, etc.)
Le programmeur/compositeur peut ainsi spécifier des scénarios interactifs à travers une partition augmentée qui réunit les instructions musicales à destinations d’un instrumentiste, le programme informatique réalisant la partie électroinqiue et les stratégies de synchronisation temporelles pour la coordination des deux lors du concert. Lors de la performance, les musiciens « mettent en œuvre » la partie instrumentale de la partition, tandis que le système évalue la partie électronique en tenant compte des informations fournies par le module d'écoute. Le système Antescofo est utilisé à l'Ircam pour la réalisation de nombreuses pièces de musique mixte, mais aussi de pièces purement électroniques.
La présentation portera sur la programmation en temps réel du langage Antescofo. Ce langage est construit sur l'hypothèse synchrone où les actions atomiques sont instantanées (sans durée). Antescofo étend cette approche avec des actions « qui prennent du temps ». Cette approche sera comparés à d'autres approches dans le domaine de la musique mixte et du traitement audio. Dans Antescofo, comme dans de nombreux langages de programmation modernes, les processus sont de valeurs de première classe. Cela permet de programmer des comportements temporels complexes de manière concise et expressive, en composant des processus paramétrés. Au-delà des processus, les acteurs en Antescofo sont des objets autonomes et qui fonctionnent en parallèles : ils réagissent à des messages et sont utilisés pour la définition de processus polyphoniques enn interaction complexes. Des motifs temporels peuvent être utilisés pour détecter des succession d’événements répondant à des conditions logiques et réagir en lançant des processus de traitement. Au cours de cette conférence, nous montrerons comment Antescofo dépasse le paradigme de déclenchement, prédominant en musique mixte, pour aller vers un paradigme plus expressif de synchronisation, où les « lignes de temps » sont alignées et synchronisées pour respecter les contraintes temporelles spécifiées. Dans la seconde partie de notre présentation, nous présenterons une bibliothèque appelée AntesCollider, construite au-dessus de Antescofo, permettant de contrôler directement un serveur SuperCollider depuis la partition augmentée. Le langage est utilisé pour implémenter le contrôle de processus complexes de synthèse sonore de manière dynamique et expressive. Le serveur SuperCollider réalise le traitement audio. Bien que le système repose sur deux entités distinctes dans une architecture client-serveur (l'interprète Antescofo et le serveur SuperCollider), la partition augmentée traite tous les contrôles et les détails du traitement du son au sein d’un même document. C'est un exemple de la notion de partition centralisée introduite par José Miguel Fernandez : une partition centralisée rassemble dans un même document unifié toutes les informations nécessaires à la définition des media temporels (électronique, partition de l'interprète, vidéo, lumière, geste, interactions et constructions sonores). Cette idée est motivée par le développement de partitions électroniques musicalement plus dynamiques, plus précises et plus expressives, qui englobent plusieurs media temporels, permettent de nouveaux couplages entre ordinateurs et musiciens et renouvellent le problème de l'interprétation tant au niveau du compositeur que de l'instrumentiste. La présentation sera illustrée par plusieurs productions artistiques qui s'appuient sur AntesCollider, dont « Las Pintas », une pièce audiovisuelle développée pour la Société des Arts Technologiques (SAT) de Montréal.
© Quentin Chevrier
Jean-Luc Hervé
Né en 1960, il fait ses études au Conservatoire Supérieur de Musique de Paris avec Gérard Grisey. Il y obtient un premier prix de composition. Sa thèse de doctorat d’esthétique ainsi qu’une recherche menée à l’IRCAM seront l’occasion d’une réflexion théorique sur son travail de compositeur, sa résidence à la Villa Kujoyama de Kyoto un tournant décisif dans son œuvre. Sa pièce pour orchestre Ciels a obtenu le prix Goffredo Petrassi en 1997. En 2003 il est invité en résidence à Berlin par le DAAD. Ses deux disques monographiques ont reçu le coup de cœur de l'académie Charles Cros. Il fonde en 2004 avec Thierry Blondeau et Oliver Schneller l’initiative Biotop(e). Ses œuvres sont jouées par des ensembles tels que l’Ensemble Intercontemporain, Court-Circuit, Contrechamps, Musik Fabrik, KNM Berlin, Divertimento, Orchestre Philharmonique de Radio-France, Orchestra della Toscana, Berliner Sinfonie-Orchester. Une partie de son travail actuel consiste en des œuvres de concert-installation conçues pour des sites singuliers. Il est actuellement professeur de composition au conservatoire à rayonnement régional de Boulogne-Billancourt et est édité aux éditions Suvini-Zerboni Milan.
James O'Callaghan
James O'Callaghan est un compositeur et artiste sonore basé à Montréal. Sa musique a été décrite comme "très personnelle... avec sa propre couleur ancrée dans l'imprévisible." (Goethe-Institut) Son travail s'étend de la chambre à l'orchestre, en passant par les idiomes électroniques et acousmatiques en direct, les installations audio et les performances spécifiques à un lieu. Il utilise souvent des enregistrements sur le terrain, des objets trouvés amplifiés, la transcription assistée par ordinateur de sons environnementaux et des conditions de performance uniques. Sa musique a reçu plus de trente prix et nominations, dont le Prix Salvatore Martirano (2016), le Prix du jeune compositeur de la SIMC (2017) et le Prix Jan V. Matejcek (2018), et des nominations pour un Prix JUNO (2014) et le Prix Gaudeamus (2016). Actif comme organisateur artistique, il a cofondé et codirigé le Laboratoire de musique contemporaine de Montréal. Originaire de Vancouver, il a obtenu un baccalauréat en beaux-arts à l'Université Simon Fraser en 2011, et une maîtrise en musique de l'Université McGill en 2014.
Alone and unalone : préoccupations conceptuelles dans la diffusion simultanée des écouteurs et des haut-parleurs
Deux de mes œuvres récentes, «Alone and unalone» pour sextuor et électronique, et «With and without walls» (acousmatique), utilistent une diffusion simultanée aux haut-parleurs et intra-auriculaire avec écouteurs fournis au public. Les œuvres examinent la relation entre les expériences individuelles et collectives. Lorsque nous écoutons la musique ensemble, comme dans un concert, nous partageons une réalité commune, mais simultanément, nous avons des expériences individuelles et impartageables dans nos propres têtes. Affrontement du «problème des autres esprits» en philosophie, l’affect des pièces cherche à osciller entre le solipsisme et le genre de construction de l’empathie qui se produit par l’art.
Cette conférence est conçue pour accompagner la performance de «Alone and unalone» par Ensemble Paramirabo le 3 avril 2020 dans le cadre du symposium. J'y discutera la configuration technique du système de diffusion aux écouteurs que j'ai conçu, ainsi que les stratégies de composition pour la combinaison et le mouvement du son entre la spatialisation intra-auriculaire et celle des haut-parleurs. Le système offre des possibilités immersives uniques de l’imagerie spatiale: je vais illustrer quelques possibilités avec des exemples tirés de l’œuvre et discuter le processus de composition, ainsi que des motivations conceptuelles et artistiques qui sous-tendent ces stratégies.
© P. Raimbault
Leroux Philippe
Philippe Leroux est un compositeur français né en 1959. En 1978, il entre au Conservatoire National Supérieur de Musique de Paris dans les classes d’Ivo Malec, Claude Ballif, Pierre Schäeffer et Guy Reibel où il obtient trois premiers prix. Durant cette période, il étudie également avec Olivier Messiaen, Franco Donatoni, Betsy Jolas, Jean-Claude Eloy et Iannis Xénakis.
En 1993, il est nommé pensionnaire à la Villa Médicis (prix de Rome) où il séjourne jusqu’en octobre 1995. La musique de Philippe Leroux, toujours très vivante et souvent pleine de surprises, est marquée par un usage original de gestes sonores frappants qui s’organisent en un riche réseau relationnel. Il est l’auteur de plus de quatre-vingts œuvres symphoniques, vocales, avec dispositifs électroniques, musique de chambre et acousmatiques. Ses œuvres sont jouées et diffusées dans de nombreux pays: Festival de Donaueschingen, Festival Présences de Radio-France, Festival Agora, (…). Il a reçu de nombreux prix et en 2015, il est nommé membre de la Société Royale du Canada, l’Académie des beaux-arts de l’Institut de France lui attribue le Prix de composition musicale de la Fondation Simone et Cino Del Duca, et son disque Quid sit Musicus reçoit le Grand Prix du Disque 2015 décerné par l’Académie Charles Cros. Il a publié plusieurs articles sur la musique contemporaine et donné des conférences et cours de composition dans des lieux tels que l’Université de Berkeley Californie, Harvard, etc. De 2001 à 2006 il a enseigné la composition à l’IRCAM dans le cadre du cursus d’informatique musicale et en 2005/2006 à l’université McGill de Montréal (Canada) dans le cadre de la Fondation Langlois. De 2007 à 2009, il a été en résidence à l’Arsenal de Metz et à l’Orchestre National de Lorraine, puis de 2009 à 2011, professeur invité à l’Université de Montréal (UdeM). Depuis septembre 2011 il est professeur agrégé de composition à la Schulich School of Music à l’université McGill, où il dirige également le Digital Composition Studio. Il est actuellement en résidence à l’ensemble MEITAR à Tel-Aviv. Sa discographie comporte une trentaine de Cds dont cinq monographies.
Georgia Spiropoulos / Ircam
Formée à Athènes au piano et à toutes les disciplines entourant la composition, Georgia Spiropoulos pratique aussi le jazz et se passionne pour la musique grecque traditionnelle. Elle suit les classes de P. Leroux et M. Levinas. Au cursus de l’Ircam, elle travaille avec J. Harvey, T. Murail, B. Ferneyhough, P. Hurel et M. Stroppa. Elle fait un master à l’EHESS, en collaboration avec des anthropologues et des hellénistes. Ce regard porté vers les origines orales des musiques s’enrichit d’autres champs d’exploration : l’improvisation, l’art performatif et pluridisciplinaire, la voix, le langage. Lors du festival Manifeste-2015, l’Ircam lui consacre un concert-portait au Centre Pompidou. Elle a enseigné la composition à l’université McGill à la chaire Schulich de professeur invité distingué.