Toutes les conférences et vidéos pré-enregistrées seront en anglais.
Programme des conférences
Design sonore et interaction multimédia - Vidéos pré-enregistrées
- Minh Boutin, Marin Scart, Jean-Baptiste Krauss (Ecole Estienne) : Bolidarium
- Rosie Ann Boxall (Royal College of Art) : Magical Stones of Old Britain
- Equipe Luxury Logico, Andrea Cera (C-Lab Taïwan) : Points of Light in the Night : A Conversation on The Insomnia Sketchbook
- Nicholas Faris (Royal College of Art) : Performative Audio Feedback
- JP Guerrier (Royal College of Art) : Texture Translation
- Lera Kelemen (Royal College of Art) : Tender Controller
- Clovis McEvoy : Pillars of Introspection - a work for virtual music
- Wu Shangyun (Royal College of Art) : Human Who Seeks Eternity
- Carlo Siega (Anton Bruckner Private University) : Re-actualisation practices through video-art music. A case study
- Shontelle Xintong Cai (Royal College of Art) : Launch a dream
- Buket Yenidogan (Royal College of Art) : Becoming with
- Benjamin Zervigón (Peabody Conservatory) : Soundings in Fathoms - reconstructing the concert experience in digital media
- Nicolas Misdariis, Diemo Schwarz (Equipe Perception et Design sonore) : SkataRT, sound design and creation tool
- Nicolas Misdariis, Patrick Susini, Romain Barthelemy (Equipe Perception et Design sonore) : SpeaK, lexicon of sounds for Sound Design
- Frédéric Bevilacqua, Diemo Schwarz, Jean-Etienne Sotty (Equipe ISMM) : News Interaction Sound Music Movement Team
- Jean Lochard : New Ircam Forum Max For Live devices
- Leon Hapka (Royal College of Arts) : Sonic Harmony Systems
- Qinyi Wang (Royal College of Arts) : Self Independences and groups
- Wenqing Yao (Royal College of Arts) : Land Speech
- Nirav Beni, Lucy Papadopoulos, Susan Atwill (Royal College of Arts) : Spin
- Carina Qiu (Royal College of Arts): < Spinning Brother __/''''\__ *3 >
- Rosie Ash (Royal College of Arts) : Home
- Frances Allen (Royal College of Arts) : Rubiks Cube
- Jiuming Dang (Royal College of Arts) : Motion-sonic Installation
Production audio - Vidéos pré-enregistrées
- Charles-Edouard Platel : Ondolon, sculpture of recorded sound
- William Petitpierre : IRCAM Technologies - vector of expressiveness
- Benjamin Hackbarth (University of Liverpool) : Concatenative Sound Synthesis with AudioGuide / Workshop AudioGuide
- Kei Nakano (Osaka University of Arts) : New Sounds by the "Through the Looking Glass Guitar"
- David Shulman (Royal College of Arts) : Journey into the Body Electric
- Jean-Marc Jot (iZotope) : Objects of immersion - unlocking musical spaces
- Pierre Guillot (Ircam) : Beyond AudioScuplt: TS2 and Analyse
- Thibaut Carpentier, Olivier Warusfel (Ircam) : News Team EAC
- Thomas Hélie, Robert Piéchaud, Jean-Etienne Sotty : News Team S3AM
- Paul Escande (ENSA, TALM-IRCAM) : Augmented Architectures
Composition - Vidéos pré-enregistrées
- Vincenzo Gualtieri (Conservatory of Music of Avellino) : the (BTF) project
- Kai Yves Linden : Anatomical insights into "Vertical Structure"
- Marco Bidin (ALEA) : OMChroma new tutorials and documentation
- Johnny Tomasiello : Moving Toward Synchrony
- Claudia Jane Scroccaro (HMDK Stuttgart) : Detuning the space in I Sing the Body Electric (2020), for Double Bass and Electronics
- David Zicarelli, Emmanuel Jourdan (Cycling '74) : Max News
- Miller Puckette : Modular software and remote workflows
- Karim Haddad, Jean-Louis Giavitto (Equipe RepMus Ircam) : News (OM and Antescofo)
- Jacopo Greco d'Alceo (CNSM Lyon) : Hybridation, a mind-body problem: live coding
- Johann Philippe (CNSM Lyon) : Digital-analog hybridation
- Nishi Daiki (HMDK Stuttgart) : Creations of Instrumental Music Made by the Noise in the Natural Phenomenon
- Bengisu Onder (HMDK Stuttgart) : Creation of supernatural formantic sounds with OM Chant Library in Open Music
- Delia Ramos Rodriguez, Brandon Lincoln Snyder (HMDK Stuttgart) : Meta-Music: Creating Multimedia Music From a Multilayered Compositional Process
- Niklas Lindberg (HMDK Stuttgart) : Presenting a piece for a vocal performer and electronics
- Eduardo Valiente (HMDK Stuttgart) : OM-Chant as a filtering tool
Intelligence artificielle - Vidéos pré-enregistrées
- Matt Lewis (Royal College of Art) : Becoming Soundscape
- Robert B. Lisek (Institute of Advanced Study CEU) : Meta-composer
- Jason Palamara (Indiana University - Purdue University) : AVATAR - A Machine Learning Enabled Performance Technology for Improvisation
- Anna Huang (Google Magenta) : From generative models to interaction to the AI Song Contest
- Doug Eck (Google Magenta) : An overview of AI for Music and Audio Generation
- Jérôme Nika (Ircam) : Interaction with musical generative agents
- Neil Zeghidour : From psychoacoustics to deep learning: learning low-level processing of sound with neural networks
- Axel Roebel : Xtextures - Convolutional neural networks for texture synthesis and cross synthesis
- Philippe Esling (RepMus Team Ircam) : Tools for creative AI and noise
Voix - Vidéos pré-enregistrées
- Fabio Cifariello Ciardi (Conservatorio "F.A. Bonporti" di Trento e Rive del Garda) : Shrinking voices: strategies and tools for the instrumental trascription of speech segments
- Greg Beller (Ircam) : Melodic Scale and Virtual Choir, Max ISiS
-
Axel Roebel, Nicolas Obin, Yann Teytaut (Ircam) : Deep Learning for Voice processing
- David Guennec (Viadialog) : Towards helpful, customer-specific Text-To-Speech synthesis
Design sonore et interaction multimédia
BOLIDE est un collectif multidisciplinaire de jeunes designers dont l'ambition est de faire converger design graphique, interactif et sonore dans la conception d’installations interactives.
Bolidarium
Le BOLIDARIUM est une aire de jeux technologique et musicale où l'interaction musicale collective y est un vecteur de cohésion sociale. Allant du laboratoire musicobricologique à l’orchestre social et performatif, cet instrument participatif mêle création algorithmique et posture participative.
--------------------------------------
Rosie Ann Boxall est une designer sonore et une artiste d'installation basée à Londres. Après une formation en sonorisation pour la télévision, le cinéma et la radio, elle a étendu sa pratique au Royal College of Art aux installations artistiques destinées à l'enseignement. Elle est convaincue que l'avenir de l'éducation est interactif, en s'éloignant des programmes linéaires pour se tourner vers des espaces et des pratiques d'apprentissage plus positifs. Pour ce faire, elle crée des installations sonores conçues pour enseigner l'art, l'histoire et la science, ainsi que les compétences d'écoute et de communication.
Magical Stones of Old Britain
Il s'agit d'une sculpture sonore destinée à enseigner aux enfants le folklore britannique et les créatures mythiques. Prenant la forme d'un cercle de pierre, des orateurs joueront des versions parlées de mythes des îles britanniques pour que les participants puissent les écouter et s'y intéresser. Il y a cinq pierres, représentant cinq figures folkloriques ayant toutes leur propre personnalité et leur propre façon de raconter une histoire. Pour l'Ircam, je souhaite que l'une des pierres soit achevée afin de montrer et d'obtenir un retour d'information pour mon projet final à la RCA par le biais d'une démo vidéo.
--------------------------------------
Andrea Cera est un compositeur électroacoustique et designer sonore Italien. Son travail musical tourne autour de l'hybridation et de la distraction. En tant que designer, il explore les thèmes de l'intrusivité et des correspondances cross-modales. Il collabore avec le Département Perception et Design Sonore de l'IRCAM et le centre de recherche Infomus de l'Université de Genova. Parmi ses œuvres: les musiques pour les spectacles du chorégraphe Hervé Robbe, du metteur en scène Yan Duyvendak, de la compagnie ricci/forte; les sons pour les concept cars électriques de Renault; les algorithmes pour plusieurs projets de sonification du mouvement. Il a recu une Nomination dans la catégorie "Research & Development" dans le cadre des International Sound Awards 2018, pour le design sonore du concept car Renault Symbioz.
Basé sur le concept de l'hybride, Luxury Logico est créé par quatre artistes contemporains nés dans les années 1980 : Chih-chien Chen, Llunc Lin, Keng-hau Chang (1980-2018), Geng-hwa Chang, connus pour leur style léger, centré sur l'idée de "DELIGHTFUL WEIRD-LAND". Inspirés par l'environnement naturel, s'attaquant aux pensées et aux idées qui remplissent les spectacles de la société contemporaine, intégrant la technologie moderne et la culture des sciences humaines, représentant leurs idées par la "musique", la "visualisation", l'"installation" et le "texte", leurs œuvres de fantaisie se manifestent sous diverses formes et genres, y compris le théâtre, le cinéma, la danse, l'architecture, la musique pop et le comportement économique. Impulsée par une intégration incessante, LuxuryLogico voit le jour.
Points of Light in the Night : A Conversation on The Insomnia Sketchbook
LuxuryLogico et Andrea Cera travaillent ensemble pour construire un carnet de croquis comprenant des histoires courtes qui se déroulent dans l'obscurité : ces histoires tournent autour des champs sonores ou des sons de la conscience, de la maladresse, de la pureté, des danses, des conflits et de la destruction, comme si nous étions à moitié éveillés et que nous faisions l'éloge des mirages au milieu des rêves et des réalités sous la direction d'un point lumineux. Il y a toujours un paradoxe dans la simulation mécanisée de la vie. Comment peut-on distinguer les mouvements mécaniques des mouvements naturels ? Quel type de voix peut animer les mouvements mécaniques ? Quel type de cartographie acoustique dans les environnements spatiaux va interagir avec ces dispositifs mécaniques ? Comment les paysages sonores ambiants affecteront-ils la perception de la lumière par le public ?
--------------------------------------
Nicholas Faris est un designer sonore et musicien basé à Londres qui s'intéresse aux phénomènes naturels, à l'écoute spatiale et à la perception cognitive. Avec une formation en technologie de la performance et de la musique créative, Nicholas est actuellement en master de conception sonore au sein de l'Information Experience Design au Royal College of Art. Dans ses travaux récents, Nicholas a exploré les propriétés sonores de la matière en tant qu'outil sculptural afin d'explorer la composition et l'arrangement au-delà des formes conventionnelles d'écoute musicale. Ses recherches actuelles portent sur la façon dont le silence, dans les pratiques spirituelles et méditatives, influence les réponses au "bruit" dans la pratique créative. La majorité de son travail consiste en des pièces de composition influencées par les techniques utilisées dans la musique électroacoustique et la Musique Concrète. Le travail de composition de Nicholas explore le croisement entre la synthèse et le matériel organique pour exploiter les gestes sonores naturels et le contenu tonal de ses enregistrements.
Performative Audio Feedback
Ce projet montre quelques développements utilisant le feedback audio et son potentiel pour construire des instruments sculpturaux avec en tête, la composition et la performance. L'intention de ce projet est de fusionner le geste musical et le timbre comme moyen de générer des palettes sonores complexes à partir de matériaux et de hardware. L'importance du geste dans ce projet fait référence à la théorie de la spectromorphologie de Smalley et à l'importance du mouvement, du geste et de ses substituts. Ce projet a été particulièrement informé par la substitution de troisième ordre et le potentiel d'éveiller la curiosité de l'auditeur à partir d'un mouvement symbiotique entre le geste sonore et l'interaction. La cybernétique, en tant que méthode de conception orientée vers le processus, a influencé le discours de ces expériences en tirant profit de l'interactivité entre l'interprète et les comportements du retour audio.
--------------------------------------
Je suis designer sonore et artiste, j'étudie actuellement le design sonore au Royal College of Art dans le cadre du cursus du MA Information Experience Design. Dans le cadre de ma pratique, je m'intéresse à l'étude des possibilités sonores de la texture, ainsi qu'à nos relations avec les matériaux et les espaces naturels et artificiels. Je suis également intéressée par l'interaction entre l'art et la science, et par les possibilités de collaboration entre les différents domaines et de sensibilisation du public. Je viens d'une formation en conception sonore théâtrale, ayant auparavant obtenu un diplôme de l'école d'art dramatique de Londres et travaillé sur diverses productions en tant que concepteur sonore. La performance est un autre axe de ma pratique, et je suis intéressée par l'apport d'une conception sonore expérimentale et de nouvelles perspectives sonores à la pratique de la danse et du théâtre.
Texture Translation
Cette création est une enquête sur la relation sonore entre le toucher, le geste et la texture. Le concept qui sous-tend mon projet est de trouver des moyens d'écouter nos interactions avec notre environnement immédiat, de composer en utilisant les objets et les matériaux qui nous entourent, et de découvrir de nouvelles façons de jouer avec notre environnement. Il est facile de prendre pour acquis la myriade de textures qui nous entourent au quotidien ; ma création nous permet d'envisager ces textures dans un contexte différent et de "zoomer" sur leurs micro détails, offrant ainsi une nouvelle méthode pour examiner les espaces dans lesquels nous vivons. La pièce prendra la forme d'une performance, le son reflétant les mouvements du corps et ses interactions avec son environnement et son environnement matériel.
--------------------------------------
Lera Kelemen (née en 1994) est une artiste et une conceptrice sonore originaire de Timișoara, en Roumanie. Elle termine actuellement sa maîtrise en conception sonore au Royal College of Art de Londres, au Royaume-Uni. Sa pratique touche une approche interdisciplinaire travaillant principalement avec des installations et du son à travers laquelle elle interroge les notions de spatialité, d'interactivité, de corps, de récits personnels et de dynamique de l'environnement bâti. Elle a obtenu un diplôme en beaux-arts en 2018 et a reçu le prix "Art Encounters Award" pour son projet de fin d'études. Elle a participé à un certain nombre de résidences et de coproductions à Timisoara, Bucarest, Londres et Hanovre.
Tender Controller
Tender Technology sont des objets de fiction qui tentent d'imaginer un avenir dans lequel la technologie a une fonction d'offres plutôt que de technique, où le corps est recentré comme principale interface qui déclenche les signaux numériques. Dans un monde de plus en plus numérisé, où les appareils sont optimisés pour remplir rapidement des fonctions afin d'être rentables, le corps devient un accessoire qui effectue des gestes mécaniques, et donc une simple extension de la machine. Les aspects de soins, de tendresse, de chaleur, et même d'affection, deviennent distants, bien que ce soit le corps qui en fasse généralement l'expérience.
--------------------------------------
Clovis McEvoy est un compositeur, artiste sonore et chercheur primé actuellement basé à Berlin, en Allemagne. Clovis est spécialisé dans la musique pour la réalité virtuelle, la musique interactive et les œuvres pour instruments et électronique. Ses œuvres ont été jouées en Amérique, en France, en Angleterre, en Italie, en Corée du Sud, en Australie, en Nouvelle-Zélande, en Allemagne, en Suisse et au Portugal. De février à août 2020, Clovis a été accueilli en tant qu'artiste en résidence par l'Institut TAKT à Berlin, en Allemagne et par DME-Seia dans la réserve naturelle de Serra da Estrela, au Portugal. Le projet le plus récent de Clovis est une collaboration avec le cabinet d'architectes, Pac Studio, sur une nouvelle installation sonore en réalité virtuelle qui a été créée au 'Aotearoa Garden' d'Ars Electronica en Nouvelle-Zélande et sera exposée au Center of Contemporary Art de Christchurch de fin 2020 à début 2021.
Pillars of Introspection - a work for virtual music
Cette présentation examine l'une de mes propres œuvres écrites pour le médium émergent de la musique virtuelle - c'est-à-dire des œuvres musicales conçues pour être expérimentées principalement dans un environnement de réalité virtuelle. Pillars of Introspection (2019) explore les questions de la déresponsabilisation, de l'autonomisation et du voyage entre ces extrêmes à travers des niveaux changeants d'interactivité, des constructions spatiales et des matériaux audiovisuels isomorphes. Le développement de Pillars of Introspection a été un processus hautement expérimental pour moi en tant que compositeur. Sans répertoire bien rodé, ni formation formelle en codage ou en conception de jeux, ma direction créative et mes compétences techniques ont été contraintes d'évoluer en tandem à travers un processus d'intuition, d'essais et d'erreurs et de quantités de caféine déconseillées. À travers la discussion de l'œuvre et de son développement, la présentation offre à la fois un aperçu artistique et technique du projet et, en particulier, le domaine de l'interactivité incarnée, et comment les formes d'interaction peuvent servir de métaphores pratiques pour les thèmes sous-jacents d'une œuvre sont mis en évidence . Les éléments logiciels de la construction de l’ouvrage sont également détaillés; avec des descriptions détaillées de la façon dont Unreal Engine 4, FMOD Studio et Max peuvent être utilisés par d'autres compositeurs travaillant dans ce domaine. Enfin, ma propre perspective sur les succès et les défauts des œuvres est exposée et une discussion est donnée sur les développements futurs possibles dans ce domaine de la pratique compositionnelle.
--------------------------------------
Shangyuan Wu, concepteur multimédia et sonore Taïwanais, est l'une des étudiantes en conception sonore du programme IED du Royal College of Art. Elle se concentre sur les recherches concernant les médias numériques, l'interaction sonore et la composition de paysages sonores. Elle a été sélectionnée comme l'une des artistes du programme de résidence en sciences de la mer à la Science Gallery Venice, 2020. Entre-temps, elle a composé pour des festivals de films pour enfants et conçu des expériences pour l'Academia Sinica à Taiwan. Les mémoires qu'elle a rédigés en collaboration avec l'Academia Sinica de Taïwan ont été sélectionnés comme documents de conférence pour DH 2019 et DH 2020.
Humans Who Seeks Eternity
La musique, c'est le temps. Le temps c'est la dimension que les humains n'ont pas franchie. Nous passons notre temps à chercher la connaissance, la richesse, la célébrité et le statut, puis nous poursuivons le temps en espérant vivre plus longtemps. À la fin, nous poursuivons l'éternité. Par conséquent, le projet 《 Humans who pursue eternity 》essaie de décrire la poursuite de l'éternité avec une œuvre d'art/projet d'interaction sonore basé sur le web. La musique dans l'œuvre d'art/projet est la forme concrète du temps. Le paysage sonore que le public entend en live est le présent de l'espace. La poursuite est une action qui se transfère dans la vitesse de déplacement du public. Le capteur permettant de détecter la vitesse et le support sonore est basé sur les téléphones portables avec Internet et gyroscope intégré. La musique (les sons) change en fonction du mouvement du public. Lorsque l'espace a plus de deux spectateurs, la musique (les sons) crée une signification multidimensionnelle des humains qui poursuivent l'éternité par des sons et des mouvements.
--------------------------------------
En 2018, Carlo Siega a remporté le célèbre prix de musique Kranichsteiner pour l'interprétation aux cours d'été de musique nouvelle de Darmstadt. En tant qu'interprète qui se consacre à la musique contemporaine, il a activement travaillé avec des compositeurs tels que Peter Eötvös, Pauline Oliveros, Stefan Prins, Rebecca Saunders, Simon Steen-Andersen et bien d'autres. Il s'est produit en tant que soliste et avec des ensembles dans de nombreux lieux en Autriche, en Belgique, en Croatie, en Finlande, en Allemagne, en Italie, en Pologne, en Slovénie, en Espagne, en Suède et ailleurs. En tant qu'universitaire, il a été invité comme conférencier au symposium "PARL_Next Generation" (Linz), à la conférence "Re-envisaging Music 2020" à l'Accademia Chigiana (Sienne), à la conférence sur la guitare du 21e siècle (Lisbonne), et à d'autres encore. Après avoir terminé ses études musicales à Venise, Milan et Bruxelles (Ictus Ensemble Academy), et ses études de philosophie à l'Université Ca 'Foscari" - Venise, il est actuellement candidat au doctorat à l'Université privée "Anton Bruckner" de Linz, en Autriche.
Re-actualisation practices through video-art music. A case study.
Dans le domaine actuel de la musique expérimentale, les nouvelles approches englobent des pratiques transdisciplinaires qui appartiennent également à d'autres arts performatifs et visuels. Les nouvelles technologies étendent les possibilités performatives des sons acoustiques, traduisant les gestes musicaux en images. Elles génèrent ce que l'on appelle la musique vidéo-art, dans laquelle le monde de l'image augmente la production sonore des compositions musicales, unifiant les sens auditif et visuel dans une même œuvre d'art. Le format du concert est ainsi élargi et la présence corporelle du musicien est explorée dans le cadre de la composition elle-même. Comment la performativité du musicien répond-elle à la matérialité visuelle du son ? Est-ce que cela affecte la perception de la performance elle-même ? L'objectif de cette contribution est de décrire une approche au sein de la pratique de l'interprétation. Ici, les technologies vidéo-media servent d'outil créatif pour un processus de ré-actualisation à partir du répertoire déjà existant. L'intervention propose une étude de cas basée sur une opération de "remaking" de "Serenata per un Satellite" de Bruno Maderna (1920 - 1973) pour guitariste et vidéo-électronique aléatoire. Le cœur de cette présentation vise à étudier l'agence créative de l'interprète, qui prolonge et convertit la "composition musicale" en une installation vidéo performative grâce à un environnement Max/MSP & Jitter. Ici, la volonté est de souligner les modèles performatifs internes des processus de réinterprétation, où le support vidéo augmente l'engagement physique de l'interprète. Le processus de réinterprétation d'une œuvre d'art musicale ouvre vers de nouvelles perceptions de la performativité du corps, où les domaines musical et visuel sont connectés et hybridées.
--------------------------------------
Shontelle Xintong Cai est une artiste et designer basée sur la recherche, actuellement basée à Toronto et à Londres. Elle s'engage dans le posthumanisme, les systèmes scientifiques, l'informatique, la narration transmédia et diverses approches de l'expérience interactive intersensorielle. Son art et ses pratiques de design sont influencés par sa formation universitaire en communication visuelle, en écologie humaine et en physiologie végétale. Ses œuvres créent des dialogues innovants, envisageant les relations entre les entités post-humaines et non humaines. Elle expérimente la visualisation de l'information et l'interactivité matérielle via la communication graphique, audiovisuelle, le codage créatif et l'installation. Elle ouvre les discussions relatives aux technologies émergentes, au bio-design synthétique et aux objets tangibles à travers l'écologie politique et l'animisme à son public.
Launch a dream
«Launch A Dream» est un projet basé sur l'analyse des données télémétriques du vol du ballon stratosphérique, interagissant avec les informations sonores produites par la sonification des données et l'improvisation sonore. Mon intention est de créer une expérience sonore immersive d'exploration spatiale, en particulier avec un ballon stratosphérique à mon public, leur permettant de s'impliquer et d'improviser une partie de la création sonore pendant la performance. Après avoir "lancé le rêve du vol spatial", mon public a reflété la relation entre individualité, système et espace. Cette installation est présentée en deux parties: la démonstration de la sonification des données et de l'interaction sonore basée sur la logique du système autopoïétique. J'intègre une réflexion systématique lorsque je conçois l'installation interactive. Le système autopoïétique est un système auto-créateur et auto-organisé, nécessitant parfois des activités extérieures pour déclencher certaines actions et maintenir l'équilibre ou les fonctions des systèmes. Je considère que les actions de mon participant sont considérées comme l'élément du «hasard étranger de bas niveau» d'un système autopoïétique, activant une partie de ce système complexe. Les deux systèmes autopoïétiques dépendants s'entremêlent et influencent l'environnement collectif. L'efficacité et la stabilité du vol en ballon seraient affectées par le champ magnétique terrestre. Ainsi, je teste l'adaptabilité et l'application du système autopoïétique, en découvrant comment le système stimule la perception humaine et l'interaction de la sonication des données et de l'instrument de bricolage. J'analyse les données ouvertes de la base de données de l'Agence spatiale canadienne (ASC) en 2018 et je crée les images en mouvement et la bande sonore des données de télémétrie collectées en vol en ballon.
--------------------------------------
En utilisant le codage créatif, la conception 3D et les technologies ML ainsi que la peinture et le film comme supports, je crée des expériences multisensorielles, des instruments de musique expérimentaux et des performances qui communiquent les informations recueillies par la philosophie, la science, la recherche et l'auto-découverte. Le temps réel est une fascination pour moi car je crois qu'il peut capturer le "maintenant" toujours glissant. Mon processus se concentre généralement sur la traduction des informations entre le sensorium humain et les algorithmes machine, créant ainsi quelque chose d'intermédiaire et d'inconnu pour les deux. Je poursuis actuellement mes études de troisième cycle au Royal College of Art, dans le cadre d'une maîtrise en conception d'expériences d'information.
Becoming with
Becoming With est un instrument de musique expérimental qui produit de l'audio/musique en temps réel à partir de mouvements corporels et de danse improvisés en utilisant un capteur Kinect, un Touchdesigner et un Wekinator Machine Learning. La danse et la musique fusionnent. Traditionnellement, la danse est considérée comme une réponse à la musique, mais dans ce projet, je voulais détruire ce dualisme qui sépare la musique et la danse. Je les ai imaginées comme une seule et même chose, devenant avec l'autre un flux constant. Comme en physique quantique, cette performance est indéterminée, dans sa nature d'improvisation. Il n'y a pas moyen d'imaginer, de décider ou de produire les sons ou les mouvements avant qu'ils ne s'actualisent. Elle s'inspire des vues de la physicienne et philosophe quantique Karen Barad qui soutient qu'aucune entité n'existe avant les intra-actions, tout émerge par le biais de diverses et nombreuses intra-actions au niveau du quantum. Comme dans la théorie quantique, dans ce projet, le dualisme sujet-objet est remis en question. Il n'y a pas de relation d'entrée/sortie entre la danse et la musique. L'indétermination et le post-dualisme sont au cœur de la performance. C'est à la fois un outil de performance improvisée et une installation sonore interactive. Becoming With est une manifestation d'intra-actions où le son et la danse émergent.
--------------------------------------
Né en 2000 à la Nouvelle-Orléans, LA, B.K. Zervigón a commencé à composer dès son plus jeune âge. Souvent confronté aux défis de la côte du Golfe du Mexique en raison du changement climatique et de l'industrialisation, son travail cherche à créer des paysages sonores qui reflètent l'interaction entre l'industrie lourde et la nature ancienne et délabrée. Ce paysage du sud-est de la Louisiane s'infiltre dans son travail à travers des processus architecturaux souvent massifs contre des sentiments intensément émotionnels et intuitifs - comme l'eau qui se déplace à travers une raffinerie de pétrole inondée ou un enfant debout sur un mur d'inondation du Mississippi construit dans les années 1930 (comme Venise, Norco, & Destrehan, LA et le déversoir de Bonnet Carré). Sa production comprend des œuvres pour piano, du piano réaccordé, des solos instrumentaux, des œuvres de chambre et de la musique électronique. Il a actuellement le privilège d'étudier et de jouer la musique de Michael Hersch au conservatoire de Peabody. Auparavant, il a étudié sous la direction de Yotam Haber à l'Université de la Nouvelle-Orléans alors qu'il était au lycée Benjamin Franklin. Parmi ses récentes collaborations, citons la mise en scène de la poétesse Nicole Cooley's Breach pour commémorer le 15e anniversaire de Katrina, et des projets multimédias avec le photographe Luca Hoffmann. Les partitions de Ben sont disponibles sur IMSLP.
Soundings in Fathoms - reconstructing the concert experience in digital media
Soundings in Fathoms a été commandé par le New York New Music Ensemble dans le cadre de leur initiative "Socially Distant Micro-Commission". L'ensemble a invité les compositeurs à réimaginer l'expérience du concert et à créer une musique émouvante entendue et conçue par le biais des médias numériques. Le travail qui en a résulté a combiné des aspects de la musique de concert avec un processus électronique et un montage rigoureux pour créer un monde sonore massif à partir de seulement 4 incroyables instrumentistes. Grâce aux processus d'enregistrement et de post-production, l'œuvre a pu atteindre des aspects techniques impossibles à réaliser en concert de chambre, tels que de nombreux pianos réaccordés, des scordaturas, une manipulation dense des instruments enregistrés, et bien plus encore. Le lieu est évoqué d'une manière inhabituelle par l'utilisation intensive d'enregistrements de terrain bien mélangés provenant de la côte industrielle de Louisiane. Soundings in Fathoms réimagine la conception sonore, en essayant d'aller au-delà de l'expérience du concert en direct et de créer des œuvres de concert conçues uniquement pour les médias numériques. Il s'agit d'une conception sonore qui vise uniquement à placer l'auditeur dans un paysage dans lequel la musique prend place. Dans cette conférence, je souhaite partager mon point de vue sur la composition de cette œuvre, les idées qu'elle ouvre sur les médias numériques et la représentation du lieu dans la musique. J'aborderai les questions d'intonation dans une musique à la densité microtonale aussi élevée, ainsi que le dépassement du possible avec l'enregistrement. J'aimerais mettre au défi tous ceux qui composent de considérer les nouvelles possibilités d'un processus d'enregistrement fragmentaire et distant.
--------------------------------------
Nicolas Misdariis : Je suis Directeur de Recherche Ircam et responsable de l’équipe Perception & Design Sonores du Laboratoire STMS. J’ai obtenu mon diplôme d’ingénieur en 1993 au CESTI-SupMeca, école généraliste spécialisée en mécanique. J’ai ensuite obtenu mon Master d’acoustique (ex- DEA) au Laboratoire d’Acoustique de l’Université du Maine (LAUM, Le Mans) puis ma thèse de Doctorat au Conservatoire National des Arts et Métiers (CNAM – Paris) sur le sujet de la synthèse/reproduction/perception des sons instrumentaux et environnementaux. Enfin, j’ai récemment obtenu (en 2018) mon HDR (Habilitation à Diriger des Recherches), affiliée à l’Université de Technologie de Compiègne (UTC) sur le thème des Sciences du design Sonore. Je travaille à l’Ircam en tant que chercheur depuis 1995. J’ai contribué, en 1999, à l’introduction du design sonore à l’Ircam (équipe Design Sonore /L. Dandrel), puis à son évolution en 2004 (équipe PDS /P. Susini). Au cours de ces années, j’ai notamment développé des travaux de recherche et des applications industrielles en rapport avec la synthèse et la reproduction sonore, la perception des sons du quotidien et des environnements sonores, les interfaces homme-machines (IHM) ainsi que la sonification interactive et le design sonore. Depuis 2010, je suis également vacataire d’enseignement dans le cadre de la formation en design sonore de l’Ecole Supérieure d’Art et de Design du Mans (ESAD TALM, Le Mans).
Diemo Schwarz est chercheur et développeur à l'Ircam (Institut de Recherche et Coordination Acoustique-Musique, Paris), compositeur de musique électronique, et musicien improvisateur. Ses recherches scientifiques portent sur l'interaction entre musicien et machine, et l'exploitation de grandes masses de sons pour la synthèse sonore temps-réel et interactive, soit pour redonner aux musiciens un accès immédiat et expressif aux mondes sonores électroniques, soit pour des installations grand public avec des interfaces tangibles intuitifs, tels que les DIRTI (Dirty Tangible Interfaces). Il collabore avec des artistes en réalisant des installations interactives et performances avec technologies numériques (Christian Delecluse, Cecile Babiole, Sylvie Fleury, Frank Leibovici). Ses compositions et performances explorent les possibilités interactives de la synthèse concaténative par corpus qui rend, grâce au contôle gestuel, l'expressivité et la physicalité aux mondes sonores numériques. En 2017, il était professeur invité à l'Université Technique de Berlin dans le cadre du programme Edgar-Varèse du DAAD.
SkataRT, sound design and creation tool
L’environnement SkataRT est construit à l’intersection d’un travail de recherche et développement sur la synthèse sonore concaténative par corpus (CataRT) et d’un projet de recherche européen sur la question de l’imitation vocale comme outil d’esquisse et de prototypage rapide (Skat-VG). Il offre donc différents champ d’application et d’usage qui vont de la création musicale au design sonore, en passant par l’exploration de corpus sonores, ou la performance. D’un point de vue technologique, il s’incarne dans un device "Max for Live" développé par Manuel Poletti et Thomas Goepfer (Music Unit), dans le cadre d’une collaboration avec les équipes ISMM et PDS de l’Ircam. Après une brève introduction générale, une démonstration de l’état actuel du développement du logiciel et de ses diverses possibilités sonores sera effectuée pendant la présentation.
--------------------------------------
Nicolas Misdariis : Je suis Directeur de Recherche Ircam et responsable de l’équipe Perception & Design Sonores du Laboratoire STMS. J’ai obtenu mon diplôme d’ingénieur en 1993 au CESTI-SupMeca, école généraliste spécialisée en mécanique. J’ai ensuite obtenu mon Master d’acoustique (ex- DEA) au Laboratoire d’Acoustique de l’Université du Maine (LAUM, Le Mans) puis ma thèse de Doctorat au Conservatoire National des Arts et Métiers (CNAM – Paris) sur le sujet de la synthèse/reproduction/perception des sons instrumentaux et environnementaux. Enfin, j’ai récemment obtenu (en 2018) mon HDR (Habilitation à Diriger des Recherches), affiliée à l’Université de Technologie de Compiègne (UTC) sur le thème des Sciences du design Sonore. Je travaille à l’Ircam en tant que chercheur depuis 1995. J’ai contribué, en 1999, à l’introduction du design sonore à l’Ircam (équipe Design Sonore /L. Dandrel), puis à son évolution en 2004 (équipe PDS /P. Susini). Au cours de ces années, j’ai notamment développé des travaux de recherche et des applications industrielles en rapport avec la synthèse et la reproduction sonore, la perception des sons du quotidien et des environnements sonores, les interfaces homme-machines (IHM) ainsi que la sonification interactive et le design sonore. Depuis 2010, je suis également vacataire d’enseignement dans le cadre de la formation en design sonore de l’Ecole Supérieure d’Art et de Design du Mans (ESAD TALM, Le Mans).
Patrick Susini : En tant que directeur de recherche Ircam, un enjeu important de mon travail a été de concevoir un cadre expérimental et théorique permettant d’articuler des recherches en perception avec des applications en design sonore en abordant plusieurs questions : comment communique-t-on sur les caractéristiques d’un son ? Quelles sont les dimensions perceptives du timbre qui sous-tendent les qualités et l’identité d’un son ? En quoi la signification d’un son dépend-elle d’un processus d’interaction entre un individu et son environnement ? Ces chantiers sont toujours ouverts mais on peut trouver une partie des réponses aux questions abordées dans des ouvrages récents auxquels j’ai participé : Measurements with Persons (Psychology Press, 2013), Sonic interaction design (Mit Press, 2013), ou encore Frontiers of Sound in Design (Springer, 2018). Cette activité de recherche est menée aussi bien dans le cadre de collaborations avec des compositeurs que dans un cadre pédagogique, notamment avec la création du DNESP design sonore de l’école des beaux-arts du Mans où j’enseigne depuis 2010.
Un autre axe de mes travaux concerne les processus cognitifs impliqués dans la perception de scènes sonores complexes (non-stationnaires) multi-sources, notamment en termes d’interaction entre informations locale et globale. Cet axe est mené en étroite collaboration avec deux autres laboratoires du CNRS : le LMA à Marseille et le CRNL à Lyon.
Un autre axe de mes travaux concerne les processus cognitifs impliqués dans la perception de scènes sonores complexes (non-stationnaires) multi-sources, notamment en termes d’interaction entre informations locale et globale. Cet axe est mené en étroite collaboration avec deux autres laboratoires du CNRS : le LMA à Marseille et le CRNL à Lyon.
Romain Barthelemy : Formé en composition musicale classique et contemporaine (Conservatoire Massenet, NUIM), puis en design sonore (ESBAM-IRCAM), je travaille en freelance dans les domaines de la scénographie sonore, de l'art numérique et du design sonore industriel. Je suis collaborateur régulier de l'agence Laps et membre fondateur du collectif AAIO.
SpeaK – Lexicon of sounds for sound design
L’outil Speak est un lexique sonore qui propose une définition des principales propriétés d’un son. Chaque terme du lexique est illustré par des exemples sonores créés ou enregistrés à dessein afin de mettre en évidence la propriété voulue. L’outil s’incarne dans une interface Max, développée par Frédéric Voisin, qui peut être personnalisée en ajoutant des nouveaux termes et/ou des nouveaux sons suivant les besoins d’un usage donnée. L’un des objectifs de Speak est de favoriser une compréhension partagée du phénomène sonore dans le cadre d’un processus de design sonore collaboratif. Pour cela, il est souvent associé à des Objets Intermédiaires de conception (typiquement, un jeu de cartes) qui permettent de convertir des intentions générales en caractéristiques sonores et donc d’informer la phase de réalisation sonore. Depuis quelques années, l’ergonomie de Speak s’est notamment développé à la faveur de différents projets en design sonore qui seront détaillés au cours de la présentation et illustreront le bien-fondé de cette approche.--------------------------------------
- Frédéric Bevilacqua, Diemo Schwarz, Jean-Etienne Sotty (Equipe ISMM) : News Interaction Sound Music Movement Team
Frédéric Bevilacqua : Directeur de recherche Ircam et responsable de l’équipe Interaction son musique mouvement, mon travail concerne l’interaction gestuelle et l’analyse du mouvement pour la musique et le spectacle vivant. Les applications de mes recherches vont des instruments de musique numériques à la rééducation guidée par le son. J’ai coordonné plusieurs projets comme Interlude sur les nouvelles interfaces pour la musique (Prix ANR du Numérique 2013, Prix Guthman 2011 des nouveaux instruments de musique) ou encore le projet ANR Legos sur l’apprentissage sensori-moteur dans les systèmes interactifs musicaux. Après des études scientifique et musicale (Master en physique et doctorat en en optique biomédicale de l'EPFL, Berklee College of Music à Boston), j’ai été chercheur à l'université de California Irvine (UCI), avant de rejoindre l’Ircam en 2003.
Diemo Schwarz est chercheur et développeur à l'Ircam (Institut de Recherche et Coordination Acoustique-Musique, Paris), compositeur de musique électronique, et musicien improvisateur. Ses recherches scientifiques portent sur l'interaction entre musicien et machine, et l'exploitation de grandes masses de sons pour la synthèse sonore temps-réel et interactive, soit pour redonner aux musiciens un accès immédiat et expressif aux mondes sonores électroniques, soit pour des installations grand public avec des interfaces tangibles intuitifs, tels que les DIRTI (Dirty Tangible Interfaces). Il collabore avec des artistes en réalisant des installations interactives et performances avec technologies numériques (Christian Delecluse, Cecile Babiole, Sylvie Fleury, Frank Leibovici). Ses compositions et performances explorent les possibilités interactives de la synthèse concaténative par corpus qui rend, grâce au contôle gestuel, l'expressivité et la physicalité aux mondes sonores numériques. En 2017, il était professeur invité à l'Université Technique de Berlin dans le cadre du programme Edgar-Varèse du DAAD.
Jean-Etienne Sotty : Jean-Etienne Sotty naît le 20 mars 1988. Originaire de Bourgogne, il s'est formé auprès des professeurs les plus distingués : O. Urbano, C. Girard, P. Bourlois et enfin T. Anzellotti, sous l'enseignement duquel il obtient son Master à la HKB Bern. Son excellence lui ouvre les portes du CNSMDP (Doctorat) ; ses savoirs musicaux lui valent d'obtenir l'agrégation de musique. Fort de ce parcours, il ne donne aucune limite à ses envies musicales : récital, création contemporaine, improvisation, concerto avec orchestre... ses activités sont aussi diverses que possible. Insatiablement créatif il collabore avec de nombreux compositeurs et il crée le premier accordéon microtonal en France au sein du duo XAMP qu'il forme avec Fanny Vicens. On a pu l'entendre dans les lieux les plus prestigieux : Théâtre du Châtelet, KKL de Lucerne, Les Subsistances (Lyon), Centre George Pompidou/Ircam, Festival Printemps des Arts (Monaco), Teatro Mayor (Bogota), Sadler's Wells (Londres), Konzerthaus de Vienne, Festival Présences...
--------------------------------------
Jean Lochard est Réalisateur en Informatique Musicale chargé de l’enseignement à l’Ircam depuis 2001. Il enseigne l’acoustique, les techniques pour l’analyse-synthèse et le temps réel au Cursus de Composition et d’informatique musicale du département Pédagogie & Action culturelle. Comme chercheur et développeur, il coréalise notamment les Ircamax 1&2, ensemble de plugins pour Ableton Live et Najo Mudular Interface, une interface facilitant l’apprentissage du logiciel Max. Il poursuit par ailleurs son travail de musicien électronique : remix d’Émilie Simon, ciné-concerts avec François Regis, installations pour Pierre Estève, conception d'un séquenceur tactile pour Jean Michel Jarre, spectacles vivants avec la compagnie Suonare e Cantare, création d’applications pour Karlax, réalisations informatiques pour Avril, Jackson and his Computer Band…, production de deux albums : A Quiet Place on This Planet (2015) et New Brain (2019).
New Ircam Forum Max For Live devices
Pendant cette session, 5 nouveaux devices Max For Live distribués par le Forum seront présentés. MarbleLFO et PendulumsLFO utilisent les fonctions physiques de Max pour simuler deux systèmes : des billes s’entrechoquant dans une boite et un double pendule. Les coordonnées des objets de ces deux systèmes sont transformées en données qu’il est possible de mapper à n’importe quel paramètre d’une session Live. SuperVPSourceFilter et SuperVPCross sont dédié à la synthèse croisée avec le moteur SuperVP™. LadderFilter reproduit le son du filtre des fameux synthétiseurs modulaires Moog, combiné à un LFO et à un suiveur d’enveloppe.
--------------------------------------
Rosie exploite le pouvoir évocateur du son pour amplifier les voix des communautés de réfugiés et de migrants. Son travail se concentre sur la collaboration avec les communautés afin de développer des projets participatifs qui donnent du pouvoir aux diverses voix. Plus largement, les recherches de Rosie se concentrent sur l'inclusion sociale et la résilience des communautés à travers des projets de collaboration centrés sur la voix et la conversation en tant que pratique artistique. Pendant ses études, certaines de ses œuvres réalisées en collaboration avec le Compass Collective ont été exposées à la vitrine en ligne "Late at the Tate's", dans un partage en ligne d'un court métrage pour la Semaine des réfugiés soutenue par Migrant Arts, et ont été jouées en direct dans le cadre d'une performance à la Southwark Playhouse. Indépendamment, son travail précédent réalisé avec le club Say It Loud a été commandé et exposé par Usurp Arts.
Home
“The spirit of a home can affect our whole life.” – Daphine Adikini, membre du Say It Loud Club.
Au cours de l'année dernière, nos foyers sont devenus plus importants que jamais. En collaboration avec huit membres du club Say It Loud, un collectif de demandeurs d'asile et de réfugiés LGBTQ+, ce film examine comment nous définissons le foyer, comment cette définition peut changer du jour au lendemain, et ce que signifie avoir accès à un espace que nous pouvons appeler nôtre. Réalisé pendant le confinement avec des mots, des films et des images de huit voix uniques et puissantes - "Home is what we make it and want it to be". https://youtu.be/0b0Y1eVtpxY
--------------------------------------
Frances Allen est étudiante en conception sonore au Royal College of Art, après avoir étudié la musique à la Reid School of Music de l'université d'Édimbourg. Dans ses travaux de composition, Frances s'intéresse aux relations qui peuvent être créées entre l'art/le design et le son. Une grande partie de son travail se concentre sur l'idée de structures et de séquences rotatives pour créer des environnements sonores ou des paysages sonores qui accompagnent les éléments visuels.
Rubiks Cube
Une pièce d'art sonore qui recrée les mouvements du Rubik's Cube. Le puzzle se déforme et se résout grâce aux mouvements des visages, ce qui crée une discordance et une résolution harmoniques. Pour créer l'œuvre, chaque couleur du cube s'est vue attribuer une hauteur de son et chaque face s'est vue attribuer une plage d'octaves. Ensuite, grâce à l'utilisation de MAX/MSP, les fréquences de chaque couleur sur chaque face à travers chaque séquence sont tracées, pour créer un paysage sonore mouvant.
--------------------------------------
Jiuming Duan est un artiste et designer né en Chine et élevé à Pékin. Il est venu à Londres pour étudier au Royal College of Art en vue d'obtenir une maîtrise en design d'expérience de l'information. Avant cela, il a obtenu une licence à l'Université de communication de Chine en design artistique pour le cinéma et le théâtre, où il s'est concentré sur le design de théâtre. Actuellement, il travaille sur l'installation, le son, la performance, l'interaction et la scénographie. Son travail est souvent axé sur la poésie. Il cherche des moyens de faire participer le public à des problèmes complexes de manière simple et concrète.
Motion-sonic Installation
Cette présentation comprend une série d'expériences et de processus concernant la connexion d'un capteur d'accéléromètre à des oscillateurs. Grâce aux données du capteur de l'accéléromètre, la fréquence du son peut être modifiée instantanément. Il est utilisé pour capter les mouvements des ondulations du vent et de l'eau dans la nature, et les transformer en une expérience sonore d'une manière poétique. Il explore la relation entre les mouvements spatiaux et l'expérience sonore, ce qui donne une autre perspective sur la façon dont nous percevons les mouvements naturels.
--------------------------------------
Leon Hapka est chercheur et artiste des nouveaux médias qui se situe à la frontière entre le créatif et le scientifique. Outre sa formation en sciences médicales (MSc en biotechnologie médicale) dans une perspective occidentale, il s'intéresse particulièrement aux sciences védiques, ainsi qu'à la philosophie chinoise. Il étudie actuellement le MA Information Experience Design au Royal College of Art de Londres, avec un intérêt particulier pour le son.
Sonic Harmony Systems
Sachant que tout dans notre univers est en mouvement à cause des vibrations constantes que chaque objet produit en permanence au niveau atomique, il est facile de comprendre que cela signifierait, que chaque objet est sensible à ses propres fréquences ainsi qu'à tout ce qui émet des fréquences autour de lui. Il est important de bien comprendre ces phénomènes et leur signification, car cela peut nous aider à reconnaître et à interpréter la manière dont la pollution sonore des villes, les ondes radio des téléphones portables, etc. nous affectent réellement. La visualisation de la puissance de simples sons peut être cruciale pour réaliser l'ampleur de l'effet que le mélange constant de sons non naturels dont nous sommes entourés peut avoir sur notre corps. Les fréquences sonores semblent avoir un pouvoir sur la matière, ce qui signifie qu'elles peuvent aider à équilibrer notre santé au niveau moléculaire et cellulaire, ainsi qu'attirer notre attention sur les pouvoirs destructeurs et le danger croissant de la pollution sonore et des champs électromagnétiques, en nous montrant que c'est quelque chose qui ne peut pas être ignoré et qui peut potentiellement être une cause de maladies dans le pire des cas.
--------------------------------------
Je suis un étudiant de troisième cycle au RCA, qui se consacre actuellement à la conception d'expériences d'information. Et ma session de BA est le design de mode en Chine. L'année dernière, j'ai travaillé pour Vogue Chine et j'ai diverses expériences avec des marques commerciales, comme Charles Keith, Bio-Oil, Dior, BMW, etc. J'ai également travaillé pour quelques créations sur le cuir, le graphisme, le textile et la mode en tant que freelance pendant ma session de BA. J'ai participé à l'organisation de quelques conférences animées par des célébrités de différents domaines, comme les magazines de mode ou certaines marques leaders du marché. J'ai travaillé sur des créations de mode qui ont reçu des prix, également présentés lors de la New York Children's Fashion Week. J'ai essayé les nouveaux médias dans le cadre de mon diplôme de design, j'ai utilisé la RA dans le design de mode, pour mélanger les sensations visuelles les unes avec les autres. Et j'ai commencé à m'impliquer dans le domaine technique. Je cherche d'autres moyens de mélanger diverses techniques et l'art afin de présenter un travail plus productif.
Self Independences and groups
De nos jours, les groupes nous limitent et nous uniformisent toujours dans la société. Si vous êtes indépendant et différent des autres, vous serez isolé des groupes. De mon point de vue, ce phénomène social pourrait créer des limites défavorables au développement humain. D'autre part, la voix publique serait trop sévère pour ceux qui font preuve d'auto-indépendance. Par une réflexion et des recherches approfondies sur ce problème, j'insiste sur le fait que nous devrions chercher un terrain d'entente et réserver nos différences sur cette question. En outre, j'ai lu un livre d'un écrivain chinois bien connu, Chiang Hsun, dont le nom est "Six Lectures on Loneliness". Il y mentionne que "Lorsque des individus entrent en conflit avec des groupes de la culture confucianiste, qui sont indépendants, il peut sembler que ces individus reçoivent une solitude qui va au-delà de ce qu'on attend d'eux. D'autres auraient pitié d'eux, leur demanderaient les raisons de leur maintien et les considéreraient même comme des races étrangères inacceptables". Des recherches sur les relations entre les individus et les groupes ont donc été menées.
--------------------------------------
Je m'appelle Wenqing Yao. J'étudie actuellement le cheminement entre le design d'information et le design d'image animée au Royal College of Art. Mes recherches portent sur la communication par l'intermédiaire d'images en mouvement et de l'interaction sonore. Je m'intéresse au thème de la nature et de la philosophie.
Land Speech
La vie humaine est inséparable de la terre, que ce soit dans le passé ou dans le présent. Labourer la terre, construire des maisons, planter des arbres, etc. Les gens ne cessent de demander des terres, et les terres sont constamment données. Cependant, comment se sent la terre lorsque les gens lui font ces gestes ? Quelle est l'émotion de la terre ? Le bruit de la terre est souvent négligé, et la terre joue souvent le rôle du silence. C'est pourquoi je souhaite faire parler la terre, amplifier le son de retour de la terre grâce à une technologie sonore simple, et laisser la terre parler pour exprimer ses sentiments.
--------------------------------------
Nirav Beni est un artiste sud-africain des nouveaux médias et un ingénieur actuellement basé à Londres. Ayant une formation en ingénierie mécatronique, il se place souvent à l'intersection de l'art et de la technologie, où il vise à intégrer l'IA, l'apprentissage machine et d'autres technologies émergentes dans sa pratique afin de créer des expériences audiovisuelles évocatrices et immersives.
Lucy Papadopoulos: Praticienne créative testant les frontières entre les dichotomies dominantes telles que micro/macro, sujet/objet et humain/non-humain. J'ai une approche transdisciplinaire s'appuyant sur la physique, les neurosciences, le changement climatique et la philosophie pour explorer latéralement les questions fondamentales de l'épistémologie. Dans un monde où la science-fiction est de plus en plus crédible et où des concepts comme les « fake news" pourrissent de plus en plus la dynamique interne de la confiance, je m'intéresse à la manière dont le sens et l'agence se créent aux frontières extérieures de ce qui est connu et de ce qui est connaissable.
Susan Atwill est une chasseuse de sons et une artiste, qui fusionne les expérimentations physiques et audio de matériaux quotidiens pour créer des performances et des installations audiovisuelles cinétiques et abstraites. Elle termine actuellement un master en conception d'expériences d'information au Royal College of Art.
Spin
Nous sommes un collectif d'artistes sonores et de designers du Royal College of Art Lucy. Nous avons combiné son et lumière et l’idée de la rotation, ou du «spin», afin d’en réaliser un film expérimental. Nous utilisons des objets ordinaires du quotidien pour considérer la vie au sein de la pandémie, comment se connecter aux autres, sans être physiquement avec eux. Nous sommes à la fois présence et absence. Sujet / objet, humain / non humain. Nous tournons en rond.
--------------------------------------
< Spinning Brother __/''''\__ *3 >
Mon étude se concentre sur la transmission d'informations/d'expériences d'animaux à l'homme. Dans ma pratique, je minimise la technologie et les matériaux tout en les expérimentant, maximisant mon entité pour participer pleinement. <Spinning Brother __/''''\__ *3 > est une pièce audio + vidéo, elle montre la perspective mixte de deux espèces différentes : humain et araignée. La vision montre des vues humaines, l'audio représente l'angle de l'araignée.
--------------------------------------
Production audio
Charles-Edouard Platel est compositeur de musique électroacoustique autodidacte depuis 2006. Son catalogue d'une quarantaine d'œuvres est diffusé sous forme de CD ou en streaming. Qualifié d'"électron libre", il organise lui-même 2 ou 3 concerts spatialisés par an dans le cadre des Artistes Hélium de la vallée de Chevreuse. Il a été diffusé régulièrement au Festival Futura et sur les antennes de France Musique et Radio Libertaire. Ancien ingénieur, il développe sur Max/MSP/Jitter les instruments de création musicale dont il a besoin: Randolon (générateur aléatoire) et Ondolon (sculpture sonore).
Ondolon, sculpture of recorded sound
Ondolon est un instrument logiciel pour pratiquer la sculpture sonore en improvisant : tous les réglages, dans une fenêtre unique, sont modifiables en temps réel pendant le jeu, selon le feedback du musicien, dont les actions peuvent être mémorisées au fil de l'eau de façon à rejouer la session de travail à l'identique. Les artefacts technologiques ne sont pas nouveaux mais le but est de les exploiter avec facilité pour servir une intention esthétique.
--------------------------------------
William Petitpierre est designer sonore, musicien et performeur. Récemment diplômé d'un DNSEP mention Design Sonore, sa pratique s'oriente vers le design d'interaction, le field recording, la musique à l'image et la manipulation du son en temps réel lors de performances électronique live du duo parhelic shell. Il est également artiste intervenant et formateur pour le collectif Mu et la technologie Soundways permettant la création de parcours sonores géolocalisés.
IRCAM Technologies - vector of expressiveness
L'objectif de cette démo est de présenter une utilisation artistique de Modalys et CatArt sous la forme d'une performance live. Cette performance s'appuie sur l'utilisation du Morph de Sensel pour contrôler des instruments en temps réel dans Max/MSP répondant à une gestuelle pré-établie. Le projet cherche à renforcer le lien geste-son dans la création électronique pour retrouver un rapport presque tangible avec le son rendu possible grâce à l'utilisation de modèles physiques et à la réflexion sur des stratégies de mapping.
--------------------------------------
Benjamin Hackbarth dirige le Centre interdisciplinaire de composition et de technologie et enseigne la composition à l'université de Liverpool où il donne des cours et écrit de la musique pour instruments et électronique. Il est titulaire d'un doctorat de l'université de Californie, San Diego, où il a étudié la composition avec Roger Reynolds et a obtenu une maîtrise tout en travaillant avec Chaya Czernowin. Il est titulaire d'une licence en composition de l'Eastman School of Music. Ben a été compositeur en recherche à l'Ircam à trois reprises depuis 2010. Il a également été compositeur affilié au Center for Research and Computing in the Arts (CRCA) et chercheur en arts sonores au CalIT2. Il a été en résidence à la Cité des Arts, au Centre International de Récollets, à l'Akademie Schloss Solitude et au Festival de musique de chambre de Santa Fe. Outre la composition de musique de concert, il a collaboré avec d'autres artistes pour créer des installations multimédia avec des graphiques, des sons et des mouvements en temps réel, notamment avec le quatuor à cordes Arditti, l'Ensemble InterContemporain, le New York New Music Ensemble, le L.A. Percussion Quartet, le Collage New Music Ensemble, l'Ensemble Orchestral Contemporain, l'Ensemble SurPlus et le Wet Ink Ensemble. Son travail a été présenté dans des lieux tels que la Cité de la Musique, l'Akademie Schloss Solitude, le festival MATA, SIGGRAPH, le Florida Electro-acoustic Music Festival, le Santa Fe Chamber Music Festival, le Ingenuity Festival, E-Werk, la Pelt Gallery, le San Diego Museum of Art, la Los Angeles Municipal Art Gallery, le Roulette Concert Space et l'Espace de Projection à l'Ircam. La musique de Benjamin peut être écoutée sur des CDs édités par les labels Carrier Records et EMF".
Concatenative Sound Synthesis with AudioGuide / Workshop AudioGuide
Cette démonstration donne un aperçu des récents développements du programme de synthèse sonore concaténative basé sur un corpus autonome, AudioGuide. Les nouvelles fonctionnalités et méthodes comprennent des routines réorganisées de correspondance hiérarchique de segments sonores et un support polyphonique via la décomposition du signal sonore cible. Cet exposé couvre également les nouvelles façons d'intégrer les sorties d'AudioGuide dans différents flux de travail musicaux, notamment les nouveaux patchs Max pour la manipulation des sorties concaténées, y compris le support bach.roll pour les concaténations de sons et les données descriptives, et une nouvelle interface dans AudioGuide qui permet la création de partitions acoustiques.
--------------------------------------
Surréaliste, artiste sonore, professeur associé à l'université des arts d'Osaka, il a remporté le prix de l'exposition internationale pour la création d'une œuvre sonore et visuelle, a travaillé au festival international de jazz en Russie en tant qu'artiste visuel et VJ, et a défendu la visualisation dans le cadre du projet Open Data au Japon. (LOD, The Semantic Web, XML). Chercheur à l'université d'Osaka et à l'Institut national des sciences et technologies industrielles avancées (AIST), il a participé au projet de traitement du signal et d'apprentissage automatique pour la reconnaissance du son et de la musique. En tant que leader, il a été élu comme groupe de soutien pour le projet artistique dans la ville de Yokohama, invité par l'université et l'espace artistique comme le centre culturel DOM (Moscou), l'Ircam (Paris), Lin's Culture (Taipei), l'université nationale Tsing Hua (Hsinchu City, Taiwan). Il travaille actuellement sur le projet "Through The looking Glass Guitar", qui a vu le jour lors du premier concert au centre culturel de DOM en 2015, et qui a fait l'objet d'un brevet en 2020. Il s'intéresse à Vocaloid, Visual-Kei, B-boy (Hiphop) et en tire des enseignements, non seulement pour le son, mais aussi pour la mode et le visuel.
New Sounds by the "Through the Looking Glass Guitar"
Démonstration des sons de guitare Through The Looking Glass Guitar" à l'aide d'une guitare électrique et d'un artiphon (synthétiseur de guitare), avec quelques explications sur le concept et le brevet.
--------------------------------------
Dave est un créateur multidisciplinaire dont l'approche de la recherche et de la création artistiques est influencée par son expérience en matière d'improvisation musicale. Ses recherches actuelles, qui s'appuient sur la psychogéographie pour explorer les espaces liminaires où la technologie et la nature sont entremêlées, font appel à cette approche intuitive et utilisent un assortiment de matériel de bricolage, d'équipements et d'appareils ad hoc pour écouter et vivre les sons générés par les champs électromagnétiques de manière imprévue.
Journey into the Body Electric
Le projet a été conçu pour générer une expérience sonore des champs électromagnétiques à l'aide de dispositifs intuitifs, notamment un gant muni de plusieurs bobines d'induction et un microphone E.M. omnidirectionnel à canaux multiples faisant office de "boussole" sonore. Les variations de texture des champs électromagnétiques sonifiés captés par ces dispositifs peuvent à leur tour être ressenties de façon binaurale par un mélange de casque d'écoute, chaque canal ayant sa propre position panoramique spécifique, un réseau de haut-parleurs multicanaux, ou par un casque d'écoute improvisé, ad hoc, à diffusion sonore multicanal utilisant des transducteurs de surface et la conduction osseuse. Les dispositifs portables expérimentaux encouragent la réflexion critique sur notre relation avec la technologie tout en explorant les possibilités spéculatives d'un sixième sens humain similaire à la magnétoréception chez les animaux.
--------------------------------------
Jean-Marc Jot est actuellement vice-président de la recherche et responsable scientifique chez iZotope, un des principaux développeurs d'outils de production audio et musicale intuitifs et révolutionnaires, utilisés aussi bien dans les établissements professionnels que dans les home studios. Avant iZotope, Jean-Marc a dirigé le développement de technologies, de plates-formes et de normes pionnières de traitement audio immersif pour la réalité virtuelle ou augmentée, le divertissement à domicile et mobile avec Magic Leap, DTS et Creative Labs. Avant de s'installer en Californie à la fin des années 90, il a mené des recherches à l'Ircam à Paris, où il a conçu la suite logicielle originale Spat pour la création et la performance audio spatiale, qui a depuis donné naissance à plusieurs produits primés. Jean-Marc est régulièrement invité à donner des conférences dans le cadre d'événements industriels ou universitaires, et il a reçu le prix de l'Audio Engineering Society Fellowship.
Objects of immersion - unlocking musical spaces
Au cours de la dernière décennie, de nouveaux formats de contenus audio immersifs basés sur des objets et des outils de création ont été développés pour la production cinématographique et musicale. Ces technologies libèrent le créateur des contraintes des configurations de haut-parleurs normalisées. Elles permettent également de faire pivoter la tête selon trois degrés de liberté (3-DoF), ce qui permet d'obtenir une expérience d'écoute immersive naturelle au moyen d'un casque ou d'un appareil audio portable. Par ailleurs, les expériences audio interactives dans les jeux vidéo et la réalité virtuelle ou augmentée nécessitent une représentation de la scène prenant en charge la navigation de l'auditeur à 6 degrés de liberté, où un objet audio modélise une source sonore naturelle ayant des propriétés de distance, d'orientation et de directivité contrôlables. En outre, les propriétés de l'environnement acoustique doivent être explicitement incluses et découplées de la description de la source sonore. Nous examinons et comparons ces deux conceptions de l'audio spatial basé sur l'objet et cherchons à les unifier en vue de connecter des applications et des industries de médias numériques auparavant disparates.
--------------------------------------
Pierre Guillot est docteur en esthétique, sciences et technologies des arts, spécialisé en Musique. Il a soutenu sa thèse à l’Université Paris en 2017 dans le cadre des programmes du Laboratoire d’Excellence Arts-H2H. Au travers de son parcours de recherche, il a participé à la création de nombreux projets et outils pour la musique, notamment la bibliothèque de spatialisation du son ambisonique HOA, le logiciel de patching collaboratif Kiwi ou encore le plugin multiformat et multiplateforme Camomile. Depuis 2018, il a intégré l’IRCAM au sein du département Innovation et Moyens de la Recherche, dans lequel il est en charge du développement du projet AudioSculpt et de ses produits dérivés.
Beyond AudioScuplt: TS2 and Analyse
Cet exposé présente deux développements logiciels, TS2 et Analyse, héritiers des outils offerts par l’environnement AudioSculpt. Le logiciel IRCAM Lab. TS2 est un logiciel de traitement du son développé au sein du département IMR de l'Ircam. Construit autour du moteur audio SuperVP (Super Vocodeur de Phase), développé par l’équipe Analyse-Synthèse, le logiciel TS offre la possibilité de modifier et de créer de nouveaux sons en utilisant les outils de transpositions, de dilation temporelle et de resynthèse. Dans le cadre du Forum de l'Ircam, les nouvelles possibilités liées au support multicanal et au filtre d’écrêtage spectral de la dernière version du TS2 seront, entre autres, présentées. Analyse est un projet de développement logiciel permettant de visualiser et d’éditer des analyses audio générées par des plugins. L’objectif est d’offrir une interface simple mais dynamique répondant aux attentes de la recherche en traitement du signal, en musicologie ainsi qu’aux pratiques compositionnelles.
--------------------------------------
Thibaut Carpentier étudie l'acoustique à l'École centrale et le traitement du signal à Télécom ParisTech, avant d'intégrer le CNRS en qualité d'ingénieur d'études. Depuis 2009, il est rattaché à l'équipe Espaces acoustiques et cognitifs au sein de l'UMR STMS (Sciences et Technologies de la Musique et du Son), hébergée à l'Ircam. Il y mène des travaux focalisés sur la spatialisation sonore, la réverbération artificielle, l'acoustique des salles, et les outils informatiques pour la composition et le mixage 3D. Il est le développeur principal et responsable du projet Spat. Ces dernières années, il a notamment conçu et développé la station logicielle de mixage et de post-production 3D Panoramix, et contribué à la réalisation du système de reproduction holophonique (350 canaux) à l'espace de projection de l'Ircam.
Après avoir suivi un enseignement scientifique et musical, Olivier Warusfel a obtenu le grade de docteur en acoustique de l'Université de Paris 6. Il dirige actuellement l'équipe Espaces Acoustiques et Cognitifs, dans le département de recherche et développement de l'IRCAM. Ses principaux champs de recherche sont le traitement du signal appliqué aux techniques de spatialisation sonore ainsi que l'audition et la cognition spatiale. Il a également enseigné l'acoustique musicale à l'université de Paris 8 et a assuré un enseignement d'acoustique des salles et la coordination pédagogique au sein du DEA ATIAM, habilité par l'université de Paris 6 (Acoustique, Traitement du Signal et Informatique appliqués à la Musique).
News Team EAC
Dans cette séance, nous présenterons les développements logiciels réalisés en 2020 autour de Spat (pour Max) et Panoramix (standalone). Ces développements concernent l’ajout de nouvelles fonctionnalités (notamment pour la manipulation et le décodage de flux Ambisonics), la correction de bugs, et l’optimisation CPU des outils. Nous ferons une démonstration des features à travers plusieurs patchs d’exemple dans Max.
--------------------------------------
News Team S3AM
Cette année, nous présentons d’une part la nouvelle version 3.6 de Modalys (moteur de synthèse sonore par modèles physiques) avec des avancées majeures dans le domaine de la conception 3D et de la lutherie « scripturale » sous Max ; et d’autre part la résidence artistique de Jean-Étienne Sotty portant sur l’hybridation de l’accordéon.
--------------------------------------
Designer sonore français, Paul Escande, commence son parcours par l'architecture avant d'orienter sa carrière vers la musique électronique en tant qu'artiste et DJ. Ses qualités de producteur lui ouvre les portes d’éditeurs musicaux spécialisés pour lesquels il crée samples, banques de sons et presets (Native Instruments, Sample Magic, Splice…) Afin d'ouvrir sa pratique, il rejoint le cursus du DNSEP Design Sonore (TALM-IRCAM) en 2018 alors qu'il démarre une riche collaboration avec le studio d’arts numériques ExperiensS. Il y poursuit ses expérimentations Espace/Son autour du son 3D, de l’interaction et du temps-réel dans le contexte d’installations et expériences sonores immersives.
Augmented Architectures
À l’intersection des domaines de l’architecture, du design sonore et du jeu vidéo, les "architectures augmentées" s’inscrivent dans le projet de diplôme du DNSEP Design Sonore (TALM-IRCAM) présenté en octobre 2020. Ce projet a pour objet le développement d'un outil de prototypage pour la prévisualisation de sculptures sonores en temps réel. Initialement basé sur l’expérimentation formelle et l'assemblage de matériaux en atelier, la situation sanitaire du printemps 2020 a finalement fait opter pour le moteur de jeu comme espace de conception et d'expression. Ce projet dresse un état de l’art des solutions pour la manipulation du son en temps réel dans un moteur 3D et mobilise un certain nombre de technologies développées par l'IRCAM (Spat, Modalys, Evertims...) dont les possibilités se superposent avec celles de la réalité virtuelle et du design computationnel. La virtualisation devient alors le moteur de la conception et un moyen autonome pour la simulation d’expériences sensibles.
--------------------------------------
Composition
Vincenzo Gualtieri est un compositeur et interprète de musique acoustique et électro-acoustique. Il a été finaliste de plusieurs concours nationaux de composition. En 2004, avec l'opéra "Field", il a remporté le 1er prix du Concours international de miniatures électroacoustiques de Séville : "Confluencias". Ses compositions ont été jouées dans un contexte national et international. À plusieurs reprises, il a également interprété - en tant qu'ingénieur du son - des opéras électroacoustiques de nombreux compositeurs.
Certains de ses écrits abordent des questions telles que le moment (et la manière) dont les innovations technologiques - dans des contextes musicaux - invitent, suggèrent (ou inhibent) des approches non conventionnelles (subversives). En septembre 2016, l'opéra "(BTF)-5, for augmented Cajon and live electronics" a été créé à l'Université De Montfort à Leicester (UK). Lors d'une conférence, il a également dessiné les lignes directrices de son projet de travail actuel : (BTF). Le projet (BTF) se concentre sur le développement des interactions entre les systèmes audio analogiques et numériques, qui sont à la fois adaptatifs, spécifiques au site et auto-poétiques (par des boucles de rétroaction avec des comportements d'autorégulation). Récemment (octobre 2017), l'opéra "(BTF)-7 for Tibetan bells and live electronics", a été joué au Musée norvégien des sciences et des technologies à Oslo, lors du Symposium international annuel sur le son de Kyma.
Une partie de ses opéras sont publiés par la maison d'édition TAU-KAY d'Udine.
Il est professeur de composition au Conservatoire de musique "D. Cimarosa" d'Avellino (Italie). https://www.vincenzogualtieri.com/
the (BTF) project
L'un des objectifs de ce projet est de permettre à une machine de simuler "la liberté d'improvisation" d'un système biologique (interprète humain) tout en réalisant une sorte d'organisation sonore. Les deux systèmes sont soumis à une responsabilité causale, qui est volontaire (un effet de sa volonté) dans un système vivant, et mécanique/automatique/involontaire dans une machine. C'est la machine dont les comportements sont cependant dépendants de l'Histoire (et pas nécessairement seulement de sa propre Histoire), donc imprévisibles et indéterminables analytiquement : une machine qui peut donc être considérée comme "non-triviale". Le projet tente d'affirmer une paternité partagée sur les deux responsabilités cause-effet tout en expérimentant le feed-back négatif dans les systèmes audio. Cela pose des questions telles que : les comportements complexes résultant des interactions entre des systèmes multiples, strictement intégrés, qui sont mutuellement co-déterminés ; les sonorités émergentes qui sont définies comme de second ordre. Ces dernières sont souvent imprévisibles car elles sont liées à la qualité des interactions entre certains systèmes et un ou plusieurs sous-systèmes (par exemple, l'environnement dans lequel la performance a lieu). Les systèmes et sous-systèmes génèrent des réseaux de relations circulaires et causales ainsi que des formes continues d'auto-organisation. On compose donc : interactivement "avec" les vérifications instantanées des résultats audibles ; "les" interactions - ou du moins, le terrain où les interactions ont lieu - entre les processus (DSP, ordonnancement, etc.) qui sont internes à la machine. L'objectif est de rendre les systèmes disponibles, adaptables, pour lire/écouter à la fois leurs conditions internes et externes (environnement) et les modifier en conséquence, si possible.
--------------------------------------
Kai Yves Linden, né en 1960, a fait ses études de composition avec Wolfgang Hufschmidt à la Folkwang Hochschule à Essen, Allemagne, de 1982 à 1986. Il travaille en tant qu'ingénieur en informatique dans un institut de standardisation, mais suit de projets de compositions dans son temps libre. Ses compositions comprennent des œuvres de chambre pour instrument seul, en formations diverses ainsi que de la musique vocale.
Anatomical insights into "Vertical Structure"
‹ Structure verticale › est une musique mixte pour flûte et électroniques reposant sur les technologies Antescofo et Mubu de l'Ircam. Dans cette présentation, j'expliquerai les fondements conceptuels de la pièce et décomposerai quelques extraits. Je vais en outre, considérer des stratégies pratiques que j'ai établi dans le process de composition pour atteindre cette productivité et créativité en travaillant avec une infrastructure logicielle complexe.
--------------------------------------
Marco Bidin est compositeur, organiste et claveciniste. Il a travaillé comme chargé de cours pour le Studio de musique électronique de la HMDK de Stuttgart, où il a terminé ses études de composition et d'informatique musicale sous la direction du professeur Marco Stroppa. Il a également étudié l'orgue à Udine, la musique ancienne à Trossingen et l'interprétation de la musique contemporaine à Stuttgart. Il s'est produit en tant que soliste dans de grands festivals internationaux et ses compositions ont été présentées en Europe, en Asie et au Canada. Il a réalisé des enregistrements pour Taukay, Radio Vatican et d'autres labels. En tant que conférencier et chercheur, il a été invité à donner des masterclasses et des conférences dans des institutions telles que l'INCOMUM de Lisbonne (Portugal), l'Université Pai Chai (Corée du Sud), l'Université Silpakorn (Thaïlande), le Conservatoire de Shanghai (Chine) et l'Ircam (Paris).
OMChroma new tutorials and documentation
Cette présentation portera sur mon nouvel ensemble de correctifs tutoriels, de vidéos et de documentation autour de la bibliothèque OpenMusic OM-Chroma. Après cinq ans de professorat à la HMDK de Stuttgart, j'ai recueilli les demandes et les exigences de nos étudiants dévoués concernant la bibliothèque OMChroma. La documentation existante et les patchs tutoriels, créés par Luca Richelli, sont très détaillés et exhaustifs, exigeant des connaissances préexistantes dans l'environnement OpenMusic et un certain degré de maîtrise du CAC. Cela s'est avéré difficile pour les étudiants en composition qui n'ont pas de telles connaissances. La stratégie d'apprentissage la plus efficace a consisté à extrapoler certains éléments et à se concentrer sur leurs développements à partir des tutoriels existants. En combinant l'approche technique avec l'approche compositionnelle, les nouveaux utilisateurs peuvent apprendre à utiliser la bibliothèque, à formaliser la pensée compositionnelle dans l'environnement OpenMusic et à développer une approche esthétique de la conception d'instruments virtuels et de la composition sonore. Dans le cas des procédures algorithmiques qui se sont avérées être un défi pour les débutants, j'ai créé des vidéos pour guider l'utilisateur pas à pas dans la composition du patch. En outre, un tout nouveau chapitre a été consacré aux œuvres composées avec OMChroma par les étudiants de la HMDK de Stuttgart, afin de permettre aux nouveaux utilisateurs de voir (et d'écouter) l'énorme potentiel de cette bibliothèque après seulement quelques mois de pratique intensive.
--------------------------------------
Johnny Tomasiello est un artiste et compositeur multidisciplinaire qui vit et travaille à New York. Tomasiello aborde la création sonore non seulement par le choix des instruments, mais aussi en repoussant les limites techniques des systèmes musicaux utilisés et en remettant en question leur validité et leur vérité. Son travail est malléable et s'inspire de recherches approfondies sur l'histoire et la technologie, les neurosciences et les mouvements politiques. Il utilise ces connaissances pour développer des travaux significatifs et collaboratifs qui examinent les nouveaux moyens de production. L'évidence, l'éducation et la recherche font partie intégrante des projets de Johnny, comme le montre, par exemple, son exploration de la manière dont les humains interagissent avec le monde extérieur et sont affectés par lui sur le plan physiologique. Il a commencé sa carrière universitaire en tant que peintre. Intéressé par les liens entre la science et l'art, il a obtenu une licence en sciences cognitives/psychophysique et a bénéficié d'une bourse de recherche à l'Université de médecine et de dentisterie de NJ, à la faculté de médecine. Sa thèse était intitulée "Les stimuli musicaux et leurs effets sur la physiologie humaine". Dans un sens large, cette recherche a été le début d'un lexique pour le son et la couleur, définissant les stimuli auditifs et visuels par leurs effets quantitatifs sur la physiologie humaine. Il s'est inspiré des caractéristiques communes entre l'art et la science. Son travail personnel équilibre les références sociales et historiques avec des récits allégoriques, conçus pour provoquer une prise de conscience et une pensée critique. Il a performé en direct et organise des spectacles et des ateliers publics.
Moving Toward Synchrony
Moving Towards Synchrony est une œuvre audio et visuelle immersive dont le but est d'explorer la relation réciproque entre activité électrique dans le cerveau et biorythmes, et les stimuli externes qui ont été générés et définis par ces mêmes événements physiologiques.
En fin de compte, le but de l'œuvre est de présenter un système interactif de composition assistée par ordinateur sous forme d'installation et de montrer aux participants comment provoquer un changement positif dans leur propre physiologie en apprenant à influencer les fonctions du système nerveux autonome. En plus des préoccupations neuroscientifiques mentionnées ci-dessus, ce travail est conçu pour explorer la validité de l'utilisation de la méthode scientifique en tant que processus artistique. La méthodologie consistera à créer un système basé sur des preuves dans le but de développer des projets de recherche. MethodThe project recueille des données physiologiques par neuroimagerie non invasive au moyen d'une interface cerveau-machine (BMI) conçue avec Max 8. Les données relatives aux ondes cérébrales et à la fréquence cardiaque sont utilisées pour générer de la musique et des compositions visuelles interactives en temps réel qui sont vécues simultanément par un sujet. Le contenu mélodique et rythmique, ainsi que les éléments visuels, sont dérivés et constamment influencés par les lectures de l'EEG et de la fréquence cardiaque du sujet. Un sujet, en se concentrant sur les stimuli générateurs, tentera de provoquer un changement dans son système physiologique grâce à son expérience du feedback bidirectionnel.
--------------------------------------
Claudia Jane Scroccaro est une compositrice italienne de musique instrumentale et électroacoustique. L'aspect sonore occupe une place prépondérante dans son travail et reflète un intérêt profond pour la musique électronique et la musique de tradition auditive. Son approche créative explore une dramaturgie musicale qui oscille entre une expérience d'écoute humainement perceptible et des projections microphoniques des propriétés dynamiques du son sur des espaces multidimensionnels, résultant en une alternance entre des mouvements kaléidoscopiques et des explorations introspectives. Elle a suivi le cursus 2019.2020 à l'Ircam et, en tant que boursière du DAAD, est actuellement inscrite au programme d'examen Konzert en composition à la HMDK de Stuttgart, où elle a obtenu son master, étudiant dans la classe de Marco Stroppa, tout en suivant les masterclasses de Philippe Leroux et Franck Bedrossian. Elle a été sélectionnée pour l'Académie 2020.21 SWR Vokalensemble et est tutrice pour le studio de musique électronique de la HMDK de Stuttgart. Sa musique a été jouée en Europe et aux États-Unis (Ensemble Ascolta, ECCE Ensemble, Ensemble Suono Giallo, Concrete Timbre, EchtZeit Ensemble, Ensemble Musikfabrik) et elle a été compositrice en résidence pour le Centre d'innovation musicale et de science de Vilnius. https://soundcloud.com/cjscroccaro
Detuning the space in I Sing the Body Electric (2020), for Double Bass and Electronics
En composant "I sing the Body Electric". Pour la contrebasse et l'électronique, j'ai été intrigué par la possibilité de découvrir une voix inouïe de la contrebasse, en désaccordant dynamiquement les cordes dans le but de créer de nouvelles relations acoustiques qui correspondraient également aux changements de forme de l'espace. L'idée initiale est née de la possibilité de concevoir une dramaturgie musicale qui pourrait explorer la tension physique entre le corps de l'instrument et celui du musicien, Florentin Ginot. L'auditeur est guidé dans une recherche d'équilibre intérieur entre l'électronique et les sons instrumentaux et cette même recherche devient le processus formel et la dramaturgie de la pièce. Pour atteindre ce résultat, il y a une transition progressive d'une bande à huit canaux vers un traitement électronique du son en direct, qui repose sur deux traitements de base, un Fq-Shift et un filtre multi-bandes, conçu à l'intérieur de Max par une analyse spectrale en temps réel, contrôlé par Spat et exécuté en direct. Les promesses impliquées dans les désirs sonores et physiques de ces corps - et déterminées par leurs relations - évoluent à travers un processus de transformation spatiale, où les actions de déformation et de distorsion projettent l'auditeur dans un espace immersif, toujours changeant et imprévisible, façonné en temps réel selon les changements spectraux du son de la contrebasse et contrôlé par un interprète électronique en direct. IRCAM CURSUS 2019.2020 Manifeste Festival 2020 - IRCAM, Paris Contrebasse : Florentin GINOT Live-Electronics : Claudia Jane SCROCCARO https://medias2.ircam.fr/x1e9fff / Double Bass : Florentin Ginot - https://youtu.be/LyBUzCCSBVE (Video recording with binaural mix)
--------------------------------------
Patching With Complex Data
Je montrerai quelques expériences récentes utilisant le lexique Max dans divers scénarios liés au séquençage génératif. Comme le patcheur lui-même se présente sous la forme d'un lexique, nous pouvons également saisir et manipuler ces données, ce qui peut conduire à des applications allant de la collaboration à distance à des expériences éducatives guidées.
--------------------------------------
Le Dr Miller Puckette (Harvard ; mathématiques) est connu comme le créateur de Max et Pure Data. En tant qu'étudiant de premier cycle du MIT, il a remporté le concours de mathématiques Putnam en 1979. Il a été chercheur au Media lab du MIT depuis sa création jusqu'en 1986, puis à l'IRCAM, et est aujourd'hui professeur de musique à l'université de Californie, à San Diego. Il a été professeur invité à l'université de Columbia et à l'université technique de Berlin, et a reçu deux diplômes honorifiques et le prix SEAMUS.
Modular software and remote workflows
Ma collaboration musicale avec le percussionniste Irwin a pris une tournure imprévue lorsque nous avons commencé à travailler à distance. Au cours de l'année dernière, nous avons développé un flux de travail qui nous permet de nous produire ensemble en temps réel en utilisant des instruments que j'écris en Pure Data mais qu'Irwin joue dans Ableton Live, avec des flux audio, de contrôle et vidéo qui rebondissent entre nos lieux de travail. Les solutions que nous avons trouvées sont intéressantes à la fois dans la manière dont nous gérons les limitations de latence et dans le fait que la distinction entre les environnements et les modules enfichables a changé, de sorte qu'un environnement logiciel entier peut prétendre être un module à l'intérieur d'un autre.
--------------------------------------
Karim Haddad est né en 1962 à Beyrouth (Liban) où il étudia au Conservatoire National jusqu'à sa fermeture en 1975 pour cause de guerre civile. Il entreprend ensuite des études de philosophie et de littérature. Rentré au CNSMD de Paris, il y obtient six prix ainsi que le Diplôme Supérieur de Composition avec mention. Il travaillera notamment avec A.Bancquart, P. Mefano, K. Huber et Emmanuel Nunes. Cette période d'apprentissage est marquée par son vif intérêt pour les espaces non tempérés et leur forte relation avec la poétique temporelle. En 1992 et 1994, il participe aux Ferienkursen für Musik de Darmstadt où il obtient une bourse d'étude. En 1995, il suit le stage d'informatique musicale de l'Ircam, date à partir de laquelle il utilisera exclusivement l'outil informatique pour l'élaboration de ses œuvres. En tant qu'expert dans le domaine de l'informatique musicale, et plus particulièrement dans celui de la Composition Assistée par Ordinateur (CAO), en 2000 lui est confiée la responsabilité du support technique du Forum de l'Ircam. Il développera plusieurs outils pour l'environnement d'OpenMusic (contrôle de la synthèse par Csound) ainsi que des interfaces entre cet environnement et les éditeurs de partition Finale et Lilypond. De 2008 à 2014, il enseigne la CAO au CNSMD de Paris. Il intègre l'équipe Représentations musicales de l'Ircam à partir de 2015 en tant que chercheur et y commence en parallèle un doctorat de musique : recherche en composition.
Jean-Louis Giavitto : Directeur de recherche au CNRS, mon travail se focalise sur le développement de nouveaux mécanismes de programmationpermettant de représenter et gérer des relations temporelles et spatiales. J’ai appliqué ces travaux à la modélisation et la simulation de systèmes biologiques, en particulier dans le domaine de la morphogenèse, à l’université d’Évry du Genopole où j’ai cofondé le laboratoire IBISC (Informatique, Biologie Intégrative et Systèmes Complexes). Depuis mon arrivée à l'Ircam (janvier 2011), mon activité s'inscrit dans la représentation et la manipulation d’objets musicaux, tant au niveau de l’analyse musicale et de la composition que de la performance sur scène. En particulier, je m’intéresse à la spécification d’interactions temps réel impliquant des relations temporelles fines lors des performances, dans le contexte du système Antescofo utilisé pour la réalisation des pièces de musiques mixtes à l’Ircam et ailleurs dans le monde. Cette technologie profite aujourd’hui à tous, grâce à la création d’une start-up. J’ai participé avec Arshia Cont à la création de l’équipe-projet Inria MuTAnt au sein de l’équipe Représentations musicales et je suis aussi directeur-adjoint du laboratoire.
--------------------------------------
Jacopo Greco d'Alceo, compositeur, metteur en scène, danseur et chorégraphe, commence très jeune ses études de danse contemporaine en Autriche. En raison de ses origines paternelles slaves, il est alors tenu de suivre des études musicales. Il s'installe à Milan où il commence à pratiquer la composition avec Giovanni Verrando. Il est complètement émerveillé par la composition musicale et il choisit de devenir compositeur. Il s'installe ensuite au CNSMD de Lyon où il trouve un environnement prolifique pour ses recherches. Il pense que la musique commence à la source d'un mouvement. Toutes ses pièces détruisent les frontières entre la composition musicale et la danse. Ces intérêts l'amènent à explorer l'espace d'une manière différente. Sa pièce "soffio" (2018) - pour vidéo, électronique et contrebasse, est née pour la galerie Pinacoteca di Brera (Milan) et elle a également été jouée à la Bobst Library de la New York University (New York), récompensée par le festival Mise-en.
Il a poursuivi dans cette voie avec son œuvre récente "TRICOT" (2021), une vidéo-chorégraphie dans l'espace de la "Médiathèque Nadia Boulanger" du CNSMD, où il est compositeur, directeur et chorégraphe.
Le mouvement est toujours présent dans ses pièces : "Une lettre à Taipei" (2020) est une pièce électroacoustique, presque cinématographique, où l'espace entre l'artiste et son travail est si étroit que la pièce devient le compositeur.
Il a poursuivi dans cette voie avec son œuvre récente "TRICOT" (2021), une vidéo-chorégraphie dans l'espace de la "Médiathèque Nadia Boulanger" du CNSMD, où il est compositeur, directeur et chorégraphe.
Le mouvement est toujours présent dans ses pièces : "Une lettre à Taipei" (2020) est une pièce électroacoustique, presque cinématographique, où l'espace entre l'artiste et son travail est si étroit que la pièce devient le compositeur.
Hybridation, a mind-body problem: live coding
Dans le codage en direct, les possibilités sont infinies. Chaque représentation est comme un tracé entre des points dans l'espace. Les idées peuvent jaillir soudainement ou être préparées pour plus tard. Mon approche de ce cheminement est venue de certaines raisons spécifiques : Je pensais en termes de structures et manières dont les systèmes pouvaient répondre rapidement à des entrées en temps réel avec toute la liberté infinie d'un danseur se déplaçant dans un studio et, en même temps, maîtriser l'expression potentielle d'événements conçus à l'avance dans le temps.1. Incarner l'abstraction du code pour devenir physique : la danse contemporaine comme inspiration pour l’algorithme 2. Composition et improvisation : un équilibre entre la performance en direct et les événements différés. 3. Notation : un code peut être visualisé dans toute chose 4. Approche transdisciplinaire de la performance en direct et de la composition.
--------------------------------------
Compositeur de musique électroacoustique, je suis diplômé du Conservatoire de Toulouse et du Conservatoire national de musique et de danse de Lyon. J'ai composé de la musique pour support fixe, ainsi que des performances musicales et des installations multimédia (...). Dans chaque projet, je veux apporter un soin particulier à ce qui est lié à l'expression poétique. Je crois sincèrement que les outils et les dispositifs que nous utilisons pour composer sont fortement liés à la perception musicale. J'ai travaillé avec plusieurs environnements de programmation audio, comme Max MSP et Csound. Ensuite, j'ai continué à apprendre et à utiliser des langages de programmation plus généraux - C++, Lua, Ruby (...) - afin de créer de nouveaux logiciels et outils musicaux. J'ai écrit jo_tracker, un logiciel de bande sonore pour Csound, et je travaille actuellement sur Nocturnal, un système de partition numérique interactif en 3D pour la musique électroacoustique. Ces projets offrent différents points de vue sur le processus de composition. Ils permettent tous l'hybridation entre différents outils, quelle que soit leur nature (capteur, dispositif analogique, logiciel, etc.).
Digital-analog hybridation
La relation hybride entre les dispositifs numériques et analogiques signifie qu'un outil analogique peut être contrôlé par un signal numérique permettant une combinaison entre les tons riches et croustillants des circuits électroniques et l'extrême précision d'un ordinateur. En donnant quelques exemples de réalisations techniques et de réflexions sur lesquelles j'ai travaillé ces dernières années, je donnerai un aperçu des principales techniques et de leurs implications musicales dans les logiciels et le matériel. 1. Contrôle analogique : de la simple automatisation à la philosophie du signal 2. Modules hybrides : Nébuleuses, Bela, couplées en courant continu (Expert Sleepers) 3. Écrire de la musique pour un dispositif modulaire analogique : soundtracker, Csound et 3D digitalscore.
--------------------------------------
Daiki NISHI, compositeur/chef d'orchestre originaire du Japon, étudie la composition en tant qu'étudiant kontakt du Prof. Carlo Forlivesi au HMDK de Stuttgart. En 2020, il obtient le diplôme de composition de la Schola Cantorum avec Nicolas Bacri, le diplôme supérieur de composition de l'École normale de musique de Paris avec Michel Merlet, le diplôme de chercheur en musique au Conservatoire à Rayonnement Régional d'Aubervilliers avec Jonathan Pontier, et le diplôme de direction d'orchestre de la Schola Cantorum de Paris avec Adrian McDonelle. La plupart de ses œuvres sont basées sur le néo-romantisme français. D'autre part, il fait des recherches sur la composition algorithmique principalement avec Python et Open Music, en particulier dans le domaine de la composition full/semi-automatique de la musique traditionnelle occidentale. Joués en France, au Japon, mais aussi en Allemagne, en Autriche, en Italie, en Corée du Sud, etc.
Creations of Instrumental Music Made by the Noise in the Natural Phenomenon
Pour cette présentation, je montrerai comment je manipule l'application SPEAR, analyseur, éditeur et convertisseur de fichiers WAV en fichiers SDIF, pour préparer les fichiers SDIF à être utilisés dans OpenMusic et générer quelques partitions de musique simples. Les deux supports sonores que j'ai choisis sont les applaudissements et la cloche de l'horloge qui annonce « the twenty o'clock", du paysage sonore de mes souvenirs "le premier confinement" en mars 2020, à Paris. L'objectif est de montrer une des voies possibles de la création musicale, mais aussi de rechercher les raisons pour lesquelles les caractéristiques de cette ambiance sonore, comme ses composantes "harmonies" et " quasi bruit ", ont eu un si fort impact sur moi à cette époque. Les trois principaux objectifs de cette étude sont les suivants : - Détection des éléments harmoniques (constructions sonores) du " quasi bruit " dans le phénomène naturel - Détection des éléments dissonants (les constructions sonores) du son accordé - Simplification des deux matériaux mentionnés ci-dessus pour générer la partition de musique purement instrumentale. Le premier matériau, le " quasi bruit " dans le phénomène naturel, n'est pas un pur bruit artificiel comme le bruit blanc, mais il possède certaines caractéristiques qui identifient spécifiquement son son, comme la vague de la mer, par exemple. Je formule une hypothèse qui concerne surtout les constructions des harmonicités incluses dans le bruit. La seconde, le "son accordé", présente généralement certaines constructions harmoniques. Cependant, l'élément définitif qui identifie son son est plutôt la composante "bruit", que sa principale construction harmonique.
--------------------------------------
Née dans une famille de musiciens, elle reçoit ses premières leçons de musique, apprenant le piano de son père, le compositeur turc Burhan Önder. Dès l'âge de 11 ans, elle poursuit ses études de piano au Conservatoire d'État d'Ankara, en suivant également des cours préparatoires facultatifs de composition. Après avoir obtenu son diplôme avec mention du Conservatoire d'Ankara, elle a été acceptée à l'Université de musique et des arts du spectacle de Stuttgart dans la classe du professeur Marco Stroppa, pour le diplôme de licence en composition. En 2020, elle a participé activement aux Ateliers du Forum Ircam à Paris en tant qu'étudiante représentative du HMDK Stuttgart. Sa musique a été entendue lors de concerts et de festivals en Europe et en Turquie et a été interprétée par l'Ensemble Ascolta et echtzeitEnsemble, entre autres.
Creation of supernatural formantic sounds with OM Chant Library in Open Music
Pour cette présentation, je proposerai un aperçu de ma démarche artistique utilisée pour composer l'électronique de "In Depth of a Dream". Outre un aperçu détaillé des différentes techniques créatives que j'ai combinées pour obtenir les sons électroniques, la discussion portera principalement sur mon utilisation personnelle de la synthèse FOF dans l'environnement Open Music, plus précisément dans la bibliothèque de chant, afin de créer des sons formels et étranges. En modifiant le contrôle des paramètres, j'ai eu la chance de découvrir une variété de sons avec un large éventail de caractéristiques. Par conséquent, nous verrons comment les différents réglages de paramètres que j'ai utilisés ont conduit à ces résultats et comment j'ai obtenu les différents timbres alien en réglant des paramètres de contrôle inhabituels dans la bibliothèque de chants d’Open Music. Enfin, je montrerai comment j'ai intégré ces différentes possibilités pour créer "la dimension du rêve" dans ma pièce.
--------------------------------------
Brandon Lincoln Snyder est un compositeur coréen américain actuellement basé à Stuttgart, en Allemagne. Il a obtenu sa licence à l'université de Harvard sous la direction de Chaya Czernowin et Steven Kazuo Takasugi et poursuit actuellement sa maîtrise en composition sous la direction de Martin Schüttler. Delia Ramos Rodríguez a reçu sa première leçon de violon à l'âge de 5 ans, et a depuis lors remporté plusieurs prix en tant qu'élève d'Álvaro Puyou au Conservatorio Profesional de Música Amaniel de Madrid (Espagne), où elle a donné plusieurs concerts en solo avec orchestre. Cette violoniste boursière de la Fondation BBVA a terminé sa licence sous la direction de Joaquín Torre au Real Conservatorio Superior de Madrid en 2016 et en 2019. Elle a obtenu un master sous la direction du professeur Anke Dill à la Hochschule für Darstellende Kunst und Musik de Stuttgart (Allemagne). Elle poursuit actuellement sa maîtrise en musique contemporaine dans cette même institution sous la direction de Melise Mellinger et Nurit Stark et travaille comme assistante du "Studio Neue Musik".
Meta-Music: Creating Multimedia Music From a Multilayered Compositional Process
Brandon Lincoln Snyder et Delia Ramos Rodríguez présenteront leur pièce "Music About Music About Background Music - II". Pour trois interprètes, parole, instruments, électronique et vidéo, la pièce empile plusieurs couches de représentation vocale les unes sur les autres. La signification sémantique des mots se superpose à la musicalité acoustique de la voix parlée, qui couvre une couche de texte visuel, le tout représenté sous forme de vidéo, jouée simultanément sur des performances en direct de Delia et Brandon qui interprètent une superposition similaire. Delia et Brandon se sont rencontrés à plusieurs reprises pour développer le concept de la pièce, principalement par le biais d'improvisations structurées et de petites esquisses. Chaque couche de la pièce a été construite séparément, en traitant le même ensemble de matériel par le biais de différents formats/logiciels : Open Music, Davinci Resolve, MaxMSP, Ableton Live et des partitions manuscrites. Au final, la pièce applique un matériau hyper spécifique à une structure chaotique. Les multiples couches de la pièce ont été atteintes grâce à un processus de composition à plusieurs niveaux, dans lequel aucun morceau de partition, aucune esquisse ou vidéo ne documente entièrement une représentation de l'œuvre. Cette présentation tente d'illustrer comment ce processus de collaboration spécifique s'est adapté spécifiquement aux besoins et aux objectifs du projet artistique.
--------------------------------------
Niklas Lindberg est un compositeur et un interprète qui travaille avec des formats étendus et personnalisés, en définissant et en concevant le cadre et le support ainsi que les paramètres et les formes qu'ils contiennent - idéalement, les supports servant non seulement de contenants transparents pour l'œuvre en tant qu'entité structurelle, mais aussi de parties visibles et auto-réfléchissantes de l'œuvre en soi, en mettant l'accent sur les bases matérielles composites d'une œuvre. Si le format a la priorité dans leur travail, la question se pose régulièrement de savoir où commence le format ou la médiation et où se termine l'organe de médiation - où le corps rencontre l'interface, et à quel agent l'interface est un accessoire. Après avoir étudié le piano classique avec Taru Kurki au conservatoire de musique de Falun, Niklas a suivi des cours de composition à la Gotland School of Music Composition, à l'Académie de musique norvégienne et à la Darmstädter Ferienkurse, avec les professeurs Per Mårtensson et Natasha Barrett, entre autres. Actuellement, ils font une année à l'étranger, à la Hochschule für Musik und Darstellende Kunst Stuttgart, avec Piet Meyer et Martin Schüttler.
Presenting a piece for a vocal performer and electronics
Je présenterai une pièce pour interprète vocal et électronique que je suis en train de concevoir. Cette pièce explorera les seuils entre l'augmentation numérique en tant qu'hyper-instrument et des processus plus détachés et superposés. L'idée centrale est la contiguïté entre le sur-poli, le brut et le non-traité, et les traitements "d'embellissement" courants qui dépassent les limites de la fidélité et sont utilisés comme syntaxe, articulation et transformation musicale. Dans cet esprit d'amélioration et de surpolissage, je chercherai à intégrer un processus qui est en "temps de montage" dans un spectacle en direct avec un haut degré de réactivité, ainsi que des processus en temps réel plus augmentatifs, et éventuellement à introduire la possibilité d'interagir avec cela en tant qu'interprète de manière à permettre la spontanéité, et à stimuler la performance dans des directions qui ne sont pas entièrement prédéterminées. La pièce utilisera une combinaison de suivi et de séquençage, dans différentes couches de processus plus ou moins détachés de la voix interprétée, mais tous en découlent, allant des augmentations interactives en temps réel jusqu'aux substituts édités hors ligne pour la performance en temps réel. Il faut espérer que cet hybride de flux de travail et d'esthétique hors ligne et en temps réel débloquera quelques potentiels intéressants, et que les seuils perceptifs (subtils ou non) entre un processus qui est à des degrés divers "aligné" avec les gestes de la voix, ou indépendant de la voix qu'il traite, pourront être transformés en un paramètre expressif.
--------------------------------------
Compositeur et pianiste né à Tolède (Espagne) en 1992, il est actuellement membre de la classe de composition de Marco Stroppa à la Staatliche Hochschule für Musik und Darstellende Kunst de Stuttgart, où il poursuit ses études de maîtrise et où il est également l'élève du spécialiste du piano contemporain Nicolas Hodges. Il a auparavant étudié au Conservatoire à Rayonnement Régional de Paris, au Conservatori Superior del Liceu de Barcelona et au Conservatorio Superior de Música de Aragón. Ses principaux mentors dans le domaine de la composition ont été des personnalités telles que José María Sánchez-Verdú, Carlo Forlivesi, Édith Canat de Chizy ou Ramon Humet. Ses œuvres ont été jouées dans différents pays par BCN216, Nou Ensemble ou Echtzeit Ensemble ; dirigées et interprétées par des musiciens tels que Nacho de Paz, Mikhaïl Bouzine ou Francesc Prat ; programmées dans le cadre de festivals et de projets internationaux tels que la Musica Senza Frontiere à Pérouse ou le Musicant Picasso au Museu Picasso de Barcelone et commandées dans le cadre du projet Beyond à St Eberhard (Stuttgart). Il a assisté à des master classes données par Oliver Knussen, Tristan Murail, Raphaël Cendo, Ramon Lazkano, Luis de Pablo, Alberto Posadas, Ramon Coll ou Guido Arbonelli, entre autres. De même, il a participé activement aux ateliers des différentes éditions du festival Mixtur à Barcelone et a suivi les cours de l'Institut Français- Barcelone Modern ou du Conservatoire supérieur Rafael Orozco de Cordoue.
OM-Chant as a filtering tool
La bibliothèque OM-Music OM-Chant fournit un filtre de haute qualité qui permet une manipulation très précise des sons enregistrés précédemment. Cet aspect de la bibliothèque peut sembler secondaire, en comparaison avec les divers procédés de synthèse, mais il s'agit en fait d'une vaste voie de travail à explorer. Le filtre d'OM-Chant offre plusieurs avantages remarquables que l'on ne trouve pas dans d'autres logiciels : la qualité des sons filtrés est nettement supérieure à celle des autres programmes conçus pour traiter le son en direct. Les résultats que nous allons obtenir d'OM-Chant sont donc adaptés à des fins de mixage et de composition. De plus, le contrôle des paramètres permis par OM-Music augmente la précision des détails que les compositeurs actuels cherchent à appliquer à la musique de notre temps. Dans cette présentation, nous allons voir trois différents types de patchs qui représentent trois façons d'appliquer le filtre d'OM-Chant : en utilisant les données du formant, la fonction break point et les procédures de lisp typiques de l'OM. Ensuite, nous allons entendre un exemple musical où tous les sons sont le résultat du filtrage de la note la plus basse d'un piano joué muet, pizzicato ou ordinario.
--------------------------------------
Intelligence artificielle
Le Dr Matt Lewis est artiste sonore et musicien et dirige le Sound Pathway au Royal College of Art de Londres. Il a présenté des expositions et des performances nationales et internationales dans des pays comme l'Autriche, le Brésil, le Portugal, la Serbie et les États-Unis, dans des festivals et des lieux tels que la Whitechapel Gallery, le Café Oto, The Roundhouse, Diapason NYC, la MK Gallery et le Centro Cultural Sao Paulo. Parmi les commandes récentes, citons Clandestine Airs avec Resonance FM et VOID, no such thing as empty space, en collaboration avec l'association caritative pour sourds-aveugles Sense, Where is the Rustling Wood ? dans le cadre de Metal Culture's Harvest 15 avec Studio Orta, Music for Hearing Aids dans le cadre de Unannounced Acts of Publicness in Kings Cross et Exploded Views avec Turner Contemporary. De 2012 à 2013, il a été Artist Fellow au Central St Martins et a été deux fois en résidence au Metal Culture. Matt a précédemment enseigné à CSM, à l'université de Greenwich et à LCC. Matt est co-directeur de Call & Response, basé à Somerset House, l'un des seuls espaces sonores indépendants d'Europe, et dirige le Sound Pathway au Royal College of Art de Londres.
Becoming Soundscape
S'appuyant sur un travail de collaboration avec les résidents, les acousticiens, les chercheurs en sciences sociales, les musiciens et les autorités locales, ce projet explore comment l'intelligence artificielle et l'apprentissage automatisé pourraient être plus inclusifs en matière de conception sonore participative. Le travail utilise des espaces d'écoute immersifs et l'IA, pour créer des environnements et des expériences critiques où les itérations peuvent être vécues, mélangées et problématisées par ceux qui sont directement concernés par la planification et les développements. L'objectif est de suggérer des moyens permettant à la fois de critiquer l'IA et d'adopter une approche plus holistique du son dans l'environnement conçu, honorant ainsi la nature affective et contextuelle de l'expérience sonore. Ces approches proposées font écho à certains des principes du Design Justice Network et de Sound Thinking (Henriques : 2011) ainsi qu'aux méthodologies et stratégies traditionnelles de l'improvisation musicale en groupe. Ce travail est réalisé dans une série de fictions spéculatives immersives et basées sur des dispositifs qui utilisent l'IA, l'Audio Description et la composition de paysages sonores génératifs. Des exemples de ces fictions seront présentés dans un format participatif interactif pendant la conférence.
--------------------------------------
Robert B. Lisek PhD est un artiste, mathématicien et compositeur qui se concentre sur les systèmes, les réseaux et les processus (informatiques, biologiques, sociaux). Il participe à un certain nombre de projets axés sur les arts médiatiques, la création de récits et l'art interactif. S'appuyant sur l'art post-conceptuel, l'art logiciel et les méta-médias, son travail défie intentionnellement toute catégorisation. Lisek est un pionnier de l'art basé sur l'intelligence artificielle et l'apprentissage automatique. Lisek est également un compositeur de musique contemporaine, auteur de nombreux projets et partitions à l'intersection de la musique spectrale, stochastique, concrète, de la musica futurista et du bruit. Lisek est également un scientifique qui mène des recherches dans le domaine des fondements de la science (mathématiques et informatique). Ses intérêts de recherche sont la théorie des catégories et l'algèbre d'ordre supérieur en relation avec l'intelligence générale artificielle. Lisek est l'un des fondateurs du laboratoire de recherche fondamentale et du symposium artistique ACCESS. Il est l'auteur de 300 expositions et concerts, entre autres : GOLEM - ZKM Karlsruhe ; QUANTUM ENIGMA - Harvestworks Center New York et STEIM Amsterdam ; TERROR ENGINES - WORM Center Rotterdam, Secure Insecurity - ISEA Istanbul ; DEMONS - Biennale de Venise (événements annexes) ; Manifesto vs. Manifesto - Ujazdowski Castel of Contemporary Art, Varsovie ; NEST - ARCO Art Fair, Madrid ; Float - Lower Manhattan Cultural Council, NYC ; WWAI - Siggraph, Los Angeles.
Meta-composer
Le méta-compositeur est un réseau de neurones doté de la capacité de combiner des structures et des compositions partielles de manière souple et combinatoire pour créer une nouvelle composition générale cohérente. Le méta-compositeur est donc un méta-agent intelligent qui surveille les mondes d'événements sonores et intervient dans la structure selon le modèle préalablement formé. Dans mon approche, l'interprète interagit avec des séquences sonores. L'objectif du méta-compositeur est de comprendre le comportement de l'utilisateur et de créer de nouvelles compositions intéressantes en ajoutant de nouveaux éléments et de nouvelles structures musicales. Le méta-compositeur crée des trajectoires futures possibles en combinant et en généralisant des sous-structures créées précédemment et sélectionne potentiellement les configurations d'événements sonores les plus intéressantes. Le logiciel est autonome, mais les éléments, les objectifs et les règles de l'histoire initiale sont créés par le compositeur humain. Par conséquent, le méta-compositeur peut être considéré comme un partenaire créatif et un outil de soutien au travail d'un compositeur ou d'un interprète. Le cadre du méta-compositeur est basé sur le méta-apprentissage. Le méta-apprentissage est la prochaine génération de systèmes d'intelligence artificielle. L'agent artificiel n'apprend pas à maîtriser une tâche particulière, mais à s'adapter rapidement à de nouvelles tâches. L'objectif du méta-learning est de former les agents à acquérir des connaissances qui peuvent être généralisées à de nouveaux problèmes et performances.
--------------------------------------
Jason Palamara est un technologue, compositeur-interprète et éducateur du New Jersey. Il est professeur adjoint de technologie musicale à l'Université d'Indiana-Purdue University Indianapolis (IUPUI). Il est spécialisé dans le développement de technologies d'apprentissage automatique pour la musique, de logiciels de musique assistée par ordinateur et dans la création de nouvelles musiques pour la danse. Il est le fondateur et le directeur du DISEnsemble (Destructive/Inventive Systems Ensemble) de l'IUPUI. Son dernier album, [bornwith 2brains] est disponible sur iTunes, Spotify, YouTube, CDBaby et partout où l'on peut trouver de la musique nouvelle. Il se produit et compose régulièrement de la musique pour la danse moderne en tant qu'artiste solo et entretient un partenariat créatif à long terme avec le percussionniste-compositeur Scott Deal, avec lequel il a conçu l'AVATAR, une application qui utilise l'apprentissage automatique pour jouer en même temps qu'une improvisation en direct".
AVATAR - A Machine Learning Enabled Performance Technology for Improvisation
AVATAR est un système conçu par Jason Palamara et Scott Deal qui écoute activement le son en direct et joue de manière appropriée dans un style inspiré d'un modèle donné. Le système AVATAR est conçu pour être convivial et fonctionne comme un patch Max autonome ou comme un dispositif M4L dans Ableton Live. Grâce à AVATAR, un musicien peut facilement créer ses propres modèles d'apprentissage machine à partir de n'importe quel fichier MIDI standard et utiliser ce modèle pour créer de nouvelles improvisations en tandem avec une performance improvisée en direct. Cette présentation approfondira le fonctionnement interne de la construction d'AVATAR, montrera quelques clips de performances AVATAR et fera une rapide démonstration de la mise en place et de l'utilisation d'AVATAR dans une nouvelle session Ableton.
--------------------------------------
Anna Huang est chercheuse en sciences chez Google Brain, où elle travaille sur le projet Magenta. Elle est à l'origine de Music Transformer et du modèle ML Coconet qui a alimenté le premier Doodle IA de Google, le Bach Doodle. En deux jours, des utilisateurs du monde entier ont passé 350 ans à composer et le modèle ML a harmonisé plus de 50 millions de mélodies. Son travail se situe à l'intersection de l'apprentissage automatique, de l'interaction homme-machine et de la musique. Elle a publié des articles lors de conférences telles que ICLR, IUI, CHI et ISMIR. Elle est actuellement rédactrice du numéro spécial de TISMIR sur l'IA et la créativité musicale, et juge et organisatrice du concours AI Song Contest. Elle est titulaire d'un doctorat en informatique de l'université de Harvard, d'une maîtrise en arts et sciences des médias du Media Lab du MIT, ainsi que d'une licence en informatique et d'une maîtrise en composition musicale de l'université de Californie du Sud.
From generative models to interaction to the AI Song Contest
Je commencerai par vous expliquer comment nous relevons certains défis de la modélisation musicale. Le résultat s'appelle Music Transformer, un modèle basé sur l'auto-attention qui génère de la musique qui sonne de manière cohérente sur plusieurs échelles de temps, de l'échelle de 10 millisecondes du timing expressif dans la performance à l'échelle de la minute de la narration. Ensuite, j'illustrerai comment l'adoption d'une approche centrée sur l'humain nous a permis d'aller au-delà des hypothèses habituelles de modélisation des séquences et de prendre en charge l'interaction avec l'utilisateur. Le résultat est Coconet, qui a alimenté le premier Doodle de Google, le Bach Doodle, en deux jours, en harmonisant plus de 50 millions de mélodies provenant d'utilisateurs du monde entier. Pourtant, lors du AI Song Contest de l'année dernière, nous avons constaté que les équipes étaient confrontées à trois problèmes communs lorsqu'elles utilisaient des outils de ML dans leur processus de composition. En effet, les modèles de ML de bout en bout n'étaient pas décomposables pour permettre aux musiciens de modifier les composants musicaux individuels, ils n'étaient pas conscients du contexte musical plus large pour lequel ils étaient générés et ils n'étaient pas non plus facilement orientables pour produire un certain effet ou une certaine ambiance. Ces observations nous ramènent à la case départ : comment pouvons-nous tirer des enseignements des besoins des musiciens pour concevoir notre prochaine itération de modèles et d'outils ML ?
Douglas Eck est un Principal Scientist à Google Research et directeur de recherche de l'équipe "Brain". Son travail se situe à l'intersection de l'apprentissage machine et de l'interaction homme-machine (HCI). Doug a créé et aide à diriger Magenta, un projet de recherche en cours qui explore le rôle de l'apprentissage machine dans le processus de création artistique et musicale. Il dirige également PAIR, une équipe multidisciplinaire qui explore l'aspect humain de l'IA par la recherche fondamentale, la création d'outils et de cadres de conception et le travail avec diverses communautés. Doug est actif dans de nombreux domaines de la recherche fondamentale sur l'apprentissage machine, notamment le traitement du langage naturel (NLP) et l'apprentissage par renforcement (RL). Dans le passé, Doug a travaillé sur la perception de la musique, les aspects de l'exécution musicale, l'apprentissage automatique pour les grands ensembles de données audio et la recommandation musicale. Il a obtenu son doctorat en informatique et en sciences cognitives à l'université de l'Indiana en 2000 et a ensuite effectué un stage postdoctoral avec Juergen Schmidhuber à l'IDSIA de Lugano, en Suisse. Avant de rejoindre Google en 2010, Doug était professeur d'informatique à l'Université de Montréal (MILA machine learning lab) où il est devenu professeur associé. Pour plus d'informations, voir http://g.co/research/douglaseck.
An overview of AI for Music and Audio Generation
Je parlerai des récentes avancées en matière d'IA pour la création musicale, en me concentrant sur l'apprentissage machine (ML) et l'interaction homme-machine (HCI) issus de notre projet Magenta (g.co/magenta). Je soutiendrai que les modèles de ML générateurs sont en soi d'une valeur créative limitée car ils sont difficiles à utiliser dans nos flux de création musicale actuels. C'est ce qui motive la recherche en HCI et surtout la conception d'une bonne interface utilisateur. Je parlerai d'un projet de génération audio prometteur appelé Traitement numérique du signal différentiable (DDSP ; Jesse Engel et al.) et des récents progrès dans la modélisation des partitions musicales à l'aide de Music Transformer (Anna Huang et al.). Je parlerai également des travaux réalisés dans la conception d'interfaces expérimentales pour les compositeurs et les musiciens. Si le temps le permet, je ferai le lien avec des travaux similaires dans le domaine de la création littéraire. Dans l'ensemble, mon message sera celui d'un enthousiasme modéré : Les recherches récentes en matière de ML ont permis des avancées étonnantes dans les outils de création musicale, mais à part quelques exemples aberrants, nous n'avons pas encore réussi à intégrer ces modèles dans la pratique créative.
--------------------------------------
Jérôme Nika is a researcher and a computer music designer / musician specialized in human-machine musical interaction. He graduated from the French Grandes Écoles Télécom ParisTech and ENSTA ParisTech. In addition, he studied acoustics, signal processing and computer science as applied to music and composition. He specialized in the applications of computer science and signal processing to digital creation and music through a PhD (Young Researcher Prize in Science and Music, 2015; Young Researcher Prize awarded by the French Association of Computer Music, 2016), and then as a researcher at Ircam. In 2019-2020, he was in residency at Le Fresnoy – Studio National des Arts Contemporains, and worked as a computer music designer / musician / researcher on 3 projects: Lullaby Experience, an evolutive project by composer Pascal Dusapin, and two improvised music projects: Silver Lake Studies, in duo with Steve Lehman, and C’est pour ça, in duo with Rémi Fox. In 2020, he became permanent researcher in the Music Representations Team at Ircam.More than 60 artistic performances have brought the tools conceived and developed by Jérôme Nika into play since 2016 (Onassis Center, Athens, Greece; Ars Electronica Festival, Linz, Austria; Frankfurter Positionen festival, Frankfurt; Annenberg Center, Philadelphia, USA; Centre Pompidou, Collège de France, LeCentquatre, Paris, France; Montreux Jazz festival, etc.). Among them, the DYCI2 library of generative musical agents combines machine learning models and generative processes with reactive listening modules. This library offers a collection of “agents/instruments” embedding a continuum of strategies ranging from pure autonomy to meta-composition thanks to an abstract “scenario” structure.His research focuses on the introduction of authoring, composition, and control in creative interactions with generative agents. This work led to numerous collaborations and musical productions, particularly in improvised music (Steve Lehman, Bernard Lubat, Benoît Delbecq, Rémi Fox), contemporary music (Pascal Dusapin, Marta Gentilucci), and contemporary art (Vir Andres Hera, Le Fresnoy - Studio National des Arts Contemporains).
Interaction with musical generative agents
L'équipe Représentations Musicales explore le paradigme de la créativité computationnelle à l'aide de dispositifs inspirés par l'intelligence artificielle, en particulier dans le sens des nouvelles interactions symboliques musicien-machine. La présentation portera en particulier sur un axe de recherches mêlant les notions d’interaction, de mémoire musicale et de processus génératifs : composer des agents génératifs à l’échelle de la narration ou du comportement. Nous présenterons les nouveautés de la librairie DYCI2 qui implémente les résultats de ces recherches : une librairie d’agents génératifs pour la performance et la composition musicale combinant les approches libres, planifiées et spécifiées, et réactives de la génération à partir d’un corpus.
--------------------------------------
Neil Zeghidour est chercheur chez Google Brain à Paris, et enseigne le traitement automatique de la parole au master MVA de l'ENS Paris-Saclay. Il a précédemment obtenu un doctorat en apprentissage automatique à l'École normale supérieure de Paris, conjointement avec Facebook AI Research. Son principal intérêt de recherche est d'intégrer le DSP et l'apprentissage approfondi dans des architectures entièrement apprenantes pour le traitement du signal.
From psychoacoustics to deep learning: learning low-level processing of sound with neural networks
Les Mel-filterbanks sont des dispositifs audio fixes et conçus pour émuler la perception humaine et ont été utilisés tout au long de l'histoire de la compréhension du son jusqu'à aujourd'hui. Cependant, leurs qualités indéniables sont contrebalancées par les limites fondamentales des représentations faites à la main. Au cours de cette conférence, je présenterai LEAF, un nouveau réseau neuronal léger et entièrement programmable qui peut être utilisé en remplacement des mel-filterbanks. LEAF apprend toutes les opérations d'extraction de caractéristiques audio, du filtrage à la mise en commun, la compression et la normalisation, et peut être intégré dans n'importe quel réseau neuronal à un coût de paramètre négligeable, pour s'adapter à la tâche à accomplir. Je montrerai comment LEAF surpasse les banques de filtres mel sur un large éventail de signaux audio, y compris la parole, la musique, les événements audio et les sons d'animaux, en fournissant un environnement d'apprentissage polyvalent pour la classification audio.
--------------------------------------
Xtextures - Convolutional neural networks for texture synthesis and cross synthesis
Le transfert de style neuronal appliqué aux images a suscité un intérêt considérable et a déclenché de nombreuses activités de recherche visant à utiliser des stratégies de manipulation de la musique ou du son. Bien que les nombreuses différences fondamentales entre les sons et les images limitent l'utilité d'une traduction direct : des recherches récentes de l'équipe Analyse/Synthèse ont démontré qu'une approche assez similaire à celle utilisée pour manipuler le style de peinture dans les images permet une analyse et resynthèse quasi transparente des textures sonores. Au lieu de travailler sur des images en 2D dans le cas de textures sonores, les réseaux convolutionnels travaillent sur une TFCT complexe.
La présentation introduire le logiciel en ligne de commande Xtextures disponible sur le Forum et qui permet d'utiliser ces techniques non seulement pour la resynthèse des textures, mais aussi de manière plus créative pour la texturation de sons arbitraires.
La présentation introduire le logiciel en ligne de commande Xtextures disponible sur le Forum et qui permet d'utiliser ces techniques non seulement pour la resynthèse des textures, mais aussi de manière plus créative pour la texturation de sons arbitraires.
--------------------------------------
Philippe Esling est titulaire d’un master en acoustique, traitement du signal, et informatique reçu en 2009, ainsi que d’un doctorat en recherche et classification multi-objectives de séries temporelles décroché en 2012. Il devient ensuite bio-informaticien en post-doctorat en métagénomique et surveillance environnementale au département génétique et évolution à l’université de Genève courant 2012. Depuis 2013, il est maître de conférences à l’Ircam Paris 6. Dans ce très court laps de temps il a écrit et co-écrit plus d’une quinzaine de publications parues dans des revues spécialisées renommées telles que ACM Computing Surveys, Publications of the National Academy of Sciences, IEEE TSALP et Nucleic Acids Research. Il a également reçu un prix du Jeune Chercheur en 2011 pour son travail sur la recherche audio ainsi que le prix de thèse du conseil général pour son doctorat en recherche multi-objective de séries temporelles en 2013. Investi dans la recherche appliquée il a développé le premier logiciel d’orchestration assistée par ordinateur appelé Orchids commercialisé à l’automne 2014 et déjà utilisé par bon nombre de compositeurs. Il supervise actuellement une équipe de sept doctorants, deux stagiaires et un développeur à temps plein. Il est à la tête de la recherche en séries temporelles à l’Ircam, et dirige le partenariat international France-Canada SSHRC ainsi qu’un groupe international sur l’orchestration.
Tools for creative AI and noise
Nous présenterons les derniers outils créatifs développés par l’équipe RepMus (projet ACIDS), permettant de la synthèse audio temps-réel ainsi, la génération et production musicale ainsi que le contrôle des synthétiseurs, le tout sous forme de code open-source, ainsi que de devices Max4Live et de VST. Cette présentation s’articulera autour d’une question rhétorique plus profonde sur la place du bruit dans l’IA, autant comme finalité mais aussi comme moyen.
--------------------------------------
Voix
Fabio Cifariello Ciardi (1960) est compositeur et s'intéresse à l'utilisation du son et de la technologie pour explorer les phénomènes du monde réel. Depuis 2006, il s'intéresse à la transcription instrumentale de la parole. Il a étudié avec Tristan Murail, Philippe Manoury (IRCAM), Franco Donatoni (Accademia S.Cecilia). Ses compositions ont été récompensées lors de concours tels que L. Russolo 1992, ICMC 1993 sélection CD, IMEB-Bourges 1998, Valentino Bucchi 1999, AITS "Best sound in Italian motion pictures 2011". (Rome, Italie). Ses œuvres ont été commandées par la Biennale de Venise, l'Orchestre Haydn di Trento e Bolzano, le Divertimento Ensemble - Fondation musicale Ernst von Siemens, les Instituts für Neue Musik Friburg, l'Université de Singapour, le Stockholm Electronic Music Studio, l'IMEB Bourges.
En 2006, Arte.tv a produit le documentaire "Contre-attaque - Quand l'Art prend l'économie pour Cible" de Piroschka Dossi et Nico Weber : La Spéculation" sur les sonifications de données boursières de Cifariello Ciardi.
Il a développé des algorithmes logiciels pour le calcul de dissonance, la spatialisation du son, la sonification de données financières, la transcription instrumentale de la parole et plusieurs outils de composition assistée par ordinateur. Cifariello Ciardi est professeur titulaire de composition au Conservatoire de Trento (www.conservatorio.tn.it) et il est l'un des membres fondateurs du Studio Edison (www.edisonstudio.it).
Shrinking voices: strategies and tools for the instrumental trascription of speech segments
Dans le passé comme aujourd'hui, la prosodie de la parole a suscité l'intérêt des compositeurs, même lorsque l'on considère la musique comme uniquement instrumentale. Aujourd'hui, cependant, malgré l'essor des convertisseurs audio-midi de plus en plus efficaces, la notation des modèles de parole pour les instruments acoustiques reste une question insaisissable. C'est notamment le cas lorsque la source originale n'est pas simultanément audible et/ou lorsque le simple suivi du f0 ne satisfait pas les besoins du compositeur.
Dans ce contexte, la conférence illustrera un ensemble de modules Open Music spécialement conçus pour l'analyse et la manipulation compositionnelle des descripteurs prosodiques.
En utilisant les informations temporelles et spectrales représentées dans le format SDIF, des algorithmes de rectification de hauteur de son (Mertens, & d'Alessandro, 1995), de segmentation basée sur l'harmonicité (Parncutt & Strasburger, 1994 ; MacCallum & Einbond, 2007) ont été mis en œuvre ainsi que plusieurs utilitaires de filtrage, de regroupement et de quantification des données. Tous les modules partagent le même format de données d'entrée-sortie afin de permettre une interaction et un retour d'information en douceur de la part des utilisateurs.
Bien que la vitesse des changements spectraux dans la production de la parole dépasse les capacités humaines et instrumentales, la transcription assistée par ordinateur de la voix parlée mérite d'être prise en considération pour au moins deux raisons. Premièrement, elle place les caractéristiques prosodiques de la parole à la base de la communication musicale. Deuxièmement, et de manière plus générale, elle pourrait contribuer à développer davantage les outils d'orchestration de spectres à changement dynamique. Des extraits de discours orchestrés et interprétés par des ensembles seront présentés pour faire le point sur l'état actuel de la recherche. Mertens, P. & Alessandro, Ch. d' (1995) Pitch contour stylization using a tonal perception model. Proc. Int. Congr. Phonetic Sciences 13, 4, 228-231 (Stockholm 1995). MacCallum, J., & Einbond, A. (2007, août). Analyse en temps réel de la dissonance sensorielle. Dans International Symposium on Computer Music Modeling and Retrieval (pp. 203-211). Springer, Berlin, Heidelberg. Parncutt, R., & Strasburger, H. (1994). Appliquer la psychoacoustique à la composition : progressions "harmoniques" de sonorités "non harmoniques". Perspectives de la musique nouvelle, 88-129.
--------------------------------------
Greg Beller travaille comme artiste, chercheur, enseignant et informaticien pour l'art contemporain. À la croisée des arts et des sciences à l'Ircam, il a été successivement doctorant sur les modèles générateurs d'expressivité et leurs applications à la parole et à la musique, concepteur informatique de musique, directeur du département Interfaces Recherche/Création et chef de produit du Forum Ircam. Fondateur du projet Synekine, il effectue actuellement un deuxième doctorat sur les "Interfaces naturelles pour la musique informatique" au HfMT de Hambourg dans le domaine de la création et de l'exécution de moments artistiques.
Melodic Scale and Virtual Choir, Max ISiS
Dans cette présentation, Greg Beller exposera les développements récents dans le domaine du traitement de la voix. Melodic Scale est un dispositif Max For Live qui modifie automatiquement une ligne mélodique en temps réel, en changeant sa gamme, son mode ou son tempérament. Virtual Choir est un dispositif Max for Live, qui crée un effet de chorale en temps réel, en harmonisant la voix sur différentes gammes musicales. Max ISiS est une interface graphique Max pour le logiciel de synthèse vocale ISiS.
--------------------------------------
Axel Roebel est directeur de recherche à l’IRCAM et responsable de l'équipe Analyse/Synthèse (AS). Il est diplômé de l'Université de Hanovre en génie électrique (1990) et obtient son doctorat en informatique à l'Université technique de Berlin en 1993. En 1994, il rejoint le Centre national de recherche allemand pour les technologies de l'information (GMD-First) à Berlin où il poursuit ses recherches sur l'utilisation de reseaux de neurone artificiel pour la modélisation adaptative de signaux généré par des systèmes dynamiques non linéaires. En 1996, il devient professeur adjoint pour le traitement numérique du signal au département des Sciences de la communication de l'Université Technique de Berlin. En 2000, il obtient une bourse de recherche au CCRMA (Université de Standford) où il débute une enquête sur la modélisation sinusoïdale adaptative. En 2000, il rejoint l'équipe Analyse/Synthèse de l'IRCAM, obtient son habilitation de l'Université de la Sorbonne en 2011 et devient directeur de recherche en 2013. Il développe des algorithmes de pointe pour l'analyse et de transformation de la parole et de la musique. Il est l'auteur de nombreuses bibliothèques pour l'analyse, la synthèse et la transformation de signaux qui sont issue de ses recherches. Un exemple est SuperVP, un logiciel d'analyse et de transformation de signaux de musique et de parole qui a été intégré dans de nombreux outils audio professionnels. Il a récemment commencé à étudier des algorithmes de traitement du signal basés sur l'apprentissage profond. Il est l’auteur d’une centaine de publications dans des revues et conférences internationales.
Nicolas OBIN est maître de conférences à la Faculté des Sciences de Sorbonne Université et chercheur dans l'équipe Analyse et Synthèse des Sons à l'Ircam (STMS - Ircam/CNRS/Sorbonne Université) depuis 2013. Il a réalisé une thèse de doctorat sur la modélisation de la prosodie et du style pour la synthèse de la parole à partir du texte, pour laquelle il a a obtenu le prix de thèse de la Fondation des Treilles en 2011. Nicolas OBIN est un chercheur en traitement du son, apprentissage machine, et modélisation statistique de signaux sonores spécialisé sur la voix. Son domaine de recherche principal est la modélisation générative de l'expressivité de la voix parlée et chantée, avec application à des domaines variés comme la synthèse vocale, les agents conversationnels, et la musicologie computationnelle. Il participe activement à la promotion des sciences et technologies numériques pour les arts, la culture, et le patrimoine. Il a notamment collaboré avec des artistes de renoms (Georges Aperghis, Philippe Manoury, Roman Polansky, Philippe Parreno, Eric Rohmer, André Dussolier), et a contribué à reconstituer la voix numérique de personnalités, à l'exemple de la synthèse de la voix d'André Dussolier (2011) et des films Marilyn (P. Parreno, 2012) et du film documentaire Juger Pétain (R. Saada, 2014). Il réalise régulièrement des conférences invitées dans des écoles (Collège de France, Ecole normale supérieure, Sciences Po) des organismes (CNIL, AIPPI) et dans la presse et les médias (Le Monde, Télérama, TF1, France 5, Arte, Pour la Science).
Yann Teytaut est doctorant à l'Ircam au sein de l'équipe Analyse/Synthèse sonore. Ancien étudiant de Master à l'Ircamn suivant le programme ATIAM (Acoustique, Traitement du Signal et Informatique Appliqués à la Musique), il s'est familiarisé avec les algorithmes d'alignement, et plus particulièrement l'alignement audio vers la partition, lors d'un stage chez Antescofo SAS. Ses travaux actuels portent sur l'alignement de la parole et du chant avec du texte/phonème basé sur l'apprentissage profond, en vue de l'analyse et de la transformation du style de chant musical (Projet ANR ARS).
Deep learning for Voice processing
Les réseaux neuronaux profonds dominent de plus en plus les activités de recherche dans l'équipe Analyse/Synthèse et dans le reste du monde. La session présentera
certains des résultats récents des activités de recherche liées au traitement de la voix avec des réseaux neuronaux profonds. La présentation abordera notamment
- L'analyse : Analyse de F0 avec des réseaux de neurones convolutifs, Alignement Speech/Singing avec la perte CTC (projet ANR ARS)
- Vocodeur neuronal (projets ARS ANR et theVoice)
- Conversion de la voix (projet ANR theVoice).
certains des résultats récents des activités de recherche liées au traitement de la voix avec des réseaux neuronaux profonds. La présentation abordera notamment
- L'analyse : Analyse de F0 avec des réseaux de neurones convolutifs, Alignement Speech/Singing avec la perte CTC (projet ANR ARS)
- Vocodeur neuronal (projets ARS ANR et theVoice)
- Conversion de la voix (projet ANR theVoice).
--------------------------------------
Chercheur en informatique passionné par l'histoire de la reproduction sonore, David Guennec se spécialise dans le domaine des nouvelles technologies vocales. Après un doctorat portant sur la synthèse de la parole, il s'est dirigé vers la création d'assistants vocaux intégrant l'ensemble de la chaîne de reproduction vocale ; de la reconnaissance de la parole à la synthèse en passant par la compréhension du langage naturel. Actuellement en poste chez ViaDialog, il se focalise principalement sur la synthèse et la reconnaissance de la parole.
ViaSpeech est un ensemble de modules d’intelligence artificielle conversationnelle de la société ViaDialog. Ces technologies permettent aux entreprises et aux grands comptes d’automatiser une partie de leurs flux d’appels vocaux, de connaître les émotions exprimées durant les échanges clients, de répondre avec des voix de synthèse expressives, de comprendre et répondre aux échanges textuels par e-mail, sms, chat et via les plateformes de messaging grands public. ViaDialog est un acteur de référence en Europe dans l’industrie du Customer Interaction Management et dispose à Lannion d’un laboratoire de recherche et développement où nous concevons des outils performants, industriels, à faible latence et à haut niveau de protection RGPD. Nos équipes de data scientist et de docteurs en intelligence artificielle couvrent l’ensemble des aspects scientifiques et technologiques et conçoivent des solutions particulièrement performantes en langue Française, Anglaise, Allemande, Italienne et Espagnole. Nos solutions s’intègrent à un large écosystème de plateformes tierces et sont nativement intégrées à la solution ViaFlow, pionnière de l’automatisation des actions métier dans les centres de relation client.
ViaSpeech est un ensemble de modules d’intelligence artificielle conversationnelle de la société ViaDialog. Ces technologies permettent aux entreprises et aux grands comptes d’automatiser une partie de leurs flux d’appels vocaux, de connaître les émotions exprimées durant les échanges clients, de répondre avec des voix de synthèse expressives, de comprendre et répondre aux échanges textuels par e-mail, sms, chat et via les plateformes de messaging grands public. ViaDialog est un acteur de référence en Europe dans l’industrie du Customer Interaction Management et dispose à Lannion d’un laboratoire de recherche et développement où nous concevons des outils performants, industriels, à faible latence et à haut niveau de protection RGPD. Nos équipes de data scientist et de docteurs en intelligence artificielle couvrent l’ensemble des aspects scientifiques et technologiques et conçoivent des solutions particulièrement performantes en langue Française, Anglaise, Allemande, Italienne et Espagnole. Nos solutions s’intègrent à un large écosystème de plateformes tierces et sont nativement intégrées à la solution ViaFlow, pionnière de l’automatisation des actions métier dans les centres de relation client.
Towards helpful, customer-specific Text-To-Speech synthesis
Le sujet de la synthèse de la parole automatique a commencé à se démocratiser dès les années 90. Chacun de nous à déjà eu affaire à ces voix de répondeur automatiques qui nous ont tous fait souffrir dans un premier temps. Aujourd'hui cependant, les progrès réalisés autant du point de vue de la compréhension du langage que de la qualité acoustique des approches en synthèse de la parole nous ont permis de réaliser des bonds de géant et les nouveaux services vocaux voient actuellement leur qualité et leurs capacités augmenter rapidement avec des voix toujours plus humaines et expressives. Dans cette présentation, je reviendrai succinctement sur les progrès récents en synthèse de la parole. Après cette introduction, j'aborderai les sujets liés à la personnalisation des voix de synthèse aux besoins du client ; et ce à plusieurs niveaux. D'abord, au niveau des principales composantes de l'expression orale : langue, style de parole, registre de langue et genre par exemple. Ensuite, j'aborderai les problématiques au niveau de l'énoncé ; prosodiques pour l'essentiel (manipulation du pitch, du débit). Enfin, je finirai en discutant des éléments subsidiaires à prendre en considération pour répondre au mieux aux besoins des clients et utilisateurs finaux de voix de synthèse dans notre monde en constante évolution.
--------------------------------------
Le contenu suivant est restreint aux utilisateurs Premium. Veuillez vous connecter ou vous abonner pour le lire ou le jouer.