(0 comments)

A l'occasion du 60e anniversaire des relations diplomatiques entre la Chine et la France, le Festival international de musique 2024 s'est ouvert lundi au Conservatoire central de musique à Pékin, un événement majeur des célébrations culturelles mettant en lumière les échanges éducatifs entre les deux nations.

Ayant pour objectif d'illustrer la richesse de la fusion culturelle sino-française à travers la musique, ce festival accueille la participation active d'institutions prestigieuses, telles que le Conservatoire national supérieur de musique et de danse de Paris, l'Ecole normale de musique. de Paris, le Conservatoire Maurice-Ravel, l'Association des professeurs de formation musicale (APFM) , l'Institut de recherche et coordination acoustique/musique (IRCAM) , ainsi que diverses écoles de musique et troupes artistiques chinoises.

Lors de ce festival le groupe de recherche ACIDS de l'IRCAM  sera présent pour dispenser deux ateliers

1) **Conférence scientifique sur l'IA** : 

L'IA en 64 Ko : peut-on faire plus avec moins ?

L'objet d'étude principal réside dans les propriétés et la perception de la synthèse musicale et de la créativité artificielle. Dans ce contexte, ils expérimentent des modèles d'IA profonds appliqués à des matériaux créatifs, dans le but de développer une intelligence créative artificielle. Au cours des dernières années, ils ont développé plusieurs objets visant à intégrer ces recherches directement en tant qu'objets temps réels utilisables dans MaxMSP. L'équipe a produit de nombreux prototypes d'instruments innovants et de pièces musicales en collaboration avec des compositeurs renommés. Cependant, l'inconvénient souvent négligé des modèles profonds est leur complexité massive et leur énorme coût de calcul. Cet aspect est particulièrement critique dans les applications audio, qui s'appuient fortement sur du matériel embarqué spécialisé avec des contraintes de temps réel. Par conséquent, le manque de travaux sur les modèles profonds légers et efficaces constitue une limitation importante pour l'utilisation réelle des modèles profonds sur du matériel à ressources limitées. L'équipe ACIDS montre comment ils peuvent atteindre ces objectifs grâce à différentes théories récentes (l'hypothèse du ticket de loterie (Frankle et Carbin, 2018), la connectivité modale (Garipov et al. 2018) et la théorie du goulot d'étranglement de l'information) et démontrent comment leur recherche a conduit à des modèles audio profonds légers et embarqués, à savoir:

1/ RAVE dans Raspberry Pi // synthèse profonde embarquée en temps réel à 48kHz.
2/ FlowSynth // un dispositif basé sur l'apprentissage qui permet de voyager dans les espaces auditifs des synthétiseurs, simplement en bougeant la main.
3/ AFTER // Une nouvelle approche des modèles de diffusion pour la génération en temps réel de flux audio.

2) **Conférence musicale sur l'application de l'IA à la composition musicale**

Utilisation de synthétiseurs audio neuronaux profonds pour la composition musicale dans Ableton Live et Max MSP 


 L'objectif est de fournir de nouveaux outils pour modéliser la créativité musicale et étendre les possibilités sonores avec des approches d'apprentissage automatique. Dans ce contexte, ACIDS expérimente des modèles d'IA profonde appliqués à des matériaux créatifs, dans le but de développer une intelligence créative artificielle. Au cours des dernières années, ils ont développé plusieurs objets visant à intégrer ces recherches directement en tant qu'objets temps réels utilisables dans MaxMSP et Ableton Live. L'équipe a produit de nombreux prototypes d'instruments innovants et de modèles audio profonds légers intégrés. Après une brève introduction sur les concepts d'intelligence artificielle et d'apprentissage automatique, les participants plongeront successivement dans les mécanismes et l'utilisation concrète de nn~ et RAVE, à la fois pour utiliser les modèles, mais aussi pour être en mesure d 'entraîner leurs propres modèles. Tous les outils seront abordés à la fois sur le plan conceptuel et par la pratique. A l'issue de ce cours, les participants seront capables d'utiliser les différents environnements d'outils d'IA génératifs existants, et notamment d'aller plus loin que les possibilités existant en entraînant leurs propres modèles. L'objectif est également de fournir les notions de base permettant d'inclure les modèles profonds open-source existants dans leurs flux de travail créatifs.

Une démo/performance aura lieu le 27 novembre lors du concert de clôture avec : Pierce WarneckeAxel Chemla-Romeu-Santos, Benoît Alary, Philippe Esling

N'a pas de note

Commentaires

Pas de commentaires actuellement

Nouveau commentaire

requis

requis (non publié)

optionnel

requis