L’intelligence artificielle est sur toutes les lèvres désormais. De nombreux projets sont nés ces dernières années pour appliquer cette dernière aux arts, et en particulier à la création musicale. En la matière, on peut entrevoir de multiples perspectives : de l’ajustement de musique à la création pure, l’IA est petit à petit en train de faire son trou dans l’industrie.
Cet article s’inscrit dans le dossier “La musique à l’aube de l’intelligence artificielle”.
Temps de lecture : 11 min
L’intelligence artificielle n’est pas que sur toutes les lèvres, elle enflamme aussi les esprits, créant des milliards de possibles avec leurs corollaires de casse-têtes éthiques et juridiques. Sans s’arrêter sur les questions morales, nous tâcherons d’exposer ici les faits et les enjeux qu’ils impliquent pour l’avenir de la création musicale.
Partons d’abord d’une définition : qu’est-ce que l’intelligence artificielle ? Qu’est-ce que l’on entend par elle ? Quelles technologies ou méthodes cache-t-elle ?
L’intelligence artificielle est une création humaine, elle reproduit certains traits de notre intelligence : l’apprentissage ou bien le raisonnement, mais aussi l’adaptation. Elle est en fait le fruit de programmes informatiques complexes simulant cette intelligence. Programmes qui sont eux-mêmes le fruit de théories et de techniques élaborées et affinées au fil de l’histoire moderne en partant des postulats formulés par le célèbre mathématicien Alan Turing et son fameux test qui reste aujourd’hui une référence pour qualifier le niveau de développement d’une IA.
L’IA est souvent confondue avec le terme machine learning. Ce dernier est en fait un terme générique regroupant les différentes méthodes d’apprentissage automatique des programmes informatiques se revendiquant de l’IA. On peut découper ces derniers selon les grandes orientations : apprentissage supervisé, non supervisé, semi-supervisé, apprentissage par renforcement, apprentissage par transfert. Le tout conduit par des algorithmes fonctionnant sur ordinateur qui vont apprendre pour ensuite raisonner, puis s’adapter. On est loin de l’image du robot humanoïde du film A.I. Artificial Intelligence de Steven Spielberg ; l’IA aujourd’hui ressemble tout bonnement à un programme informatique qui se caractérise par une suite de 1 et de 0. Cette suite de 1 et de 0 pourrait changer avec l’arrivée de l’informatique quantique, mais ne brûlons pas les étapes, nous nous pencherons sur la question en 2025.
Une intelligence artificielle « artiste » ?
Verra-t-on un jour une IA artiste qui possède une sensibilité artistique à part entière ? Si ce n’est pas actuellement le cas, cette conception fait écho aux interrogations des scientifiques adeptes de l’intelligence artificielle forte, un courant philosophique qui s’intéresse à la création d’une IA consciente capable de comprendre son propre raisonnement, de développer des sentiments, et donc d’avoir un rapport esthétique au monde. Il n’est ainsi pas étonnant que les premières entreprises qui se soient lancées sur cette voie ces dernières années aient fait couler beaucoup d’encre. Beaucoup d’encre et d’interrogations : les IA sont-elles les artistes de demain ou bien l’avenir de l’artiste ? Va-t-on assister à une « machine-action » de la production musicale à l’instar de ce que laisse augurer ce robot rappeur dénommé FN MEKA ?
Il faut dire que sur le papier les promesses affichées par les structures qui se sont lancées dans ce défi peuvent faire peur… La promesse de Popgun à son lancement ? Pouvoir fabriquer de toutes pièces des chansons pop à l’aide d’intelligence artificielle. Rien que cela. Et cette création musicale ex nihilo pose évidemment des questions juridiques, questions relayées notamment par Alexandra Bensamoun et Joëlle Farchy dans leur rapport sur l’IA dans la culture pour le CSPLA. Ces dernières s’y interrogent à propos des créations qui seraient générées par des IA « artistes » : « S’agit-il d’œuvres de l’esprit, à ce titre protégées par le droit d’auteur ? Dans cette hypothèse, qui est l’auteur et le titulaire de droit ? ». Il n’existe, à l’heure actuelle, aucune réponse juridique. Pour orienter la réflexion, les deux chercheuses proposent : « une analyse renouvelée des conditions d’accès à la protection (création, originalité, auteur) pourrait permettre de recevoir ces réalisations culturelles au sein du droit d’auteur », tout en décrivant d’autres pistes : « Mais d’autres solutions sont également proposées (droit spécial, absence de protection privative…) » qui pourraient faire de ces œuvres des nouveaux objets juridiques in situ.
Pour en revenir à Popgun et à sa volonté de créer une IA « artiste », la compagnie australienne, après avoir exploré cette voie, a finalement préféré tourner le dos à son ambition de départ, confrontée aux difficultés inhérentes à une telle entreprise de création pure. L’entreprise hébergée au sein du studio Mawson Labs de Stephen Phillips (aussi CEO de Popgun) se concentre désormais sur une suite d’instruments permettant d’enrichir l’expérience du créateur humain. Mais cette réorientation ne fut pas la voie choisie par Amper, une entreprise américaine comembre avec Popgun de la première cohorte d’entreprises accélérées au sein de Techstars Music. Cet outil qui, à l’instar de Jukedeck (autre plateforme positionnée sur l’IA musicale), « ne nécessite aucune connaissance préalable » de la musique ou du code pour générer de la musique, comme l’indiquent Joëlle Farchy et Alexandra Bensamoun : tout utilisateur pouvait ainsi choisir une musique qui lui convenait dans la banque de musique créée ou bien en créer une à partir de paramètres ultra simplifiés.
L’un des problèmes quand on souhaite lancer une startup sur ce marché, même en ayant la promesse de vente d’un Amper, reste le coût associé à la recherche et au développement. Pour arriver à trouver la bonne équation et à perfectionner l’algorithme, afin que que celui-ci se rapproche d’un niveau de création musicale digne d’un artiste reconnu, il faut disposer de finances conséquentes car, avec aucune ou peu de ventes commerciales, le cash burn de ce type de compagnie est lui-même important et la période de R&D a tendance à s’allonger sans que le bout du tunnel ne se rapproche du champ de vision. C’est sans doute l’une des raisons qui ont poussé les créateurs d’Amper ou de Jukedeck à vendre leur compagnie et leur technologie à un plus gros que soi, TikTok pour Jukedeck, Shutterstock pour Amper.
Une chanson pop n’a pas la même complexité qu’une musique libre de droits, utile pour l’accompagnement de vidéos publicitaires ou explicatives. Au contraire de Popgun à ses débuts ou d’Amper qui ont cherché (avant de pivoter) à créer une chanson pouvant connaître un succès musical, la startup Amadeus Code s’est concentrée dès 2019 sur la création de musique libre de droits générée par des algorithmes internes : musiques disponibles pour la vidéo mais sur laquelle la startup pouvait soit percevoir une partie des revenus générés par la publicité monétisée sur les vidéos utilisant cette dernière, soit sur les abonnements générés sur sa plateforme. Un business model qui ne résout pas cependant les questions de droits posées un peu plus haut par Joëlle Farchy et Alexandra Bensamoun.
Dans le même registre, la startup AIVA propose elle aussi de composer des musiques avec une présélection de paramètres définis, musiques clairement dédiées à des usages d’accompagnement de vidéos ou de jeux vidéo. Mais la compagnie met l’accent sur les créateurs : dans sa tarification et dans sa manière d’aborder le processus de production de la piste.
Aide à la composition
Le constat d’échec quant à la production automatisée de chanson pop a finalement amené certaines compagnies pionnières à changer leur fusil d’épaule et à s’intéresser à l’empowerment des créateurs. Revenons à Popgun : la startup australienne a rapidement pris le parti de réutiliser toute la recherche effectuée sur son IA musicale vers une application plus concrète au service des artistes : d’abord sous la forme d’un outil de mastering audio (Gloss), mais aussi sur un add-on de logiciels de composition baptisé Splash (pro) qui permet aux artistes d’augmenter leur horizon créatif avec une suite de suggestions pour orienter la composition en cours. Les Australiens ont récemment décliné Splash sur Roblox (Splash Music) sous la forme d’une mini-application comme on vous le mentionnait dans ce précédent article : les joueurs pouvant faire des sets de musique en utilisant l’AI pour composer ces derniers en direct.
En France, notons le logiciel Orb Composer, développé par la startup Hexachords et qui matérialise une IA d’aide à la composition fruit de 5 ans de travail en R&D. Cette intelligence artificielle qui s’adresse à différents types de compositeurs « [celui] du dimanche, amateur passionné, comme le compositeur pointilleux qui recherche une signature rythmique particulière » comme l’indique Richard Portelli dans cet article de Fabrice Jallet.
Une autre solution, Splash Pro, a notamment été testée par Skygge, un artiste en pointe en France sur le maniement des IA dans la création de nouvelles chansons. Skygge, Benoît Carré de son vrai nom, fut ainsi l’un des premiers artistes à coopérer avec les équipes de recherche du laboratoire Sony Computer Science Laboratory (Sony CSL) dont les locaux se trouvent (cocorico) à Paris et dont l’équipe scientifique fut dirigée jusqu’en 2018 par François Pachet, chercheur connu pour ses travaux sur l‘importance des métadonnées dans l’amélioration de l’expérience musicale. Skygge a travaillé en résidence au sein du labo Sony CSL pour produire l’album Helloworld, aidé par le logiciel Continuator développé par l’équipe du chercheur François Pachet, qui alimente le studio Flow Machine de Sony CSL. Sur cet album l’artiste s’est appuyé sur les possibilités offertes par le logiciel pour créer une foule de pistes diverses avec certaines en duo avec des artistes tels The Pirouettes, Catastrophe ou bien encore le jazzman Médéric Collignon. À partir d’intrants, le logiciel offre aux artistes « des fragments musicaux sous forme de partitions et de sons » résultant de son entraînement préalable. L’avantage de ce logiciel étant qu’il permet de « composer et produire des chansons à partir des propositions originales et surprenantes générées par la machine auxquelles les musiciens n’auraient pas pensé ».
Ces possibilités ont permis à Skygge de poursuivre l’expérimentation plus loin en élaborant notamment l’EP expérimental American Folk Songs qu’il a créé en isolant les voix de chanteurs folk américains et la mélodie de leurs phrasés puis en utilisant des processus d’harmonisation « pour produire de nouveaux métissages stylistiques générés par l’intelligence artificielle » et en s’appuyant en l’occurrence sur un répertoire classique. L’IA permet donc d’étendre les possibilités créatives en faisant gagner du temps sur un choix auquel l’artiste serait peut-être (et c’est très potentiel) arrivé mais au bout d’un processus beaucoup plus chronophage. Il s’agit donc bien d’un travail fruit d’une collaboration homme-machine. Cette dernière est marquée par la prééminence de l’être humain dans les choix finaux, ce qui ne remet donc pas en question les qualifications juridiques de la création résultant du travail. Dans ce domaine d’aide aux artistes, on est dans un cadre juridique où l’artiste est à l’origine de l’œuvre puisqu’il opère les choix créatifs finaux. L’intelligence artificielle n’est pas ici indépendante, elle devient un outil d’amplification de l’horizon créatif de l’artiste. Après ce passage expérimental, Skygge travaille désormais sur un nouveau projet pop s’appuyant sur une nouvelle IA qu’il contribue à développer avec François Pachet au sein du labo Spotify CTRL que le chercheur a rejoint en 2018. Les premières chansons de ce nouveau projet devraient sortir très prochainement et s’accompagner d’un nouveau spectacle conçu sur mesure. Affaire à suivre de très près…
Des intelligences qui s’adaptent
Les algorithmes peuvent donc servir les artistes dans leur processus créatif mais ils jouent aussi un rôle clé dans le domaine d’adaptation d’œuvres existantes. Les algorithmes derrière les produits développés par les deux startups françaises MuseMind et MatchTune se concentrent sur l’adaptation d’une musique à un contenu. Jeu vidéo pour la première et vidéo pour la seconde.
L’équipe derrière MuseMind travaille ainsi avec des éditeurs de jeux vidéo pour décliner les thèmes musicaux de ces derniers en temps réel dans les jeux selon la scène et le gameplay. Ils obtiennent ainsi une déclinaison du thème parfaitement adaptée au contexte qui permet de renforcer l’expérience du joueur tout en renforçant l’association cognitive entre le jeu et sa musique. La startup MatchTune, cofondée par André Manoukian, a elle développé une intelligence artificielle qui réadapte une musique en fonction de la vidéo à laquelle cette dernière est associée. À date la structure dispose de 400 000 musiques parmi lesquelles l’usager peut choisir pour venir synchroniser la musique à la vidéo qu’il a conçue. L’utilisateur peut ainsi choisir comme dans une librairie musicale parmi la foule de musiques à disposition, mais l’application promet d’aller plus loin en recommandant également la musique qui lui apparaît être la mieux adaptée à la vidéo en question : l’application pour le secteur publicitaire apparaît là évidente. On touche ici à un aspect clé des intelligences artificielles, l’adaptabilité.
L’adaptabilité comme aide à la pratique
Un autre logiciel développé en France s’appuie sur cette caractéristique pour aider la pratique amateur de la musique. Ce dernier prend la forme d’une application, nommée Metronaut et développée par Antescofo, qui permet aux musiciens de répéter à leur rythme. Le logiciel sous-jacent créé par Arshia Conte dans le cadre de ses études au sein de l’Ircam a d‘ailleurs pu être intégré dans d’autres projets technologiques comme on le verra par la suite. Le fondateur présentait en ces termes son outil lors du Forum pour les pouvoirs du son dans l’industrie organisé par Ircam Amplify le 21 janvier dernier : « Metronaut est en fait un outil de complément pédagogique : il ne remplace pas le professeur de musique, mais au contraire il va donner à l’élève et au professeur d’autres possibilités applicatives, en reproduisant un vrai concert avec une adaptation du tempo au rythme de l’élève ». Le logiciel développé permet à un élève de jouer d’un instrument tout en étant accompagné par le reste de l’orchestre et en sélectionnant le tempo qui convient le mieux pour sa propre pratique. Le catalogue, qui s’enrichit au fil des années, permet désormais aux élèves de pratiquer sur plus de 4 000 morceaux, enregistrés en qualité studio puis rendus modulables par l’IA. Arshia Conte évoque aussi dans son intervention l’intégration prochaine de « morceaux plus pop », ce qui devrait permettre le travail des élèves sur d’autres esthétiques et donc démocratiser encore un peu plus l’application.
On l’annonçait tout à l’heure, le logiciel développé par Arshia Conte a aussi permis d’améliorer un logiciel sur lequel travaillent d’autres chercheurs de l’Ircam et notamment un informaticien et ethnomusicologue, Marc Chemillier, qui a participé à l’élaboration d’Omax, et surtout du logiciel Improtek qui fait la fusion entre les notions d’harmonies d’Omax et la prise en compte du tempo sous-jacente à la technologie employée au sein du logiciel Antescofo comme indiqué dans l’article écrit par Fabrice Jallet en 2019. La manifestation de cette intelligence artificielle sonore se fait dans le monde de la musique via une marque, Djazz, qui vient créer des spectacles intégrant la technologie. Ces spectacles permettent à des musiciens français comme Bernard Lubat, André Minvielle ou Sylvain Luc de jouer avec les chercheurs derrière leurs logiciels dans des spectacles d’improvisation musicale assistée par ordinateur. Il faut dire que ce sont des musiciens déjà rodés à l’improvisation, le jazz étant une musique de l’adaptation permanente à son environnement.
La communauté d’utilisateurs du logiciel en open source travaille désormais aux quatre coins du globe pour améliorer le logiciel et débloquer son usage sur d’autres esthétiques pour pouvoir enrichir l’expérience spectacle d’une foule de nouveaux univers musicaux. Et c’est peut-être là le rôle que pourrait avoir une IA libre, un rôle de musicienne additionnelle dans une composition improvisée avec des artistes bien réels. Rôle qui permettrait d’éviter les écueils juridiques tout en dessinant, qui sait, l’une des formes de spectacle du futur ?
.