drake the weeknd intelligence artificielle

L’IA dans la musique, entre dangers et opportunités

L’intelligence artificielle fait rêver et terrifie. Elle est porteuse de possibilités infinies et annonciatrice d’un gouffre dans lequel pourraient être plongés nombre de métiers. Elle est aussi, peut-être, le signe d’un renouvellement obligatoire pour les créateurs de contenus. Alors que tout s’emballe et que chaque jour apporte son lot de nouveautés, il est temps de réfléchir à ce que l’IA a déjà changé. Et à ce qu’elle pourrait détruire dans un futur proche.

Aux Grammys ?

L’annonce de la possible présence aux Grammy Awards 2024 de la chanson “Heart On My Sleeve”, de Drake et The Weeknd, générée par intelligence artificielle, a fait l’effet d’une bombe. Créée par le TikToker Ghostwriter977, elle s’est répandue comme une traînée de poudre sur les réseaux sociaux, accumulant des millions d’écoutes, faisant son chemin jusqu’aux plateformes de streaming. Avant d’en être délogée à toute vitesse. Ghostwriter977 avait lui-même écrit les paroles de la chanson, puis les avait fait chanter avec la voix de Drake et The Weeknd en utilisant des outils d’intelligence artificielle. Même pour les auditeurs férus des deux artistes, la ressemblance est troublante. Choquante, même. Cela fait des années que des chansons de ce type fleurissent sur Internet : Jay-Z, Kendrick Lamar, Eminem ou Playboi Carti en ont fait les frais. Mais jusque-là, aucun morceau n’avait été pressenti pour remporter de prix à une cérémonie de récompense. “Heart On My Sleeve” a été écrite par un être humain, et est donc, au regard de la réglementation des Grammy Awards, éligible. Sauf qu’elle a été faite sans l’autorisation des artistes concernés ou de leur label. Histoire de gros sous et de droits d’auteur. 

Pour apaiser les foules, le président de la Recording Academy, Harvey Mason Jr., a dû prendre la parole, précisant que le fait que les voix des deux artistes aient été obtenues illégalement rendait la chanson non admissible. Soulagement dans les rangs de l’industrie. Confirmation au début du mois de septembre du côté des Juno Awards, une cérémonie de récompense canadienne, qui précise dans un communiqué avoir ajouté une clause d’“Éligibilité pour l’intelligence artificielle” dans ses critères d’admission, ajoutant qu’une chanson pouvait utiliser de l’IA, mais que celle-ci ne devait pas en être la composante principale. Si la démarche est louable, elle soulève une foule d’inquiétudes. Et nombreux sont ceux qui craignent qu’à terme, plus personne n’ait de contrôle sur ces technologies. 

Mise à jour de ce qui est écrit plus haut : panique dans les rangs de l’industrie.

Entre deux opposés

Du côté des artistes, les opinions sont partagées. Si certains semblent favorables à ce que leur voix soit utilisée pour créer des chansons auxquelles ils n’ont pas contribué, d’autres, comme le rappeur Ice Cube, promettent carrément de poursuivre en justice “l’enfoiré qui fait ça, et la plateforme et auditeurs qui le joueraient”. En cause : la distribution des droits d’auteur. 

L’exemple de la chanson de Drake et The Weeknd est symbolique. Pour la concevoir, Ghostwriter977 s’est basé sur l’existant. Des éléments et intonations de Drake et The Weeknd ont été mêlés à des textes nouveaux et à une composition inédite. Ce matériel-source doit en théorie être soumis au droit d’auteur et bénéficier de l’accord des intéressés avant d’être commercialisé. La Convention de Berne, adoptée en 1886, qui “porte sur la protection des œuvres et des droits des auteurs sur leurs œuvres” (Organisation Mondiale de la Propriété Intellectuelle), affirme qu’il faut qu’un être humain en soit à l’origine pour qu’une œuvre soit protégée. Une musique générée uniquement par une intelligence artificielle ne devrait donc pas être soumise aux règles de protection des droits. 

En revanche, comme dans le cas de Drake et The Weeknd, une chanson qui prend pour base l’œuvre d’une personne physique, quelle que soit la manière dont elle a été produite, doit être protégée. Le flou juridique se situe alors dans le degré d’implication des êtres humains et pourrait mettre des mois, voire des années, à être éclairci, rendant l’IA difficilement lisible au regard de la loi. Les voix ont une valeur juridique et monétaire, mais que faire si ces voix sont altérées ? Dans une certaine mesure, les débats concernant l’IA se rapprochent de ceux qui ont animé l’émergence du sampling dans le Rap dans les années soixante-dix et quatre-vingts. Où se situe la limite entre copie et reprise ? Un élément sonore de deux secondes, qu’il s’agisse d’un motif de batterie, de voix ou de saxophone, doit-il être déclaré ? Les ayants-droits peuvent-ils faire valoir leurs droits ? Et si oui, comment la loi peut-elle encadrer ces nouvelles technologies ?

Les labels à la rescousse

En juin 2023, le PDG de Deezer annonce avoir mis au point un outil permettant de détecter les chansons générées par IA, afin de permettre aux labels et artistes d’agir. En avril de cette même année, Universal Music faisait pression sur les services de streaming pour qu’”Heart On My Sleeve” de Drake et The Weeknd disparaisse de Spotify et consorts. D’autres initiatives voient le jour, comme The Human Artistry Campaign, lancée en mars 2023, regroupement de syndicats et d’organismes qui luttent pour que ‘les technologies d’intelligence artificielle soient utilisées et développées pour soutenir la culture et l’art humain, et non pour les remplacer ou les éroder”. 

apple park

Preuve que les labels prennent la question de l’IA au sérieux, Sony Music a nommé Geoff Taylor, en juin de cette année, au poste de Vice-Président de l’intelligence artificielle, un département nouvellement créé. Le nom est bien connu dans le milieu de la lutte anti-piratage : Geoff Taylor était à la tête du groupe anglais BPI, un des leaders du domaine. Il avait notamment livré bataille contre les sites de torrents et les services de streaming illégaux. Si les labels voient l’IA comme un outil potentiellement intéressant, elles tentent donc d’en encadrer la pratique. Mais pour servir quels intérêts ? Le système de rémunération du streaming est déjà peu avantageux pour les artistes, qui voient leurs royalties réduites à une portion parfois ridicule. Preuve d’une forme d’hypocrisie, Spotify et ses concurrents ont déjà commencé à mettre à disposition une foule d’instrumentaux générés par IA, jadis créés par des êtres humains, pour servir de musique de fond ou faire du sport. L’IA est déjà en train de grignoter du terrain. “Est-ce que le travail créatif sera valorisé dans un business où les cadres sont des gens issus de la tech et de la finance ?” s’interroge Shruti Kumar, productrice et compositrice pour le cinéma, dans les colonnes du Los Angeles Times. “Les scénaristes sont actuellement en grève [à Hollywood] car ils veulent éviter d’être traités comme des musiciens”. 

Le vrai danger de l’Intelligence Artificielle ne serait ainsi pas la technologie en elle-même, mais plutôt les individus qui la contrôlent. 

Technologies

Si tous les secteurs sont touchés, l’exemple du rap est singulier. Le rap est une musique qui a toujours fait usage de la technologie. Elle s’est conçue à l’aide de machines, grâce à des sampleurs, en branchant des platines et des enceintes sur des poteaux électriques pour faire danser les foules, ou via un ordinateur ou une console de jeu. Prenons le jeu vidéo MTV Music Generator, sorti en 1999 sur Playstation. Combien de producteurs ont connu leurs débuts en s’y essayant ? Sounwave, un des architectes du son de Kendrick Lamar, a par exemple fouillé dans les tréfonds du jeu pour tester tous les riffs disponibles, les mixer et concevoir ses premiers instrumentaux. Déjà, à l’époque de sa démocratisation, nombreux étaient ceux qui s’inquiétaient de l’arrivée d’une machine permettant de reproduire ce que des producteurs faisaient chacun de leur côté, et qu’ils avaient mis des années à maîtriser. MTV Music Generator, comme Fruity Loops, ne les a pas mis au chômage, mais a au contraire permis aux aspirants artistes qui ne pouvaient s’offrir de machine, ou pour qui le manque de notions musicales étaient un frein à la création, de plancher sur leurs premières compositions. Avant de s’offrir des machines plus perfectionnées. La génération de rappeurs ayant émergé avec Soundcloud ont quant à eux rappé sur des type beats disponibles sur le net, ne se préoccupant pas de la qualité de leur micro ou du mix de leurs morceaux, utilisant la technologie à leur disposition pour occuper le marché, et se professionnaliser une fois les phases de formation achevées.  

Dans son essence, c’est ce que l’IA propose. Ses partisans avancent l’argument qu’elle ne doit être rien d’autre qu’une facilitatrice. Et sur ce créneau, de nombreuses applications tentent de se faire une place au soleil. En prétextant qu’elles permettent de stimuler la créativité et mettent les futurs artistes au même niveau que des professionnels, elles cannibalisent des pans entiers de l’industrie. 

L’application Boomy permet par exemple de créer un instrumental libre de droit en quelques secondes, sur la base d’une sélection de critères stylistiques, de l’éditer, d’ajouter des effets et des voix, et d’ensuite publier le tout sur les plateformes de streaming. Songstarter a pour but de faciliter la création d’une chanson, en se basant notamment sur un texte spécifique ou des émojis pour décrire l’ambiance souhaitée. Le logiciel Zeutron 4, par iZotope, propose des outils pour mixer soi-même ses pistes, sans aucune formation musicale, alors que LANDR utilise l’IA pour faire du mastering. Le tout sans passer par des ingénieurs du son et à des tarifs attractifs. Google, de son côté, a développé un logiciel Open-Source, Magenta, permettant de créer des arrangements s’inspirant de succès passés, sans toutefois les dupliquer. 

D’autres se focalisent presque exclusivement sur les voix. La start-up Mayk.it, cofondée par des ex-employés de YouTube, TikTok et Snapchat, et comptant parmi ses investisseurs un certain T-Pain, a pour objectif de permettre à chacun de chanter sans se tourner en ridicule. En créant un modèle de la voix de l’utilisateur, Mayk.It corrige ensuite le ton, ajoute des effets, des filtres, mixe le tout et propose ensuite de publier le résultat sur les réseaux sociaux ou des plateformes de streaming. L’implication du “chanteur” est minime, voire inexistante. Au cœur de ces applications : la volonté d’occuper le terrain, de jouer avec les codes d’une génération biberonnée aux réseaux sociaux et de chercher à tout prix le phénomène de viralité. Quitte à tout uniformiser.

Séquencer

Des artistes déjà établis utilisent pourtant certains de ces outils. Le producteur et auteur à succès Rodney Jerkins, alias Darkchild, s’est servi de l’IA pour concevoir “Forgiveless”, une chanson de SZA parue sur son album SOS, en décembre 2022. Il utilise le logiciel AudioShake pour isoler une partie vocale du feu rappeur Ol’Dirty Bastard, trouvée sur une vieille VHS, et l’incorpore ensuite à sa production pour SZA. “J’étais en train de digitaliser du contenu pour un documentaire  sur lequel je travaillais, et je suis tombé sur cette cassette de 1998, sur laquelle il y avait ODB” raconte-t-il à AudioShake. “Il passait dans mon studio et s’était mis à rapper. Alors que je l’écoutais, je me suis demandé s’il était possible d’extraire cette partie vocale de la VHS — et de se débarrasser du reste de l’audio — et de la superposer à une idée que j’avais pour SZA. J’ai pris la VHS, l’ai transformée en audio, l’ai faite passer par AudioShake et j’ai juste isolé les vocaux”. 

Cette capacité facilitée et accélérée d’isoler des pistes audio grâce à l’IA est une des avancées technologiques les plus plébiscitées par les professionnels du son. Quand le réalisateur Peter Jackson et la dialoguiste Emile del Rey travaillent sur le documentaire Get Back, retraçant l’histoire des Beatles, ils font appel à l’Intelligence artificielle pour séparer des voix et les rendre plus audibles en supprimant les bruits de fonds parasites. Paul McCartney avait quant à lui créé la controverse après avoir annoncé qu’il comptait utiliser l’IA pour plancher sur une nouvelle chanson des Beatles. Sacrilège. Au micro de la radio BBC 4, il explique, face à la polémique, avoir récupéré un motif vocal de John Lennon présent sur une vieille cassette de démo datant de 1978. Pas question de faire chanter ou jouer à John Lennon des choses inédites : il s’agit simplement d’améliorer ces enregistrements et de poser la voix et les notes de piano de Lennon sur une composition nouvelle. 

La conséquence ? Les barrières entre avoir une idée et mettre cette idée en application commencent à tomber, et créer de la musique paraît désormais à la portée de tout le monde. En mettant à disposition une multitude d’idées, l’IA permettrait de dépasser l’angoisse de la feuille blanche. Ou, plutôt, de mettre au chômage la multitude d’artistes et d’auteurs dont le travail est justement de proposer des idées à d’autres, qu’il s’agisse de mélodies, de démos à affiner ou d’instrumentaux servant de base à des futures chansons. La bascule a déjà commencé à s’opérer, notamment dans le domaine de ce qui est nommé la “background music”, des musiques utilisées en arrière-plan pour des séries télévisées, des publicités ou des podcasts. Certaines sont regroupées dans les librairies, similaires à des bases de données, dans lesquelles il est possible de piocher à l’envi. Elles emploient une foule d’artistes, qui verraient leur position fragilisée si l’IA les remplaçait, ce qu’elle est déjà capable de faire en quelques minutes.

Des centaines de milliers de chansons libres de droits et créées grâce aux outils d’IA ont déjà inondé les plateformes de streaming. Elles existent en parallèle de celles conçues par des humains, diluant potentiellement l’attention des auditeurs au sein d’un marché déjà concurrentiel. S’il pouvait être difficile d’exister et de se démarquer, l’IA fait déferler une vague continue de nouvelles compositions. L’objectif non dissimulé serait de publier en masse en espérant qu’un morceau marche plus qu’un autre. La quantité au détriment de la qualité, en somme.

Révolutions et fragilisation

À bien des égards, l’industrie musicale est à un tournant de son histoire. Elle se souvient sans doute de l’arrivée en 1999 de Napster sur le marché, une plateforme de streaming musical qui, pendant deux ans, permettait d’écouter des milliers de chansons gratuitement, sans qu’aucune contrepartie ne soit reversée aux artistes et à leurs labels. Napster avait alors ouvert une boîte de Pandore. Elle montrait, en somme, que plus personne n’avait à payer pour écouter quoi que ce soit et plaçait le pouvoir entre les mains des consommateurs. Même si le service avait été rapidement contraint à fermer, le pirate illégal de musique n’avait pas tardé à prendre d’autres formes, forçant l’industrie à trouver des solutions alternatives face à un désastre annoncé. Comme dans le cas de l’IA, les labels et législateurs agissaient en réaction et non en anticipation, incapables d’endiguer un virus déjà incontrôlable au moment où ils travaillaient sur un vaccin. Mais si la situation peut sembler alarmante, quelques signaux positifs subsistent. 

Au moment où iTunes et le streaming ont déferlé, au tournant des années 2000, les formats physiques ont perdu de leur superbe. Les vinyles étaient depuis longtemps passés de mode, et le CD allait bientôt passer à la trappe. Une vingtaine d’années plus tard, les 33 tours ont dépassé les ventes de CDs aux Etats-Unis en 2022 – une première depuis 1987 – et les CDs eux-mêmes voient leurs ventes augmenter. Avec eux, le merchandising fait son retour en tant qu’élément de promotion presque indispensable. Attrait du vintage, rejet du tout-numérique, relation privilégiée avec l’artiste, émergence de “supers fans” collectionnant tout ce qui touche à leurs artistes favoris… L’industrie du disque, et en particulier celle du rap, valorise encore les objets et la dimension humaine de la création artistique. 

orelsan studio

Le signe que dans un contexte où le numérique dicte tout, les consommateurs ne sont, paradoxalement, pas prêts à laisser l’humain de côté. La technologie n’est pas prête de disparaître, reste à s’en servir de la bonne manière, et surtout, de trouver le moyen de la tourner à son avantage. Dans une vidéo publiée sur le média Hyconiq, Chris Kapongo s’interroge sur l’avenir de la musique et, par extension, des médias associés. Il révèle à juste titre que l’intelligence artificielle permettra sans doute de faire un tri. Entre des contenus génériques, duplicables à l’envi, et d’autres davantage portés sur la recherche. Entre des albums, productions, interviews et articles, certes de qualité, mais interchangeables. 

Dans un contexte de fragilisation accrue des métiers artistiques, couplée à une concurrence de plus en plus rude dans un secteur déjà précaire, il est donc implicitement demandé aux artistes de porter le poids d’innovations qui ne sont pas de leur fait. D’utiliser l’IA pour se démarquer ou s’éteindre. De mettre les mains dans des logiciels et applications parfois complexes, pour comprendre comment s’en démarquer. De produire plus, mieux, plus vite, sans s’arrêter. De devenir encore plus créatif, plus original, de renforcer la connexion avec son public. Les injonctions sont (trop) nombreuses. On leur intime presque de changer pour continuer à exister. De lutter pour leur propre survie, alors que certains peinent déjà à vivre de leur art, face à une technologie sur laquelle ils n’ont aucun contrôle.

Il est peut-être là le danger de l’IA : s’il représente en termes financiers un manque à gagner pour des créateurs, il est aussi une pression psychologique malvenue. Et à ceux qui estiment que les artistes “n’ont qu’à apprendre à se servir de ces nouvelles technologies” sous peine d’être dépassés, rappelons qu’utilisée à bon escient, la technologie devrait plutôt protéger des secteurs culturels en difficulté, encourager la création, permettre d’accéder à un public plus large, consolider des revenus et débloquer des opportunités. Le tout sans rien effacer ou détruire. 

“Avant, il y avait un certain laps de temps entre l’invention et l’adoption d’une technologie”, souligne Martin Clancy, chercheur au Center for Digital Humanities de l’université Trinity à Dublin, au Los Angeles Times. “Combien de temps cela a-t-il pris entre l’invention des tourne-disques et leur utilisation par DJ Kool Herc ? Une centaine d’années. Et ensuite, il a fallu trente ans pour que ces tourne-disques deviennent des objets de consommation que la plupart pouvaient se payer. L’IA est différente en raison de son échelle. Le coût est faible, de l’argent est investi et la technologie s’auto-alimente”. 

À chacun, auditeur, législateur, label, artiste et professionnel du son, de trouver des moyens pour en encadrer la pratique, sous peine de se faire engloutir par un outil de création formidable et destructeur. Personne n’est dupe : écouter de fausses chansons de Drake, de JAY-Z, de Nekfeu ou d’SCH est amusant. Ces morceaux devraient simplement rester ce qu’ils sont : des divertissements éphémères, qui doivent dans le même temps rémunérer les artistes en question. 

L’IA est à ce titre à la fois une aubaine et une épine dans le pied. Un petit miracle technologique et un monstre sur lequel toute tentative de contrôle semble déjà vaine. Et alors que personne ne sait encore vers quel extrême pencher, le monde reste suspendu dans un entre-deux aussi excitant qu’inquiétant.