Au milieu du chaos causé par les images deepfake, nous devons maintenant également faire face à la menace de la musique deepfake.
De nouvelles chansons d'artistes célèbres deviennent virales sur les réseaux sociaux, ce qui n'est normalement pas un problème, sauf lorsqu'un clone de voix est celui qui chante. Alors qu'elle était l'un des derniers médiums à tenir le coup, la musique deepfake est désormais une réalité.
Cela fonctionne en formant un modèle d'IA sur la voix d'un chanteur, et les résultats ne sont pas toujours mauvais. Il y a beaucoup de créativité dans la création de chansons deepfake, mais le problème n'est pas seulement avec la sortie. Dans de nombreux cas, l'autorisation n'est pas accordée, et les questions de savoir qui est payé et si c'est éthique ne sont que quelques-uns des problèmes de la musique deepfake.
1. Jeux de données non autorisés
Si vous souhaitez créer une piste deepfake d'un artiste célèbre, vous devez rassembler les fichiers audio de sa voix chantée dans un ensemble de données. Tout comme n'importe quelle donnée appartenant à quelqu'un, vous devriez probablement obtenir sa permission pour l'utiliser, mais un deepfake chanson peut arriver sur une grande plate-forme musicale comme YouTube, Spotify ou TikTok, après avoir utilisé un base de données.
Cela est arrivé aux artistes Drake et The Weeknd lorsqu'un utilisateur appelé Ghostwriter a créé "Heart on My Sleeve". La chanson à succès présentait les voix synthétisées par l'IA des artistes, avec des paroles sur l'ex-petite amie de The Weeknd.
La chanson a été vraiment appréciée par les fans, avec des éloges supplémentaires pour Ghostwriter pour l'utilisation créative de la voix deepfake, mais comme Le Seattle Times a rapporté, tout le monde ne l'a pas vu de cette façon. Un porte-parole d'Universal Music Group, le label majeur derrière les deux artistes, demande :
"De quel côté de l'histoire les acteurs de l'écosystème musical veulent-ils être: du côté des artistes, des fans et des l'expression créative humaine, ou du côté des contrefaçons profondes, de la fraude et du refus des artistes de leur juste rémunération? »
2. Loi obsolète sur le droit d'auteur
Si vous êtes un artiste qui ne veut pas que votre voix soit clonée, la loi sur le droit d'auteur pourrait ne pas être en mesure de vous aider pour le moment. Étant donné que nos lois sur le droit d'auteur ont été rédigées à une époque où ce type de technologie d'IA n'existait pas, il n'est pas surprenant que les lois essaient encore de rattraper leur retard.
L'affaire judiciaire la plus proche de "vol de voix" aux États-Unis remonte aux années 1990. Comme rapporté par Los Angeles Times, le chanteur Tom Waits a remporté 2,475 millions de dollars en dommages-intérêts de Frito-Lay Inc., le puissant géant des puces derrière Doritos, Cheetos, Cracker Jack's, et plus encore.
La publicité utilisait la voix de quelqu'un qui semblait assez proche de Tom Waits pour que les gens puissent croire que le véritable artiste était derrière la campagne publicitaire. On pourrait en dire autant des chansons deepfake qui circulent actuellement, mais la musique AI n'a pas encore été testée dans une bataille juridique.
En attendant la mise à jour du système juridique, il convient de noter que tout le monde n'a pas de problème avec les gens qui clonent leur voix, prenez Houx Herndon, Par exemple. Face à la marée montante des applications musicales d'IA, elle a choisi d'autoriser son jumeau vocal appelé Holly + aux côtés d'un système qui lui a donné une rémunération équitable.
Quel que soit votre camp, le problème reste le même. Il n'y a pas de loi spécifique sur le droit d'auteur qui stipule que vous devez obtenir l'autorisation de l'artiste avant d'utiliser sa voix. Jusque-là, les artistes peuvent se retrouver dans le Far West de la technologie de l'IA, sans aucune loi pour les guider.
3. Qui est payé?
Est-il acceptable de gagner de l'argent avec la musique en utilisant la voix de quelqu'un? C'est une question épineuse qui pourrait devenir un problème plus important à mesure que de plus en plus de musique deepfake est publiée sur des plateformes de streaming et monétisée sur des plateformes de médias sociaux.
Comme nous le savons tous, il n'y a rien de mal à chanter une reprise d'une chanson célèbre et à la publier sur YouTube ou Spotify, et dans ce cas, des choses comme les paroles, la structure de la chanson, la mélodie, le rythme, etc. sont copiés. Mais les clones vocaux sont assez différents, et la musique deepfake ne consiste pas exactement à riffer une chanson existante, mais à créer une toute nouvelle chanson en utilisant la voix de quelqu'un d'autre.
Autrement dit, les clones vocaux n'existeraient pas sans les outils d'IA et les ensembles de données non autorisés. Les artistes passent leur vie à perfectionner la voix avec laquelle ils sont nés et à créer un son unique. Voler la voix de quelqu'un et en tirer de l'argent pourrait être un pas trop loin.
4. Un genre de zone grise
Pour compliquer les choses, certaines personnes pourraient ne pas considérer la musique deepfake comme entièrement mauvaise. Contrairement aux images ou aux vidéos deepfake dont vous pourriez rire brièvement avant de défiler sur votre téléphone, la musique deepfake se transforme en un genre à part entière.
Certaines personnes la comparent à l'idée d'écrire des fanfictions, une façon amusante et créative de rendre hommage à un artiste. C'est une vision plus positive qui rend difficile d'exclure la musique deepfake comme un simple tabou. Jetez simplement un coup d'œil à l'approche de Holly Herndon en matière de clonage de voix par IA dans la vidéo ci-dessous.
Bien que tout le monde ne soit pas d'accord sur le fait que ce type de musique devrait être autorisé. Comme Le Financial Times écrit, le principal label d'enregistrement, Universal Music Group, visait à supprimer les chansons de qualité inférieure des plateformes de streaming, y compris celles créées par AI. À terme, les plateformes de streaming comme Spotify, Apple Music ou Tidal devront décider si ce genre de musique est autorisé sur leur plateforme.
La musique Deepfake suscite des débats similaires qui ont déjà lieu dans le monde de l'art: l'art généré par l'IA devrait-il être considéré comme de l'art? Seulement maintenant, nous remettons en question la musique AI.
5. Préoccupations éthiques autour de la race et de l'identité
L'ère de la musique deepfake a débuté avec beaucoup de musique qui imite la musique rap. Les racines historiques du genre remontant à la jeunesse afro-américaine grandissant dans le Bronx, à New York, au début des années 1970, certaines personnes s'inquiètent de la race et de l'identité dans la musique IA.
Écrivain Laurence Chanel, est une personne qui trouve que la musique deepfake est un problème sérieux. Comme cité dans un article du New York Times, ils expliquent :
«C'est une autre façon pour les personnes qui ne sont pas noires de revêtir le costume d'une personne noire – de lever la main sur Kanye ou Drake et d'en faire une marionnette – et c'est alarmant pour moi. "Ce n'est qu'un autre exemple dans une longue lignée de personnes sous-estimant ce qu'il faut pour créer le type d'art que, historiquement, les Noirs faire."
Ce n'est pas la première fois que la musique créée avec des outils d'intelligence artificielle n'est pas éthique. Comme rapporté dans le magazine Rolling Stone, un rappeur avatar virtuel nommé FN Meka a été signé sur un label, puis rapidement abandonné lorsqu'il est en ligne civil le groupe de défense des droits Industry Blackout a écrit que le projet perpétuait des "stéréotypes grossiers" sur Back culture.
Au contraire, la musique deepfake nous rappelle que les outils d'IA ne peuvent être séparés de l'histoire de la création musicale, et ignorer cela ajoute à les dangers des deepfakes d'IA.
6. Faire du mal aux artistes
Une chose à ne pas négliger est l'impact émotionnel qu'une chanson deepfake pourrait avoir sur l'artiste, en particulier lorsqu'un clone de voix peut chanter des situations qui ne se sont jamais produites, exprimer des émotions qui ne sont pas les siennes et faire semblant de se soucier de choses qui pourraient ne pas l'être.
Dans le cas de la fausse chanson de Drake ft. The Weeknd, les paroles comprenaient des lignes sur Selena Gomez qui sortait avec The Weeknd. Utilisant un mélange de faits réels et de paroles inventées, c'était une distorsion étrange de la réalité qui pouvait être préjudiciable à l'artiste qui vivait l'expérience réelle.
De la même manière, produire des paroles générées par l'IA "à la manière de" quelqu'un de célèbre utilisant des générateurs de texte IA a conduit certains artistes au désespoir face à l'utilisation de la technologie IA. Comme le dit Nick Cave, "Ce qu'est ChatGPT, dans ce cas, est une réplication en tant que parodie."
La musique Deepfake est capable de mettre dans la bouche de l'artiste des mots qu'il n'a jamais prononcés, ou dans ce cas, chantés. Sur le plan personnel, cela peut être préjudiciable à l'artiste qui a peu de contrôle sur la suppression du contenu, sans porter la bataille devant les tribunaux.
Se préparer aux changements de l'industrie de la musique
Grâce à l'accès croissant aux outils d'intelligence artificielle, la musique est entrée dans le monde des deepfakes, notamment grâce aux clones de voix. Faire la différence entre une voix IA et une voix humaine simplement en écoutant est extrêmement difficile, ce qui permet à une chanson deepfake d'atteindre facilement les plateformes de streaming avant d'être supprimée.
D'une part, les fans pourraient apprécier la musique deepfake et un genre valable pourrait émerger qui utilise des voix célèbres pour créer une musique nouvelle et intéressante. Mais tous les artistes ne sont pas d'accord pour que leur voix soit clonée, et aucune loi n'empêche les gens de créer des ensembles de données non autorisés.
Obtenir le consentement, indemniser les artistes et examiner les problèmes éthiques ne sont que quelques-uns des problèmes auxquels sont confrontés les artistes et l'industrie de la musique. Avec le développement rapide de la technologie de l'IA, il vaut la peine de faire une pause pour réfléchir aux problèmes qu'ils ont créés.