La responsabilité des violations des droits d’auteur basées sue l’IA incombe principalement aux plateformes
Robert Kyncl (PDG de Warner Music Group)
Cette année, alors que la technologie de l’IA a explosé, un développement particulièrement alarmant pour les détenteurs de droits musicaux a été l’arrivée de morceaux générés par l’IA qui imitent la voix et le style d’artistes professionnels, le « faux morceau de Drake » devenu viral ce printemps étant peut – être l’exemple le plus évident.
Selon Kyncl, il existe trois acteurs clés pour résoudre ce problème : le gouvernement, avec sa capacité à adopter des lois ; les « plateformes de consommation » où sont distribuées ces pistes ; et développeurs de moteurs d’IA générative.
La réglementation gouvernementale « prend toujours du temps » et les développeurs d’IA sont dans une course pour développer leurs technologies avant la concurrence, a déclaré Kyncl, donc au moins pour l’instant, « je pense que la responsabilité première… incombe aux plateformes de consommation… en particulier la consommation ouverte où le contenu finira.
Par « plateformes ouvertes », Kyncl faisait référence aux plateformes sur lesquelles tout le monde peut télécharger du contenu, telles que YouTube et TikTok. Lorsqu’une personne crée un nouveau contenu avec un outil tiers, « elle voudra obtenir des vues ou des flux quelque part et elle se tournera vers de grandes plateformes. Je me concentre donc avant tout sur… les plateformes, pour m’assurer qu’elles disposent de pratiques qui nous aident à protéger les choix des artistes, et qu’elles disposent de la bonne attribution et du bon cadre de monétisation.
Kyncl a comparé la situation actuelle de l’IA à celle du contenu généré par l’utilisateur (UGC) il y a 15 ou 20 ans, lorsque YouTube commençait à devenir un phénomène culturel.
Il s’agit d’un extrait d’une entrevue plus complète qui aborde également d’autres sujets , en anglais, par DANIEL TENCER pour MBW : https://tinyurl.com/37raub2j