Une bataille royale se prépare sur le droit d’auteur et l’IA

Cconsidérer deux approches dans l’industrie de la musique à l’intelligence artificielle (IA). L’une est celle de Giles Martin, fils de Sir George Martin, producteur des Beatles. L’année dernière, pour remixer l’album « Revolver » des Fab Four de 1966, il a utilisé IA apprendre le son des instruments de chaque membre du groupe (par exemple, la guitare de John Lennon) à partir d’une bande maîtresse mono afin qu’il puisse les séparer et les inverser en stéréo. Le résultat est glorieux. L’autre approche n’est pas mal non plus. C’est la réponse de Nick Cave, un auteur-compositeur-interprète australien de mauvaise humeur, lors de la révision des paroles écrites dans son style par ChatGoogle Tagun IA outil développé par une startup appelée OpenIA. « Cette chanson est nulle », a-t-il écrit. « Écrire une bonne chanson n’est pas du mimétisme, ni de la réplique, ni du pastiche, c’est le contraire. C’est un acte d’auto-meurtre qui détruit tout ce que l’on s’est efforcé de produire dans le passé.

Il est peu probable que M. Cave soit impressionné par la dernière version de l’algorithme derrière ChatGoogle Tagsurnommé Google Tag-4, qui ouvreIA dévoilé le 14 mars. M. Martin pourrait le trouver utile. Michael Nash, directeur numérique d’Universal Music Group, le plus grand label du monde, cite leurs exemples comme preuve à la fois de l’excitation et de la peur face au IA derrière des applications de création de contenu comme ChatGoogle Tag (pour le texte) ou Stable Diffusion (pour les images). Cela pourrait aider le processus de création. Il pourrait aussi le détruire ou l’usurper. Pourtant, pour la musique enregistrée au sens large, l’arrivée des robots rappelle un événement sismique de son histoire : l’ascension et la chute rapides de Napster, une plateforme de partage de chansons principalement piratées au tournant du millénaire. Napster a finalement été renversé par la loi sur le droit d’auteur. Pour les fournisseurs de robots agressifs accusés de fouler aux pieds la propriété intellectuelle (IP), M. Nash a un message simple qui sonne, de la part d’un vétéran de l’industrie musicale de l’ère Napster, comme une menace. « Ne vous déployez pas sur le marché et ne demandez pas pardon. C’est l’approche de Napster.

Le principal problème ici n’est pas IA– fait des parodies de Mr Cave ou des faux sonnets shakespeariens. Ce sont les océans de données protégées par le droit d’auteur que les bots ont siphonnées tout en étant entraînés à créer du contenu de type humain. Ces informations viennent de partout : flux de médias sociaux, recherches sur Internet, bibliothèques numériques, télévision, radio, banques de statistiques, etc. Souvent, dit-on, IA les modèles pillent les bases de données sans autorisation. Les responsables du matériel source se plaignent que leur travail est aspiré sans consentement, crédit ou compensation. Bref, certains IA plates-formes peut faire avec d’autres médias ce que Napster a fait avec des chansons, en ignorant complètement le droit d’auteur. Les procès ont commencé à voler.

C’est un champ de mines juridique avec des implications qui s’étendent au-delà des industries créatives à toute entreprise où l’apprentissage automatique joue un rôle, comme les voitures autonomes, les diagnostics médicaux, la robotique d’usine et la gestion des risques d’assurance. L’Union européenne, fidèle à la forme bureaucratique, a une directive sur le droit d’auteur qui fait référence à l’exploration de données (écrite avant le récent boom des bots). Les experts disent que l’Amérique manque d’antécédents spécifiques à la génération IA. Au lieu de cela, il a des théories concurrentes sur la question de savoir si l’exploration de données sans licence est autorisée ou non en vertu de la doctrine de «l’utilisation équitable». Napster a également tenté de déployer «l’utilisation équitable» comme moyen de défense en Amérique – et a échoué. Cela ne veut pas dire que le résultat sera le même cette fois.

Les principaux arguments autour du « fair use » sont fascinants. Pour emprunter à une masterclass sur le sujet par Mark Lemley et Bryan Casey dans le Examen de la loi du Texas, une revue, l’utilisation d’œuvres protégées par le droit d’auteur est considérée comme équitable lorsqu’elle sert un objectif social précieux, que le matériel source est transformé à partir de l’original et qu’il n’affecte pas le marché principal des titulaires du droit d’auteur. Les critiques soutiennent que IAs ne transforment pas mais exploitent l’intégralité des bases de données qu’ils minent. Ils affirment que les entreprises à l’origine de l’apprentissage automatique abusent de l’utilisation équitable pour « gratuiter » le travail des individus. Et ils soutiennent que cela menace les moyens de subsistance des créateurs, ainsi que la société dans son ensemble si le IA favorise la surveillance de masse et la diffusion de fausses informations. Les auteurs mettent ces arguments en balance avec le fait que plus il y a d’accès aux ensembles de formation, mieux c’est. IA sera, et que sans un tel accès, il n’y aura peut-être pas IA du tout. En d’autres termes, l’industrie pourrait mourir à ses débuts. Ils la décrivent comme l’une des questions juridiques les plus importantes du siècle : « La loi sur le droit d’auteur permettra-t-elle aux robots d’apprendre ? »

Un premier procès attirant l’attention est celui de Getty Images. L’agence de photographie accuse la Stabilité IApropriétaire de Stable Diffusion, d’enfreindre ses droits d’auteur sur des millions de photos de sa collection afin de créer une image génératrice IA modèle qui viendra concurrencer Getty. À condition que l’affaire ne soit pas réglée à l’amiable, cela pourrait créer un précédent en matière d’utilisation équitable. Un verdict encore plus important pourrait bientôt être rendu par la Cour suprême des États-Unis dans une affaire impliquant la transformation d’images protégées par le droit d’auteur de Prince, une idole de la pop, par feu Andy Warhol, un artiste. Daniel Gervais, un IP expert à la Vanderbilt Law School de Nashville, estime que les juges pourraient fournir des conseils tant attendus sur l’utilisation équitable en général.

Le grattage des données protégées par le droit d’auteur n’est pas le seul problème juridique générateur IA visages. Dans de nombreuses juridictions, le droit d’auteur ne s’applique qu’aux œuvres créées par des humains, d’où la mesure dans laquelle les bots peuvent revendiquer IP la protection des éléments qu’ils génèrent est une autre zone grise. En dehors des salles d’audience, les plus grandes questions seront politiques, y compris si oui ou non générative IA devrait bénéficier des mêmes protections en matière de responsabilité pour le contenu qu’il affiche que les plateformes de médias sociaux, et dans quelle mesure il compromet la confidentialité des données.

Le droit d’auteur est sur le mur

Pourtant le IP la bataille sera grande. M. Nash déclare que les industries créatives devraient rapidement prendre position pour garantir que la production des artistes est autorisée et utilisée de manière éthique dans la formation IA des modèles. Il exhorte IA les entreprises à « documenter et divulguer » leurs sources. Mais, reconnaît-il, c’est un équilibre délicat. Les types créatifs ne veulent pas ressembler à des ennemis du progrès. Beaucoup peuvent bénéficier de IA dans leur travail. La leçon de la « thérapie de la réalité » de Napster, comme l’appelle M. Nash, est qu’il vaut mieux s’engager avec les nouvelles technologies que d’espérer qu’elles disparaissent. Peut-être que cette fois, il ne faudra pas 15 ans de revenus en ruine pour l’apprendre.

En savoir plus sur Schumpeter, notre chroniqueur sur le commerce mondial :
Comment arrêter la banalisation du transport par conteneurs (9 mars)
Leçons de Novo Nordisk sur la ruée vers les médicaments contre l’obésité (2 mars)
Il est temps pour Alphabet de se séparer de YouTube (23 février)

Pour rester au courant des plus grandes histoires du monde des affaires et de la technologie, inscrivez-vous à Bottom Line, notre newsletter hebdomadaire réservée aux abonnés.

Laisser un message

Your email address will not be published.