OpenAI en infraction
Une première victoire pour la protection de la création musicale?
La GEMA, société allemande de gestion des droits d’auteur pour la musique (l'équivalent de notre SABAM en Belgique) avait lancé une action judiciaire, qui a été jugée tout récemment par le tribunal de Munich. Le procès portait précisément sur neuf chansons allemandes très connues et leur utilisation dans les modèles linguistiques utilisés par OpenAI (comme ChatGPT).
Le tribunal a estimé que la reproduction des textes de ces chansons dans certaines réponses du chatbot constituaient des “atteintes aux droits d’exploitation” car ces textes étaient protégés par le droit d’auteur.
Très concrètement, le tribunal a estimé que même si OpenAI déclare qu’il ne “stocke” pas textuellement les paroles, le simple fait que le modèle “les ait apprises” peut constituer une violation. La responsabilité ne repose donc pas uniquement sur les utilisateurs qui demandent au chatbot de donner des paroles: OpenAI, en tant qu’opérateur du modèle, porte une responsabilité du fait que les réponses sont “largement influencées” par ses modèles linguistiques et l'apprentissage par ces modèles des datas issues, dans ce cas précis, des textes des chansons en litige.
Le jugement ordonne ainsi à OpenAI de cesser d'utiliser ces textes, de verser des dommages et intérêts, et de fournir des informations sur l’utilisation des chansons (par exemple concernant les revenus potentiellement générés).
OpenAI, en désaccord avec la décision, a indiqué que la société étudiait “les prochaines démarches possibles”, il y aura donc probablement des appels en justice.
Pour la GEMA, cette décision envoie un “message clair” à l’industrie technologique: les œuvres créatives humaines ne sont pas des ressources gratuites pour entraîner l’IA. Et cette décision pourrait ainsi apporter une piste de sécurité juridique aux créateurs, éditeurs musicaux et plateformes dans toute l’Europe, en servant de jurisprudence.
Cette affaire entre bien évidemment dans un débat plus vaste sur la régulation de l’IA en Europe, notamment sur la façon dont les données utilisées pour entraîner les modèles doivent être gérées et compensées financièrement quand elles impliquent du contenu protégé.