Le 12 mars 2025, un affrontement majeur s’est amorcé au Tribunal judiciaire de Paris. Les syndicats français de l’édition et de la défense des droits d’auteur, à savoir le Syndicat national de l'édition (SNE), la Société des gens de lettres (SGDL) et le Syndicat national des auteurs et des compositeurs (SNAC) – intentent une action contre Meta pour contrefaçon de droit d’auteur et parasitisme.
En cause, l’entraînement de son IA « Llama » avec une base de données de près de 200 000 livres, incluant des œuvres d’auteurs français n’ayant pas donné leur autorisation. Meta n’en est pas à son coup d’essai, ayant déjà été poursuivi aux États-Unis en 2024 pour des faits similaires, où l'entreprise invoquait l’exception du fair use, une notion qui n’a pas d’équivalent en droit français.
Ces affaires s’inscrivent dans un contexte juridique et technologique en plein bouleversement. En effet, l’essor fulgurant de l’Intelligence Artificielle (IA) soulève des interrogations cruciales sur l’exploitation d’œuvres protégées par le droit d’auteur. Selon la législation française, toute reproduction non autorisée est considérée comme une contrefaçon, passible de sanctions civiles et pénales (articles L.122-4 et L.335-2 du Code de la propriété intellectuelle).
Or, l’opacité des bases de données utilisées par les systèmes d’IA pour générer leurs textes pose une problématique importante. En effet, les données utilisées peuvent inclure des œuvres protégées par le droit d’auteur, et leur utilisation pour générer un texte constitue une contrefaçon en l’absence d’autorisation des auteurs. Récemment, le phénomène du Ghibli Effecta illustré cette même problématique, concernant les bases de données utilisées pour entraîner les IA dans la génération d'images.
Cette exploitation des œuvres par les IA sans autorisation risque de nuire gravement aux industries culturelles, en dévalorisant le travail des auteurs et en les privant de rémunération, tout en permettant aux systèmes d’IA d'exploiter les œuvres sans respecter les règles de la propriété intellectuelle.
Ce problème est d'autant plus préoccupant que la concurrence entre auteurs humains et IA semble s'intensifier : Sam Altman, cofondateur d’OpenAI, a récemment vanté sur son compte Xles prouesses littéraires d’un nouveau modèle d’IA en affirmant que « c'est la première fois que je suis vraiment frappé par quelque chose écrit par l'IA ».
De son côté, Hervé Le Tellier, lauréat du prix Goncourt en 2020, qui s’est mesuré à ChatGPT à l’initiative du Nouvel Obs, a lui-même reconnu que le résultat produit par l’IA était « bluffant ». Ces exemples illustrent non seulement l'amélioration rapide des capacités créatives des IA, mais aussi la manière dont elles peuvent progressivement rivaliser avec les auteurs humains, au risque de bouleverser profondément le secteur artistique.
L’utilisation des œuvres protégées par le droit d’auteur pour l’entraînement des IA soulève des enjeux complexes tant en Europe qu’aux États-Unis, avec des cadres juridiques distincts mais confrontés à des problématiques similaires.
En Europe, la directive de 2019 sur le droit d’auteur dans le marché unique numérique a introduit une exception spécifique pour le text and data mining (TDM). Celle-ci permet l’analyse automatisée de données, à condition que les titulaires de droits n’opposent pas leur refus (opt out).
Si Thierry Breton, commissaire européen, a récemment affirmé que ces exceptions sont « pertinentes dans le contexte de l’IA » en ce qu’elles « assurent un équilibre entre deux éléments : protéger les titulaires de droits, notamment les artistes, et faciliter l’exploration de textes et de données, notamment par les développeurs d’IA », celles-ci demeurent floues et controversées, notamment concernant l’existence d’une éventuelle compensation financière pour les créateurs.
De plus, l’application de cette exception est soumise au test des trois étapes, instauré par la directive DADVSI de 2001 qui impose : un usage limité, l’absence d’atteinte à l’exploitation normale de l’œuvre, et l’absence de préjudice injustifié aux intérêts légitimes des titulaires de droits.
Or, de nombreuses bases de données utilisées pour l’entraînement des IA contiennent des contenus piratés, et une majorité de titulaires de droits ont exercé leur opt-out. En conséquence, même si l’exception de TDM était jugée applicable à l’entraînement, elle échouerait souvent au test des trois étapes.
Les débats en Europe résonnent particulièrement aux États-Unis, où les litiges autour de l’entraînement des IA se multiplient. La célèbre affaire Thomson Reuters contre Ross Intelligence tranchée par le juge Bibas, a conclu que l’utilisation de la base de données Westlaw par Ross Intelligence constituait une contrefaçon en raison de l’absence d’usage transformatif.
En 2023, cette dynamique contentieuse s’est encore intensifiée avec la plainte déposée par le New York Times contre OpenAI et Microsoft, accusés d’avoir utilisé des millions d’articles sans autorisation préalable ni rémunération des auteurs pour entraîner l’IA ChatGPT.
Dans un rapport publié en 2023, le Tribunal judiciaire de Paris a révélé que 39,80 % des litiges concernaient la propriété littéraire et artistique. Cette situation pourrait en grande partie être expliquée par le développement rapide des nouvelles technologies, dont l'IA.
Toutefois, la question de l'IA et de la culture n'est pas uniquement un enjeu français, mais une problématique mondiale, touchant à la souveraineté culturelle et à la manière dont les sociétés envisagent leur avenir à travers la régulation de ces technologies. En effet, la concurrence normative est forte : celui qui impose un modèle technologique influencera inévitablement la société et ses valeurs culturelles. Dans ce contexte, la transparence est devenue un enjeu central, d’autant plus que l’Union européenne a adopté le AI Act en 2024 pour répondre à ces défis.
L’adoption de l’AI Act par l’Union européenne représente une avancée majeure dans la régulation des systèmes d’intelligence artificielle, notamment en matière de transparence et de protection des droits d’auteur. Ce règlement impose aux développeurs d’IA de fournir un « résumé suffisamment détaillé » des bases de données utilisées pour l’entraînement de leurs systèmes d’IA. L’objectif est de garantir une traçabilité plus précise des contenus culturels et intellectuels employés par ces technologies. Toutefois, cette initiative se heurte à une forte opposition de certains acteurs économiques, qui invoquent le secret des affaires.
Dans le rapport du CSPLA de décembre 2024, Alexandra Bensamoun préconise une interprétation ambitieuse de cette obligation de transparence, afin de concilier la nécessité de protéger les droits d’auteur des titulaires tout en préservant le secret des affaires.
Le rapport, visant à garantir l’effet utile de cette obligation de transparence, précise que l’objectif est de rendre publiques les « ingrédients », c’est-à-dire les données ou sources d’entraînement utilisées, tout en préservant la confidentialité des « recettes », lesquelles demeurent protégées par le secret des affaires.
A cet égard, la Cour de cassation a récemment jugé que le secret des affaires ne doit pas faire obstacle au droit d’accès à la preuve, soulignant que l'absence de preuves ne pouvait empêcher un titulaire de droits d'exercer ses droits fondamentaux, en particulier en matière de propriété intellectuelle.
Bien que la transparence ait suscité de vives oppositions, elle est désormais perçue comme un élément clé pour appliquer les exceptions déjà introduites par la directive de 2019. Cette transparence est essentielle pour rendre l’exception de TDM applicable. L'opt-out devrait ainsi pouvoir s'appliquer de manière plus systématique, mais son effectivité reste un point de préoccupation majeur.
Le règlement cherche ainsi à concilier la protection des droits d'auteur avec l'encouragement de l'innovation, en garantissant un marché unique favorable au développement harmonieux des technologies de l'IA.
L’AI Act adopte une approche par les risques pour la régulation des Systèmes d'Intelligence Artificielle (SIA). Les risques sont classifiés en quatre niveaux distincts, avec des obligations de transparence qui varient en fonction de l’intensité des risques :
Ainsi, la transparence devient non seulement une question d'éthique et de respect des droits d'auteur, mais aussi un instrument central pour structurer la régulation des IA et répondre aux défis qu’elles posent à l’échelle mondiale.
Le mécanisme d'opt-out instauré par la directive de 2019 est-il réellement efficace ? En effet, si la SGDL a manifesté publiquement qu’elle activait son « droit d’opposition à l’utilisation par des acteurs de l’IA des livres protégés par le droit d’auteur » ; cela ne l’a pas empêché de dénoncer l’entraînement de l’IA Llama sur ces œuvres et d’assigner Meta en justice.
Dès lors, face aux difficultés rencontrées avec l’opt out, la question du passage à l’opt in pourrait émerger. Ce mécanisme prévoit que sans une autorisation préalable expresse de l’auteur, l’utilisation de ses œuvres est impossible. Contrairement à l'opt-out, l'opt-in offrirait une protection plus forte aux titulaires de droits, leur permettant non seulement de contrôler l’usage de leurs œuvres, mais aussi de négocier leur rémunération. Il garantirait ainsi que les auteurs soient seuls décisionnaires de l’utilisation de leurs œuvres pour l’entraînement des IA, permettant de restaurer leurs droits exclusifs et de lutter contre l’opacité des systèmes d’IA.
Cependant, il est essentiel de nuancer cette proposition : En pratique, revendiquer un opt-in obligatoire semble difficile, face à l’influence des puissants lobbys et aux courants de dérégulation actuels, notamment aux États-Unis.
Aux États-Unis, le copyright est souvent perçu comme un frein au développement numérique, ce qui explique pourquoi, en 2024, 13 500 artistes se sont mobilisés via une pétition contre l'utilisation de leurs œuvres pour entraîner les IA, à la suite de nombreuses violations de droits d'auteur. De même, en mars 2025, près de 400 personnalités d’Hollywood ont signé une nouvelle pétition pour s'opposer à l’utilisation de leurs œuvres cinématographiques dans les données d’entraînement des IA.
En France, l’entreprise française Mistral AI, malgré son soutien financier et politique, refuse de discuter de l’utilisation des œuvres. Cette situation illustre la difficulté de négocier avec des acteurs économiques puissants qui privilégient leurs intérêts commerciaux.
Au niveau européen, Alexandra Bensamoun estime que leCode of Practice, qui aura pour objectif de détailler les règles imposées par l’AI Act aux fournisseurs de modèles d’IA, reste insuffisant concernant les obligations imposées aux IA génératives, par rapport aux attentes initiales. De même, une coalition d’auteurs européens s’est récemment opposée pour les mêmes motifs, au troisième projet de ce Code of Practice.
De même, le modèle de transparence (« template ») rédigé par le Bureau de l'IA (instance créée au sein de la Commission européenne « en tant que centre d’expertise en matière d’IA ») pour fournir un résumé détaillé des bases de données, semble être d’une efficacité limitée. Défendre les principes de transparence et de respect de la propriété intellectuelle à Bruxelles reste ainsi crucial.
De même, les entreprises technologiques américaines, soutenues par des lobbys influents, font également pression pour étendre le fair use et limiter les contraintes réglementaires en Europe, cherchant ainsi à imposer d’autres standards que les nôtres dans un bras de fer géopolitique inédit.
La stratégie d’évitement et le sentiment d’impunité des entreprises d’IA, tant américaines qu’européennes, compliquent ainsi, la mise en œuvre de l’opt in et fragilisent les efforts de protection des droits d’auteur. La loi du marché veut faire la loi…
En conclusion, bien que l'opt-in constitue un fondement essentiel pour une IA éthique respectueuse du droit d'auteur, sa mise en œuvre se heurte à des obstacles majeurs. La pression des lobbys et la dérégulation américaine rendent difficile la réalisation d’une telle protection. Il est donc crucial de faire preuve de pragmatisme et de renforcer la transparence, en introduisant des mécanismes clairs et acceptables pour les opérateurs économiques.
De plus, des dispositifs de répartition de la valeur entre les entreprises d’IA et les sociétés d’auteurs doivent être mis en place pour garantir une rémunération juste des créateurs. Aussi, la coexistence des deux modèles est possible, comme en témoigne le partenariat récent entre Le Monde et OpenAI dans le secteur de la presse.
L’AI Act vise à soutenir l'innovation par l'IA tout en assurant une juste rémunération pour la créativité. L'objectif n'est pas de freiner l'IA ou d'entraver son développement, mais d'établir un cadre éthique et compétitif, car en négligeant une partie de la chaîne de valeur, on ne crée pas un marché durable.
Dans cette optique, les propositions travaillées par le CSPLA pour le droit d’auteur face à l’IA incluent la transparence (avec le modèle de résumé détaillé du rapport de décembre 2024), la rémunération (projet en cours), ainsi que des sujets futurs tels que la territorialité, la politique de transparence en aval (notamment concernant les falsifications) et les limites de la protection. L'objectif pour assurer une réelle efficacité serait de mettre en place des dispositifs qui renforcent la responsabilité en aval, tout en encadrant les obligations des IA à travers les règlements et les directives. En cas d'inversion de la charge de la preuve, les outils d'IA devront démontrer leur transparence, faute de quoi leur utilisation des œuvres sera présumée illégale.
La décision du Tribunal judiciaire de Paris dans cette affaire sans précédent opposant Meta aux principaux syndicats des auteurs français, marquera un tournant pour l'interprétation des questions de protection du droit d’auteur en Europe, particulièrement à l'aune de l'entrée en vigueur du Ai Act. Elle influencera non seulement le marché européen, mais également les pratiques des grandes entreprises technologiques à l’échelle mondiale.
Chez Altij & Oratio Avocats,nous comprenons les défis complexes auxquels sont confrontés les auteurs, éditeurs et créateurs face à l'utilisation des œuvres protégées par les IA. Notre équipe d'experts vous accompagne pour vous assurer que vos créations sont protégées et que votre utilisation des données pour entraîner des IA est conforme aux normes de droit d'auteur, comme illustré par l'affaire Meta contre les syndicats français des auteurs.
Pour en savoir plus sur nos services et comment nous vous aidons à protéger vos droits face aux défis de l’IA, contactez-nous dès aujourd’hui.