FR EN

Toute l'actualité du social

20.02.2025 16:13

IA au travail : obligation de consultation du CSE

Intelligence artificielle au travail : obligation de consultation du CSE avant le déploiement de...


Cat: Droit des sociétés , Les actualités d'ALTIJ, Droit des Technologies Avancées, Droit Social, Restructurations et plans sociaux , Veille Juridique
23.10.2024 21:26

Questionner la conformité RGPD de son SIRH

Votre SIRH respecte-t-il les obligations du règlement général sur la protection des données ?


Cat: Données - Bases de données – RGPD / DPO - Big Data et intelligence artificielle, Droit Social, Les essentiels, Veille Juridique
22.03.2024 10:34

DEEP FAKES PORNOGRAPHIQUES : Que dit la loi ?

La diffusion de deepfakes pornographiques mettant en scène la chanteuse Taylor Swift à la fin du...


Cat: Droit de la Propriété Intellectuelle, Droit des Technologies Avancées, Droit Social, Veille Juridique
12.02.2024 16:49

Congés payés : Les règles d’acquisition ont changé !

Le Conseil constitutionnel s’est prononcé à son tour (2/2)


Cat: Droit Social, Contentieux prud'homal et licenciements , Droit pénal du travail , Hygiène, Santé et sécurité , Relations individuelles et contrat de travail, Les essentiels, Veille Juridique
10.01.2024 14:55

Droit social : Attention à la rédaction de l’avis d’inaptitude !

A la suite d’un avis d’inaptitude d’un salarié, l’employeur est dispensé de toute recherche de...


Cat: Droit Social, Contentieux prud'homal et licenciements , Hygiène, Santé et sécurité , Relations individuelles et contrat de travail, Veille Juridique
10.01.2024 10:39

Proposition d’un CDI à l’issue d’un CDD : une nouvelle formalité incombe aux employeurs

Depuis le 1er janvier 2024, une nouvelle procédure est en vigueur pour les employeurs souhaitant...


Cat: Droit Social, Contentieux prud'homal et licenciements , Droit pénal du travail , Gestion des départs négociés , Relations individuelles et contrat de travail, Veille Juridique
26.12.2023 16:23

Droit à la preuve face à la protection des données personnelles : peut-on tout utiliser comme moyen de preuve ?

Épisode 3 : La recherche de la vérité au prisme de la déloyauté de la preuve (3/3)


Cat: Droit Social, Contentieux prud'homal et licenciements , Droit pénal du travail , Relations individuelles et contrat de travail, Veille Juridique
voir les archives ->
< La facturation électronique : êtes-vous prêt pour 2026 ?
03.04.2025 11:45 Il y a: 1 day
Categorie: Données - Bases de données – RGPD / DPO - Big Data et intelligence artificielle, Droit de la Propriété Intellectuelle, Recours collectifs, Veille Juridique
Auteur : France Charruyer

L’IA face aux droits d’auteur : Meta attaqué par les syndicats français de l’édition


L’IA face aux droits d’auteur : Meta attaqué par les syndicats français de l’édition

Le 12 mars 2025, un affrontement majeur s’est amorcé au Tribunal judiciaire de Paris. Les syndicats français de l’édition et de la défense des droits d’auteur, à savoir le Syndicat national de l'édition (SNE), la Société des gens de lettres (SGDL) et le Syndicat national des auteurs et des compositeurs (SNAC) – intentent une action contre Meta pour contrefaçon de droit d’auteur et parasitisme.

 

En cause, l’entraînement de son IA « Llama » avec une base de données de près de 200 000 livres, incluant des œuvres d’auteurs français n’ayant pas donné leur autorisation. Meta n’en est pas à son coup d’essai, ayant déjà été poursuivi aux États-Unis en 2024 pour des faits similaires, où l'entreprise invoquait l’exception du fair use, une notion qui n’a pas d’équivalent en droit français.

 

L'impact juridique de l'IA sur le droit d'auteur
 

Ces affaires s’inscrivent dans un contexte juridique et technologique en plein bouleversement. En effet, l’essor fulgurant de l’Intelligence Artificielle (IA) soulève des interrogations cruciales sur l’exploitation d’œuvres protégées par le droit d’auteur. Selon la législation française, toute reproduction non autorisée est considérée comme une contrefaçon, passible de sanctions civiles et pénales (articles L.122-4 et L.335-2 du Code de la propriété intellectuelle).

 

Or, l’opacité des bases de données utilisées par les systèmes d’IA pour générer leurs textes pose une problématique importante. En effet, les données utilisées peuvent inclure des œuvres protégées par le droit d’auteur, et leur utilisation pour générer un texte constitue une contrefaçon en l’absence d’autorisation des auteurs. Récemment, le phénomène du Ghibli Effecta illustré cette même problématique, concernant les bases de données utilisées pour entraîner les IA dans la génération d'images. 

 

Une concurrence croissante entre IA et auteurs humains

 

Cette exploitation des œuvres par les IA sans autorisation risque de nuire gravement aux industries culturelles, en dévalorisant le travail des auteurs et en les privant de rémunération, tout en permettant aux systèmes d’IA d'exploiter les œuvres sans respecter les règles de la propriété intellectuelle.

 

Ce problème est d'autant plus préoccupant que la concurrence entre auteurs humains et IA semble s'intensifier : Sam Altman, cofondateur d’OpenAI, a récemment vanté sur son compte Xles prouesses littéraires d’un nouveau modèle d’IA en affirmant que « c'est la première fois que je suis vraiment frappé par quelque chose écrit par l'IA ».

 

De son côté, Hervé Le Tellier, lauréat du prix Goncourt en 2020, qui s’est mesuré à ChatGPT à l’initiative du Nouvel Obs, a lui-même reconnu que le résultat produit par l’IA était « bluffant ». Ces exemples illustrent non seulement l'amélioration rapide des capacités créatives des IA, mais aussi la manière dont elles peuvent progressivement rivaliser avec les auteurs humains, au risque de bouleverser profondément le secteur artistique.

 

Bataille juridique mondiale : La Propriété Intellectuelle et la transparence face aux entraînements des IA Génératives

 

L’utilisation des œuvres protégées par le droit d’auteur pour l’entraînement des IA soulève des enjeux complexes tant en Europe qu’aux États-Unis, avec des cadres juridiques distincts mais confrontés à des problématiques similaires.

 

En Europe, la directive de 2019 sur le droit d’auteur dans le marché unique numérique a introduit une exception spécifique pour le text and data mining (TDM). Celle-ci permet l’analyse automatisée de données, à condition que les titulaires de droits n’opposent pas leur refus (opt out). 

Si Thierry Breton, commissaire européen, a récemment affirmé que ces exceptions sont « pertinentes dans le contexte de l’IA » en ce qu’elles « assurent un équilibre entre deux éléments : protéger les titulaires de droits, notamment les artistes, et faciliter l’exploration de textes et de données, notamment par les développeurs d’IA », celles-ci demeurent floues et controversées, notamment concernant l’existence d’une éventuelle compensation financière pour les créateurs.

 

De plus, l’application de cette exception est soumise au test des trois étapes, instauré par la directive DADVSI de 2001 qui impose : un usage limité, l’absence d’atteinte à l’exploitation normale de l’œuvre, et l’absence de préjudice injustifié aux intérêts légitimes des titulaires de droits. 

Or, de nombreuses bases de données utilisées pour l’entraînement des IA contiennent des contenus piratés, et une majorité de titulaires de droits ont exercé leur opt-out. En conséquence, même si l’exception de TDM était jugée applicable à l’entraînement, elle échouerait souvent au test des trois étapes.

 

Les débats en Europe résonnent particulièrement aux États-Unis, où les litiges autour de l’entraînement des IA se multiplient. La célèbre affaire Thomson Reuters contre Ross Intelligence tranchée par le juge Bibas, a conclu que l’utilisation de la base de données Westlaw par Ross Intelligence constituait une contrefaçon en raison de l’absence d’usage transformatif

 

En 2023, cette dynamique contentieuse s’est encore intensifiée avec la plainte déposée par le New York Times contre OpenAI et Microsoft, accusés d’avoir utilisé des millions d’articles sans autorisation préalable ni rémunération des auteurs pour entraîner l’IA ChatGPT.

 

¿Cómo se Llama? se Llama l'obligation de transparence : L'IA à l'épreuve de l’AI ACT

 

Dans un rapport publié en 2023, le Tribunal judiciaire de Paris a révélé que 39,80 % des litiges concernaient la propriété littéraire et artistique. Cette situation pourrait en grande partie être expliquée par le développement rapide des nouvelles technologies, dont l'IA.

 

Toutefois, la question de l'IA et de la culture n'est pas uniquement un enjeu français, mais une problématique mondiale, touchant à la souveraineté culturelle et à la manière dont les sociétés envisagent leur avenir à travers la régulation de ces technologies. En effet, la concurrence normative est forte : celui qui impose un modèle technologique influencera inévitablement la société et ses valeurs culturelles. Dans ce contexte, la transparence est devenue un enjeu central, d’autant plus que l’Union européenne a adopté le AI Act en 2024 pour répondre à ces défis.

 

Une obligation de transparence indispensable

 

L’adoption de l’AI Act par l’Union européenne représente une avancée majeure dans la régulation des systèmes d’intelligence artificielle, notamment en matière de transparence et de protection des droits d’auteur. Ce règlement impose aux développeurs d’IA de fournir un « résumé suffisamment détaillé » des bases de données utilisées pour l’entraînement de leurs systèmes d’IA. L’objectif est de garantir une traçabilité plus précise des contenus culturels et intellectuels employés par ces technologies. Toutefois, cette initiative se heurte à une forte opposition de certains acteurs économiques, qui invoquent le secret des affaires.

 

Dans le rapport du CSPLA de décembre 2024, Alexandra Bensamoun préconise une interprétation ambitieuse de cette obligation de transparence, afin de concilier la nécessité de protéger les droits d’auteur des titulaires tout en préservant le secret des affaires

 

Le rapport, visant à garantir l’effet utile de cette obligation de transparence, précise que l’objectif est de rendre publiques les « ingrédients », c’est-à-dire les données ou sources d’entraînement utilisées, tout en préservant la confidentialité des « recettes », lesquelles demeurent protégées par le secret des affaires.

 

A cet égard, la Cour de cassation a récemment jugé que le secret des affaires ne doit pas faire obstacle au droit d’accès à la preuve, soulignant que l'absence de preuves ne pouvait empêcher un titulaire de droits d'exercer ses droits fondamentaux, en particulier en matière de propriété intellectuelle. 

 

La transparence comme catalyseur des exceptions

 

Bien que la transparence ait suscité de vives oppositions, elle est désormais perçue comme un élément clé pour appliquer les exceptions déjà introduites par la directive de 2019. Cette transparence est essentielle pour rendre l’exception de TDM applicable. L'opt-out devrait ainsi pouvoir s'appliquer de manière plus systématique, mais son effectivité reste un point de préoccupation majeur.

Le règlement cherche ainsi à concilier la protection des droits d'auteur avec l'encouragement de l'innovation, en garantissant un marché unique favorable au développement harmonieux des technologies de l'IA.

 

Une régulation fondée sur les risques

 

L’AI Act adopte une approche par les risques pour la régulation des Systèmes d'Intelligence Artificielle (SIA). Les risques sont classifiés en quatre niveaux distincts, avec des obligations de transparence qui varient en fonction de l’intensité des risques :

 

  • Risques inacceptables : Certains usages sont interdits, notamment les techniques subliminales, le scoring social, la manipulation de personnes vulnérables, ou encore la reconnaissance biométrique en temps réel dans l’espace public pour des fins répressives, sauf exceptions strictes.
  • Haut risque : Usages autorisés, mais soumis à des obligations strictes et des procédures de conformité, notamment pour les applications dans les domaines de la santé, de la sécurité, des droits fondamentaux et dans certains secteurs comme l’éducation, la police ou la justice.
  • Risque modéré : Usages autorisés avec des obligations d’information et de transparence, comme pour les interactions humain-machine, les deep fakes, ou l’analyse des émotions.
  • Risque faible ou nul : Usages autorisés sans restriction, mais sous réserve de respecter des codes de bonne conduite.

 

Ainsi, la transparence devient non seulement une question d'éthique et de respect des droits d'auteur, mais aussi un instrument central pour structurer la régulation des IA et répondre aux défis qu’elles posent à l’échelle mondiale.

 

Opt-Out vs. Opt-In : Défis et perspectives pour la protection des droits d'auteur à l'ère de l'IA

 

Le mécanisme d'opt-out instauré par la directive de 2019 est-il réellement efficace ? En effet, si la SGDL a manifesté publiquement qu’elle activait son « droit d’opposition à l’utilisation par des acteurs de l’IA des livres protégés par le droit d’auteur » ; cela ne l’a pas empêché de dénoncer l’entraînement de l’IA Llama sur ces œuvres et d’assigner Meta en justice.

 

Vers un passage de l'opt-out à l'opt-in ?

 

Dès lors, face aux difficultés rencontrées avec l’opt out, la question du passage à l’opt in pourrait émerger. Ce mécanisme prévoit que sans une autorisation préalable expresse de l’auteur, l’utilisation de ses œuvres est impossible. Contrairement à l'opt-out, l'opt-in offrirait une protection plus forte aux titulaires de droits, leur permettant non seulement de contrôler l’usage de leurs œuvres, mais aussi de négocier leur rémunération. Il garantirait ainsi que les auteurs soient seuls décisionnaires de l’utilisation de leurs œuvres pour l’entraînement des IA, permettant de restaurer leurs droits exclusifs et de lutter contre l’opacité des systèmes d’IA.

Cependant, il est essentiel de nuancer cette proposition : En pratique, revendiquer un opt-in obligatoire semble difficile, face à l’influence des puissants lobbys et aux courants de dérégulation actuels, notamment aux États-Unis. 

 

Une résistance croissante contre l'entraînement des IA sur des œuvres protégées

 

Aux États-Unis, le copyright est souvent perçu comme un frein au développement numérique, ce qui explique pourquoi, en 2024, 13 500 artistes se sont mobilisés via une pétition contre l'utilisation de leurs œuvres pour entraîner les IA, à la suite de nombreuses violations de droits d'auteur. De même, en mars 2025, près de 400 personnalités d’Hollywood ont signé une nouvelle pétition pour s'opposer à l’utilisation de leurs œuvres cinématographiques dans les données d’entraînement des IA. 

En France, l’entreprise française Mistral AI, malgré son soutien financier et politique, refuse de discuter de l’utilisation des œuvres. Cette situation illustre la difficulté de négocier avec des acteurs économiques puissants qui privilégient leurs intérêts commerciaux. 

 

Des régulations européennes jugées insuffisantes

 

Au niveau européen, Alexandra Bensamoun estime que leCode of Practice, qui aura pour objectif de détailler les règles imposées par l’AI Act aux fournisseurs de modèles d’IA, reste insuffisant concernant les obligations imposées aux IA génératives, par rapport aux attentes initiales. De même, une coalition d’auteurs européens s’est récemment opposée pour les mêmes motifs, au troisième projet de ce Code of Practice

 

Un enjeu de transparence et un bras de fer géopolitique

 

De même, le modèle de transparence (« template ») rédigé par le Bureau de l'IA (instance créée au sein de la Commission européenne « en tant que centre d’expertise en matière d’IA ») pour fournir un résumé détaillé des bases de données, semble être d’une efficacité limitée. Défendre les principes de transparence et de respect de la propriété intellectuelle à Bruxelles reste ainsi crucial. 

 

De même, les entreprises technologiques américaines, soutenues par des lobbys influents, font également pression pour étendre le fair use et limiter les contraintes réglementaires en Europe, cherchant ainsi à imposer d’autres standards que les nôtres dans un bras de fer géopolitique inédit.

 

La stratégie d’évitement et le sentiment d’impunité des entreprises d’IA, tant américaines qu’européennes, compliquent ainsi, la mise en œuvre de l’opt in et fragilisent les efforts de protection des droits d’auteur. La loi du marché veut faire la loi… 

 

En conclusion, bien que l'opt-in constitue un fondement essentiel pour une IA éthique respectueuse du droit d'auteur, sa mise en œuvre se heurte à des obstacles majeurs. La pression des lobbys et la dérégulation américaine rendent difficile la réalisation d’une telle protection. Il est donc crucial de faire preuve de pragmatisme et de renforcer la transparence, en introduisant des mécanismes clairs et acceptables pour les opérateurs économiques.

 

De plus, des dispositifs de répartition de la valeur entre les entreprises d’IA et les sociétés d’auteurs doivent être mis en place pour garantir une rémunération juste des créateurs. Aussi, la coexistence des deux modèles est possible, comme en témoigne le partenariat récent entre Le Monde et OpenAI dans le secteur de la presse.  

 

Vers un cadre éthique et responsable : L’AI Act et l'avenir du droit d'auteur à l’avènement de l'IA

 

L’AI Act vise à soutenir l'innovation par l'IA tout en assurant une juste rémunération pour la créativité. L'objectif n'est pas de freiner l'IA ou d'entraver son développement, mais d'établir un cadre éthique et compétitif, car en négligeant une partie de la chaîne de valeur, on ne crée pas un marché durable.

 

Dans cette optique, les propositions travaillées par le CSPLA pour le droit d’auteur face à l’IA incluent la transparence (avec le modèle de résumé détaillé du rapport de décembre 2024), la rémunération (projet en cours), ainsi que des sujets futurs tels que la territorialité, la politique de transparence en aval (notamment concernant les falsifications) et les limites de la protection. L'objectif pour assurer une réelle efficacité serait de mettre en place des dispositifs qui renforcent la responsabilité en aval, tout en encadrant les obligations des IA à travers les règlements et les directives. En cas d'inversion de la charge de la preuve, les outils d'IA devront démontrer leur transparence, faute de quoi leur utilisation des œuvres sera présumée illégale.

 

La décision du Tribunal judiciaire de Paris dans cette affaire sans précédent opposant Meta aux principaux syndicats des auteurs français, marquera un tournant pour l'interprétation des questions de protection du droit d’auteur en Europe, particulièrement à l'aune de l'entrée en vigueur du Ai Act. Elle influencera non seulement le marché européen, mais également les pratiques des grandes entreprises technologiques à l’échelle mondiale.

 

Protéger les auteurs à l’ère de l’Intelligence Artificielle : Enjeux juridiques et transparence des entraînements IA

 

Chez Altij & Oratio Avocats,nous comprenons les défis complexes auxquels sont confrontés les auteurs, éditeurs et créateurs face à l'utilisation des œuvres protégées par les IA. Notre équipe d'experts vous accompagne pour vous assurer que vos créations sont protégées et que votre utilisation des données pour entraîner des IA est conforme aux normes de droit d'auteur, comme illustré par l'affaire Meta contre les syndicats français des auteurs.

 

Notre expertise en intelligence artificielle et droit d'auteur

 

  • Protection des droits d’auteur : L'entraînement des IA sur des œuvres protégées sans autorisation est un terrain complexe. Nous vous conseillons sur la gestion des risques juridiques liés à l’utilisation de contenus protégés pour le text and data mining (TDM) et sur les implications de la directive européenne sur la propriété intellectuelle et du AI Act.
  • Transparence des bases de données : Grâce à l’AI Act, nous vous aidons à garantir la transparence des données utilisées pour entraîner vos IA, en veillant à respecter les règles relatives à la confidentialité et à la propriété des données.
  • Formation et sensibilisation : En partenariat avec notre legaltech Trust by Design, nous proposons des formations spécialisées pour comprendre les enjeux légaux liés à l’entraînement des IA et pour anticiper les risques de litiges sur la propriété intellectuelle.

Pourquoi choisir Altij & Oratio Avocats ?

 

  • Expertise Pointue : Spécialistes en droit d'auteur et technologies avancées, nous sommes à la pointe des évolutions législatives concernant l'IA.
  • Accompagnement Personnalisé : Nous défendons vos droits avec rigueur, vous permettant de naviguer dans l’évolution des régulations de l’IA et des lois sur le droit d’auteur.
  • Proactivité : Nous anticipons les changements législatifs pour élaborer des stratégies juridiques adaptées et robustes.

Pour en savoir plus sur nos services et comment nous vous aidons à protéger vos droits face aux défis de l’IA, contactez-nous dès aujourd’hui.