FR EN

Notre connaissance approfondie des métiers de nos clients, dans des secteurs variés nous permet de formuler des recommandations stratégiques et personnalisées pour la structuration, la protection et la valorisation de votre patrimoine immatériel constitué à base d’IA.

Gestion des risques, protection et valorisation des systèmes d’IA 

Nos avocats et nos experts en systèmes d’algorithmes vous accompagnent pour appréhender les enjeux juridiques attenant aux systèmes d’IA, au machine learning et deep learning , en termes de propriété des données d’entrainement, bases de données, droits de propriété intellectuelle, atteintes aux données personnelles, failles de sécurité  et abordent avec vos équipes les questions ethiques et techniques, de régulation, de risques et d’encadrement des usages.

Nos avocats interviennent avec des experts en IA pour vous assister sur la mise en place de l’IA dans votre organisation : (méthodes de traitement du langage et d’apprentissage), cartographie des risques , pré-requis ethiques et techniques notamment en termes de réalisation de bas à sable ou SANDBOX, audit de cybersécurité etc… :

- Mise en place d’un programme de compliance juridique :

La question des données est centrale aux IA : elles permettent en effet de construire, structurer, et d’enrichir ces systèmes. La régulation juridique des données fournies aux IA tourne autour des modalités d’accès, l’utilisation des données, le tout avec pour finalité le respect des droits fondamentaux et la sécurité des utilisateurs.

Nos avocats en protection des données mettent en place un programme de compliance à la réglementation en matière de protection des données et de droits fondamentaux .

1/Accompagnement à la conformité de l’IA ACT :

  • Audit, cartographie des utilisations et obligations selon la granularité du risque : de celles impliquant des risques inacceptables : (ex : systèmes d’identification biométriques à distance) , a celles qualifiées d’utilisations à haut risque, admises en contrepartie d’obligations de diligence à la charge des développeurs, des utilisateurs professionnels et autres acteurs de la chaîne (ex : utilisation d’IA par les équipes RH dans le processus de recrutement ou de promotion). Outre Les utilisations à moyen risque soumises à des obligations de transparence spécifique.
  • Méthodologie de gestion des risques : de la qualité des données utilisées, de la transparence à l’égard des utilisateurs, d’une supervision humaine, et enfin d’exigences en termes de précision, robustesse et de sécurité.
  • Focus l’IA à usage général. L’orientation du Conseil de l’UE, sous la présidence française, a proposé d’intégrer un nouveau concept à l’IA Act : le système d’IA à usage général. La définition proposée par le Conseil permettrait d’englober les transcripteurs de commande vocale ou encore les agents conversationnels comme ChatGPT (qui par nature n’ont pas été créés pour des activités à haut risque au sens du projet de règlement). Ainsi, l’intérêt de les identifier dans l’IA Act permet de leur appliquer a minima les obligations de transparence spécifique.
  • Mise en place des obligations de transparence spécifiques : concerne ous les fournisseurs de systèmes d’IA, sans préjudice des autres obligations de transparence applicables comme celle du RGPD, dès lors que ces systèmes interagissent avec des personnes physiques notamment par le biais de chatbots, participent à de la catégorisation biométrique, ou créent des deep fake. Certaines IA, comme ChatGPT, fonctionnent sur un système statistique comportant une part d’aléa et de probabilité : la réponse fournie par l’IA à un instant n’est qu’alternative et pourra éventuellement différer lors d’une requête ultérieure. Dans ce contexte, certains auteurs soutiennent que pour se conformer à son obligation de transparence, le fournisseur devrait permettre à l’utilisateur d’avoir accès à toutes les réponses probables pouvant être générées par l’IA. 
  • Accompagnement aux enjeux de gouvernance: l’IA Act prévoit que l’entraînement des systèmes d’IA se fasse avec des données de qualité, suffisamment nombreuses et variées pour réduire le risque de biais et de discriminations dans les résultats générés.

2/Accompagnement à la conformité RGPD :

  • Mise en place des mécanismes de transparence et explicabilité :

La  protection des données dès la conception et protection des données par défaut ou privacy by design) (Article 25 ).

Droits d’information (Articles 13 et 14) et d’accès (Article 15)prévus par le RGPD sont susceptibles de s’appliquer en matière d’IA. Cela permet aux personnes concernées d’obtenir des informations précises relatives à l’algorithme et à son fonctionnement vis-à-vis de leurs données personnelles.

Procédure d’exercice des droits :les personnes concernées par le traitement peuvent exiger la suppression des données dès que la conservation n’est plus nécessaire à la réalisation du traitement pour lequel elles étaient soumises (Article 17). En pratique, ce moment pourra correspondre à la fin de la conversation avec l’IA (en cas de chatbot par exemple).

Respect de L’article 22.1 du RGPD prohibe en outre le recours à des IA lorsque la prise de décision automatisée a des conséquences juridiques ou affecte significativement la personne concernée, à moins d’avoir mis en place des mesures permettant de sauvegarder les droits, les libertés et les intérêts de la personne concernée et en dehors de certaines exceptions :

  • Le client a donné son consentement explicite,
  • La décision automatisée est nécessaire à l’exécution du contrat conclu entre les parties,
  • La décision est autorisée par le droit UE ou d’un État membre.

Respect de l’obligation de sécurité des traitements (Article 32 du RGPD) qui s’impose au concepteur et utilisateur d’IA  en sa qualité de responsable de traitement afin d’éviter que les données ne soient détournées, altérées ou transmises à des tiers non autorisés. Le responsable du traitement et le sous-traitant doivent notamment mettre en place, au besoin : « a) la pseudonymisation et le chiffrement des données à caractère personnel ; b) des moyens permettant de garantir la confidentialité, l'intégrité, la disponibilité et la résilience constantes des systèmes et des services de traitement ; c) des moyens permettant de rétablir la disponibilité des données à caractère personnel et l'accès à celles-ci dans des délais appropriés en cas d'incident physique ou technique; d) une procédure visant à tester, à analyser et à évaluer régulièrement l'efficacité des mesures techniques et organisationnelles pour assurer la sécurité du traitement ». Le même article précise également que « Lors de l'évaluation du niveau de sécurité approprié, il est tenu compte en particulier des risques que présente le traitement, résultant notamment de la destruction, de la perte, de l'altération, de la divulgation non autorisée de données à caractère personnel transmises, conservées ou traitées d'une autre manière, ou de l'accès non autorisé à de telles données, de manière accidentelle ou illicite ».

Appliqué au domaine de l’IA, cet alinéa souligne l’importance de renforcer la robustesse technique pour contrer les actions malveillantes qui pourraient compromettre les systèmes. En cas de failles de sécurité, les données d’apprentissage pourraient être altérées et engendrer des conséquences potentielles dommageables lors de la mise en œuvre de l’IA (biais, discriminations, etc.).

3/Accompagnement dans l’encadrement de votre Gouvernance et obligations de non concurrence :

Les obligations en termes de gouvernance et de non-concurrence à l’égard des entreprises qui fournissent les données sont définies par le DMA (Digital Market Act) 2022.

Ce règlement s’applique aux contrôleurs d’accès (ex : moteurs de recherche, plateformes d’intermédiation, assistants virtuels etc.) dont la fourniture de services permet l’accès à de nombreuses données confidentielles ou à caractère personnel. Si un contrôleur d’accès entre dans le champ d’application du règlement en utilisant, par exemple, une IA, il sera soumis à des obligations en termes de gouvernance et de non-concurrence à l’égard des entreprises qui lui fournissent les données.

- Accompagnement à la Gestion des Usages et Approche par les risques :

La cartographie des risques au vu de la réglementation de l’IA-Act , du RGPD, du DSA etc…et des enjeux sur les modèles sous-jacents et leurs modalités d’entraînement, sur l’usage des IA génératives tels que  ChatGPT  est essentielle à l’implémentation des IA en dans votre organisation

Nos avocats vous accompagnent afin d’organiser l’utilisation responsable et ethique de l’IA :

  • Encadrement des usages en entreprise et mise à jour de votre documentation RH interne, des sCharte informatiques et annexes BYOD , BYAP , de vos chaines de délégation de pouvoirs , référents etc… ;
  • Encadrement contractuel et de vos CGU, conditions générales d’utilisation à l’égard de vos partenaires, clients et usagers;
  • Encadrement de votre responsabilité professionnelle: En cas d’absence de vérification et de correction de contenus erronés ou biaisés préjudiciable (diagnostic médical à poser, stratégie juridique, etc.). Les professionnels ayant recours à des IA génératives comme ChatGPT doivent donc se montrer très prudents et ne les utiliser que comme des annexes à leur réflexion.

Nos avocats vous accompagnent afin de défendre vos droits de propriété intellectuelle :

Nos avocats en IA et propriété intellectuelle veillent également à faire cesser toute atteinte à vos droits de propriété intellectuelle et à mettre en place des mesures de protection spécifiques en interne et à l’égard des tiers.

Nos avocats vous assistent dans la protection de vos droits d’auteur, vos droits de producteur de bases de données et/ou d’éditeur de solutions logicielles et algorithmiques et actionnent les actions judiciaires  et/ou de négociation utiles en défense lorsque vos bases de données et droits de propriété intellectuelle sont violés ou lorsque vous souhaitez protéger votre investissement en matière d’IA.

L’utilisation d’IA  est susceptible d’enfreindre les droits des tiers et notamment les IA génératives. En effet ces systèmes d’IA fonctionnent à partir de vastes quantités de données et contenus (images, vidéos, lignes de codes, etc.) qui nourrissent et développent leurs algorithmes. Il n’est dès lors pas exclu que les produits ou services générés par l’IA (images, vidéos, partitions de musique, logiciels) utilisent les créations de tiers qui pourraient alors engager des actions judicaires contre le concepteur ou l’utilisateur.

Nos avocats en droit en innovation et technologies avancées peuvent exercer des actions judiciaire en réparation des atteintes au droit d’auteur et agir en contrefaçon, en nullité, en déchéance, en revendication , en concurrence deloyale et parasitaire , et /ou en réparation de tels agissements.

  • Contrefaçon de Logiciels  :

A l’instar de la class action ( action de groupe) lancée aux États-Unis entre GitHub et Microsoft & OpenAI qui auraient, pour entraîner leurs IA et développer le logiciel Copilot, repris des lignes de codes librement partagées sur GitHub et soumises à des licences open source (i.e., permettant le libre accès et la distribution gratuite des lignes de code aux utilisateurs).

Des recours judicaires individuels et/ou collectifs sont possibles en France  en cas d’utilisation par l’IA de tels éléments car les licences open source étendent souvent leurs stipulations aux œuvres dérivées, et donc potentiellement aux logiciels développés par les IA à partir de ces codes open source.

Nos avocats vous accompagnent en matière de contrefaçon de logiciel et/ou d’atteinte aux licences open source.

Violation de droits de propriété intellectuelle (de droit d’auteur) : Compte tenu de l’opacité du fonctionnement de certaines IA génératives, il peut être difficile de démontrer une telle atteinte. Il faut donc analyser le fonctionnement du code informatique pour comprendre comment sont traitées les requêtes et déterminer si des droits privés ont été utilisés directement (notamment en tant que données d’apprentissage).

Nos avocats interviennent avec des experts informatiques pour défendre vos intérets et prendre toutes les mesure conservatoires utiles:

  • défendant vos intérêts dans des procédures en contrefaçons; violation de droits d’auteur, atteinte aux droits des bases de données, violation de données au sens du RGPD, failles de sécurité, perte de données etc…
  • vous assistant lors de saisies organisées dans vos locaux ;
  • gérant les contentieux corporate concernant des entreprises dotés d’actifs immatériels  ( garanties d’actif et de passif, révision du prix ;
  • gérant les demandes d’exercice de droits et de violation de données personnelles au sens du RGPD avec notre pôle d’avocats /DPO
  • gérant les demandes de revendication d’inventions de salariés au Tribunal , notamment en mettant en place en amont des outils de bonne gestion des inventions et création par les salariés d’un groupe ; et en gérant les contentieux et litiges sur les droits de propriété intellectuelle et/ou création logicielles et de système d’IA .

Nos avocats vous assistent en gestion des risques en Cybersécurité.

La robustesse technique de l’IA est essentielle pour prévenir les actions malveillantes susceptibles de détourner l’utilisation des IA ou de compromettre leurs performances. 

Les risques engendrés par les IA peuvent provenir de tiers cherchant à nuire à une entreprise par le biais de malwares ou tentatives de phishing, d’ingénierie sociale,  de négligences et d’ erreurs humaines dans l’utilisation non maitrisée de lignes de codes obtenues avec des IA sans procéder aux vérifications d’usage .

Nos avocats en IA et protection des données  vous accompagnent dans la mise en place des mesures des bonnes pratiques internes et de gestion des risques  quant à l’utilisation des nouveaux systèmes d’IA (formation et encadrement des salariés, gestion de la documentation RGPD, protections techniques  spécifiques en interne et à l’égard des tiers).

- Accompagnement dans la protection de vos créations logicielles, innovations en matière d’IA, de vos bases de données, et droits de proprieté intellectuelle.

  • La protection des créations issues de l’IA , du machine learning et/ou deep learning :

Nos avocats vous accompagnent dans la défense et revendication de vos droits de propriété intellectuelle et vous assistent pour fixer les règles de propriété, de licence ou d’utilisation des contenus générés par les systèmes d’IA.

Le Code de la propriété intellectuelle ne définit en effet pas l’auteur, suggérant ainsi la possibilité pour une IA d’être auteur et de bénéficier du régime juridique en découlant (le développeur pourrait donc exercer des actions en contrefaçon en cas d’atteinte). Avec le machine learning, l’IA est capable de s’enrichir, décider, et même créer seule du contenu (on parle dans ce cas d’IA générative). Bien qu’elle soit à l’origine programmée par des humains qui définissent ses paramètres généraux et les données d’apprentissage, le processus de création est mené par l’IA de manière autonome. Or, le résultat obtenu par l’IA semble incompatible avec les concepts du droit d’auteur. La jurisprudence, en parlant de création, se réfère à une œuvre de l’esprit qui serait originale car empreinte de la personnalité de l’auteur.

Une approche défendue en doctrine est d’admettre la contribution de l’homme au processus de création et de souligner l’importance des choix humains avant d’atteindre le produit final. Dans ce cas, deux intervenants vont potentiellement entrer en conflit : le concepteur de l’IA et son utilisateur.  Si a priori les utilisateurs n’ont pas vocation à acquérir des droits sur les contenus générés par l’IA, il serait possible de considérer que l’utilisation du système et la manière de formuler des requêtes ou prompts seraient le reflet de leur personnalité et donc susceptibles de protection par le droit d’auteur.

Nos avocats en IA vous proposent de mettre en place une stratégie originale de protection de vos droits de propriété intellectuelle sur les créations en matière de prompts pour de l’IA générative et de tous procédés pour autant qu'ils soient originaux et innovants en la matière :

-Mise à jour de vos conditions générales d’utilisation CGU et CGV,

-Rédaction des licences d’utilisation et contrats informatiques fixant les règles de propriété des contenus générés, ou livrables

-Mise à jour des clauses de cession de droits et de confidentialité dans les contrats de travail

-Encadrement des usages via des chartes informatiques adaptées et négociation de clauses sensibles dans les contrats de travail puisque  l’utilisateur pourrait retravailler le contenu produit par l’IA en y apportant des éléments créatifs ou en l’intégrant dans une œuvre plus large créée par l’homme, permettant potentiellement l’application du droit d’auteur et la revendication de droits.

-Assistance à litiges en matière de coflits de droits et de revendication portant sur des droits d'auteur.

 

Accompagnement dans le cadre de la structuration et valorisation  de vos actifs immatériels, nous vous assistons notamment dans les opérations :

  • Audit de risques et de due diligence en matière de système d’IA avec nos experts partenaires ( ingénieurs en IA, mathématiciens, experts informatiques, Data scientist, etc.. )
  • Compliance et conformité ( réalisation IA risk-assesment, DPIA analyses d’impact ...) à la protection des données, régulation IA ACT ) .
  • De capital investissement pour vous permettre d’entrer dans la chaine de valeur de l’IA compétitive
  • de commercialisation de vos produits ou services en matière d’IA ( Contrats, smart contrats, CGV, CGU etc..)
  • de valorisation de vos actifs (acquisition des droits et leur sécurisation, contrats de cessions, contrats de licences, contrats de R&D, accord de coexistence, …
  • de la gestion et protection de vos actifs notamment de vos droits de propriété intellectuelle ( droit d’auteurs, logiciels, brevets etc…)

 

Ateliers de sensibilisation du personnel et des directions juridiques, opérationnelles et informatique afin de former vos équipes, assurer vos obligations, connaitre et respecter les enjeux juridiques des IA notamment par nos formations Trust by Design.