« Pour qui n’en a pas consciencer, transférer sa responsabilité à la machine, qu’elle soit ou non capable d’apprendre, c’est lancer sa responsabilité au vent et la voir revenir par la tempête »
Ce n’est pas simplement une technologie, un outil ou une plateforme mais bien selon Daniel J .Solove [1] une méta-technologie transformatrice.
Les données et l'intelligence artificielle sont ainsi au cœur de notre quotidien et déjà aussi au cœur du fonctionnement de nos services publics.
Et ce n’est pas sans poser question:
La régulation de l’intelligence artificielle est ainsi face à un dilemme : trouver le juste équilibre entre réglementation, innovation et compétitivité, pour concilier des enjeux d’articulation contraires entre les impératifs de protection de la vie privée, des droits fondamentaux de l’état de droit et la logique économique et/ou géopolitique.
Günther Anders[3], dès 1956 date de la création du terme « intelligence artificielle »[4], n’a pas manqué d’être visionnaire et de souligner, tant le fossé entre l’évolution technologique rapide et la trop lente voire inadaptation des cadres juridiques et éthiques que l’amplification des dilemmes éthiques et sociaux existants.
L’IA, en exacerbant les problèmes de vie privée et de droits fondamentaux révèle sans doute notre incapacité à comprendre et à gérer les technologies que nous créons.
Pour comprendre les vrais enjeux et défis posés par l’intelligence artificielle, il s’agit de comprendre ce qu’elle et ce qu’elle n’est pas, dans une démarche technolucide[5].
Tout le monde en parle, tout le monde en veut et personne n’est en pourtant en capacité de donner la même définition.
Il est d’ailleurs trompeur de la réduire comme un algorithme ou outil », il ne s’agit ni simplement d’une recette de cuisine mathématique, ni d’un outil (puisqu’elle déclenche des inférences aléatoires). L’IA n’est par ailleurs ni autonome, ni consciente, ni capable de « décisions » pour nous supplanter au moment de la « singularité[6] ».
Sans définition consensuelle claire, l’IA se comprend modestement comme « un ensemble de techniques visant à approcher certains aspects de la cognition humaine ou animale à l’aide des machines ». iI s’agirait davantage à ce stade d’un automate[7] prédictif ou « oracle » qui ne dit pas la vérité, gourmand en logiciels, en données, en puissance de calcul, en énergie et en eau …
L’enjeu : ce n’est pas que ces technologies fassent de nous des soldats[8] mais peut être si nous n’y prenons garde qu’elles ne nous transforment en vassaux des grandes plateformes ou du pouvoir en place.
La Technologie n’est pas neutre, elle est profondément enracinée dans des systèmes sociaux et politiques dans une approche data centrée qui interpelle sur ses impacts en termes de concentration du pouvoir, d’inégalités croissantes, de durabilité et de responsabilité[9].
Il demeure une évidence la nécessité de repenser notre rapport à la Technologie et aux données, en insistant sur l’importance de la responsabilité humaine dans la régulation et le contrôle des innovations technologiques.
Les techniques d’IA utilisées aujourd’hui ne sont pas nouvelles, ce qui est nouveau c’est la puissance de calcul et la collecte ou prédation sur une masse inédite de données d’entraînement et la nécessité pour les décideurs de se pencher sur la répartition de la valeur sur toute cette chaîne de la donnée ( d’entrée ou de sortie).
Il ne s’agit pas seulement d’adapter les lois existantes à de nouvelles réalités, mais de transformer fondamentalement notre compréhension et notre approche des défis posés par l’IA. La véritable tâche est aussi de s’approprier et ré-imaginer le cadre juridique existant afin de protéger la vie privée, mais aussi de renforcer notre capacité à façonner de manière éthique et responsable l’avenir technologique.
A cet égard il importe de distinguer :
- le premier stade de la régulation ( droit souple ) de l’IA via la multiplication de principes d’outils et de cadres éthiques à l’initiative des grands acteurs, institutions internationales et gouvernements ( Forum de l’OCDE[10], G20 etc…)
-de la réglementation (droit dur ) plus contraignant sous l’impulsion de l’Europe notamment avec le paquet digital ou arsenal législatif sur la protection et la circulation de la donnée.
Il est ainsi devenu indispensable de ne pas laisser la technologie abandonnée à l’autorégulation éthique, ne serait-ce que pour garantir la primauté de l’intérêt public face aux intérêts privés et s’opposer au techno-solutionnisme ambiant.
La concurrence géopolitique sur l’encadrement de l’intelligence artificielle pour prendre le leadership interpelle : les Etats oscillent entre affrontement et coopération au sein d’une concurrence commerciale et industrielle acharnée quitte à laisser au second plan nos valeurs démocratiques et les droits humains.
Le rôle central des gouvernements[11] et organisations internationales dans le nécessaire encadrement de l’IA est ainsi à mesurer, il s’inscrit principalement dans une logique rationnelle de gestion des risques sur la gouvernance mondiale de l’IA.
Le droit est un champ de bataille de la guerre économique. Il en est aussi une arme, il règle des rapports de forces et des enjeux d’articulation contraires entre innovation et protection au sein d’une dynamique de pouvoir pour la captation des actifs et ressources stratégiques.
Dans cette course au moins disant en matière de régulation, l’EU détonne, avec ce qui semble être un millefeuille de textes indigestes pour certains quand d’autres y voient une approche hybride mesurée[12].
Comme toute réglementation de compromis, elle présente des aspérités mais l’initiative est belle.
-qu’il s’agisse des systèmes à risque inacceptable, prohibés (comme ceux permettant par exemple la manipulation de personnes vulnérables ou le scoring social) .
-qu’il s’agisse des systèmes à haut risque lesquels devront se conformer à des exigences strictes de mise en conformité.
-ou des systèmes à faible risque soumis à des obligations de transparence.
-ou du cas spécifique des modèles d’IA à usage général présentant un risque systémique.
En régulant l'IA de façon proportionnée aux risques, tout en favorisant l'innovation, la loi européenne vise à instaurer un cadre de confiance propice au déploiement de cette technologie prometteuse mais potentiellement risquée.
Car derrière l’intelligence artificielle, se cache en réalité un usage exponentiel et intrusif de la donnée, dont l’encadrement ne s’improvise pas . Il n’est pas possible de dissocier les données des algorithmes.
Les autorités de protection des données, fortes de leur expertise, vont jouer ainsi un rôle clé dans la mise en œuvre de cette réglementation puisqu’elle s’inscrit au sein d’un ensemble plus vaste ( RGPD, Data Act, Data Governance Act, SREN, DSA , DMA, NIS2 etc..).
Il n’est pas anodin de voir l’impact des nouveaux référentiels et guides pratiques CNIL[13]sur l’IA ainsi que ceux de l’EDPB, le RGPD texte technologiquement neutre, va rester la boussole.
La VRAIE QUESTION n’est peut-être pas de savoir si la Règlementation de l’intelligence artificielle est une opportunité ou un désastre, mais plutôt de savoir sur quoi elle repose, sur la nature de sa fixation et de notre volonté de la contrôler pour un usage responsable, éthique, durable et sûr.
REMETTRE RÉGLEMENTATION A L’ENDROIT : c’est contribuer à faire de la contrainte un élément de valeur.
La réponse du Droit suppose que nous comprenions l’IA sans l’anthropomorphiser en lui attribuant des attributs humains ou en masquant des dimensions humaines. Ces malentendus seraient mortifères sur la réglementation de l’usage de l’IA.
-Faire le choix d’un Numérique souverain, maîtrisé et non subi par le contrôle sur notre patrimoine informationnel, la maîtrise de nos propres données et de nos dépendances.
-Faire le choix d’un Numérique pour tous via une politique de la donnée efficace et collaborative avec pour seule boussole l’humain. Les enjeux de la gestion des données, amplifiés par l’irruption massive de l’intelligence artificielle, ne sont pas réservés à quelques happy fews et autres experts …
-Faire le choix d’une NUMERIQUE RESPONSABLE avec des régulateurs et des citoyens « éclairés » et tenir tous les acteurs responsables avec des institutions démocratiques de contrôle. Comprendre[14] les mécanismes de prise de décisions des systèmes d’IA en amont des déploiements est le postulat .
C’est modestement le sens de nos travaux avec l’association d’intérêt général Data ring[15]qui encourage la recherche en Droit qu’il s’agisse du prix de la donnée ou de nos podcasts sur le Numérique et l’intelligence artificielle.
Faire le choix d’un Numérique responsable : ce n’est pas livrer les IA aux affres d’un panoptique de bentham revisité et abandonner le citoyen transparent à des Etats et/ou organisations opaques, c’est précisément l’inverse.
Nous avons un droit à l’explication et à la reddition de comptes pour réduire l’asymétrie informationnelle entre les acteurs de l’IA, les citoyens et les institutions démocratiques de contrôle. Nous avons un droit à l’effectivité des recours et à l’application de la réglementation[16]. Il faudra des acteurs et des organisations qui participent collectivement et de façon collaborative à l’élaboration et l’application de la Norme et des référentiels à venir avec discernement et efficacité[17].
Il faut aller à la rencontre de la pratique et échanger avec ceux sur le terrain qu’il s’agisse d’autres professionnels de la protection des données ( DPO ou Data protection officer), de la cybersécurité (RSSI, DSI), des directions métiers pour tisser des liens précieux, garder une longueur d’avance et faire bouger les lignes. Il nous appartient de les revendiquer et de défendre l’Etat de Droit sous peine de voir la loi du marché faire sa loi avec comme seul mot d’ordre : « mieux vaut demander le pardon que la permission ».
France Charruyer, avocat associé fondateur et présidente de l’association Data ring
[1] Daniel J.Solove George Washington law school https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4713111
[2] Podcast Data-ring avec luc Julia : l’intelligence artificielle n’existe pas . https://podcast.ausha.co/les-causeries-data
[3] Günther Anders Philosophe, essayiste Allemand du XXème siècle dans un texte magistral de 1956 s’alarmait de l’idolâtrie pour le progrès technologique : « l’obsolescence de l’homme »
[4] Expression intelligence artificielle mobilisée en 1956 au Dartmouth College à l’initiative de Marvin minsky et de John Mac Carthy
[6] Moment où les humains ne seraient plus d’aucune utilité pour les algorithmes sauf à nous traiter comme des animaux de compagnie ou esclaves.
[7] « IA washing » ou le retour du « Turc mécanique » , célèbre mystification du XVIIIème siècle. Derrière la Machine, des hommes ou nouveau précariat selon Casilli https://podcastaddict.com/les-causeries-data/episode/174573639
[8] Asma Mhalla politologue et essayiste » comment la technologie fait de nous des soldats »
[9] Kate Crawford, chercheur et essayiste « pour un contre atlas de l’intelligence artificielle »
[10] Recommandation sur l’éthique de l’intelligence artificielle ( UNESCO 2021) et OCDE 2019
[11] Le Canada a été le premier pays à publier une stratégie nationale sur l’IA en 2017 avec une Directive sur la prise de décision automatisée du Gouvernement du Canada en 2019
[12] https://www.numerama.com/tech/1585580-pourquoi-la-loi-ai-act-de-leurope-est-elle-si-critiquee.html
[13] https://www.cnil.fr/fr/intelligence-artificielle-la-cnil-poursuit-ses-travaux
[14] https://www.trustbydesign.fr
[15] https://www.data-ring.net/prix-de-la-donnee
[16] https://www.data-ring.net/citoyens-de-la-data/les-actions-collectives
[17] C’est dans ce contexte que la CNIL ouvre le 10Juin 2024, pour la deuxième fois, une consultation auprès de tous les acteurs pour élaborer ses recommandations : https://www.cnil.fr/fr/intelligence-artificielle-la-cnil-poursuit-ses-travaux