Citation
L'auteur
Mathilde GOBIN
(mathilde@lexactdigital.fr) - LexAct Digital
Copyright
Déclaration d'intérêts
Financements
Aperçu
L’Intelligence Artificielle (IA) bouleverse nos sociétés, créant à la fois de formidables opportunités et de nouveaux enjeux juridiques. Le droit est confronté à des défis inédits en matière de discrimination algorithmique, atteinte à l’identité, cybercriminalité automatisée et vulnérabilités techniques des systèmes d’IA. Ces problématiques menacent des principes fondamentaux comme l’égalité, la vie privée ou encore la sécurité.
Face à cela, un encadrement juridique évolutif se met en place. Le Règlement européen sur l’IA (IA Act), adopté en 2024, distingue les niveaux de risques et impose des obligations aux IA à haut risque. La Directive NIS2 renforce la cybersécurité, tandis que des textes européens récents cherchent à adapter la responsabilité civile aux IA. Toutefois, l’abandon de certaines propositions législatives soulève des inquiétudes quant à la protection des victimes.
Enfin, l’enjeu central demeure la capacité du droit à suivre le rythme technologique, en misant sur la souplesse, la formation des professionnels et la coopération interdisciplinaire. Une gouvernance éthique dès la conception des systèmes est essentielle pour anticiper les risques tout en exploitant le potentiel de l’IA de manière responsable.
Contenu
Les nouveaux risques liés à l’Intelligence Artificielle
L’IA révolutionne nos vies, aussi bien dans le monde professionnel que personnel. Mais cette transformation technologique engendre également des enjeux juridiques nouveaux et complexes. Le droit doit désormais composer avec des problématiques nouvelles comme la protection des données, la discrimination algorithmique, ou encore les atteintes aux droits fondamentaux facilitées par les technologies d’IA.
Biais algorithmiques et discriminations systémiques
Les biais algorithmiques sont au cœur des préoccupations juridiques. Ils apparaissent lorsque les systèmes d’IA, entraînés sur des jeux de données non représentatifs, reproduisent voire aggravent des inégalités existantes. Le cas emblématique du logiciel de recrutement développé par Amazon, qui a discriminé les candidatures féminines, en est un parfait exemple. Ce logiciel privilégiait automatiquement les profils masculins, reproduisant les tendances sexistes historiques des recrutements antérieurs.
La CNIL met en garde contre ces biais, souvent invisibles, mais ayant des conséquences juridiques et sociales concrètes : discrimination à l’embauche, inégalités d’accès aux soins, à l’éducation ou au crédit. Juridiquement, ces pratiques posent des questions fondamentales en matière de respect des principes d’égalité et de non-discrimination, pourtant garantis par le droit français (Code du travail) et européen (Charte des droits fondamentaux).
Deepfakes et atteintes à l’image ou à l’identité
Les IA génératives, capables de créer des contenus visuels, audio ou textuels, posent également des défis en matière de protection de l’identité. Les deepfakes permettent de créer de fausses vidéos ou de faux enregistrements d’une personne, parfois à des fins malveillantes : manipulation politique, usurpation d’identité, atteinte à la réputation.
En Ukraine, un deepfake du président Zelensky incitant à la reddition a été diffusé sur des chaînes officielles piratées. En France, l’image de Cyril Hanouna a été utilisée dans un visuel militant, sans autorisation, suscitant une condamnation judiciaire. Ces cas soulèvent des questions sur l’application de l’article 226-4-1 du Code pénal, relatif à l’usurpation d’identité, mais aussi sur les limites de la liberté d’expression artistique ou politique.
À l’ère du numérique, le consentement éclairé à l’usage de l’image devient plus complexe à encadrer juridiquement, surtout lorsque les contenus sont créés ou diffusés à très grande échelle grâce à des algorithmes.
Phishing automatisé et cybercriminalité augmentée
L’IA est également utilisée pour automatiser des campagnes d’attaques informatiques. Grâce à ses capacités d’analyse de données et de génération de texte, elle permet de concevoir des courriels de phishing hautement personnalisés, ciblant efficacement les individus. Ce phénomène est accentué par l’émergence de services de type « Bots-as-a-Service », qui démocratisent l’accès à ces technologies malveillantes.
L’IA renforce les attaques de phishing en rendant les courriels frauduleux plus crédibles grâce à l’analyse de données personnelles et à la génération de contenu personnalisé. Elle permet aussi le développement du vishing (phishing vocal) et du smishing (par SMS), parfois à l’aide de voix synthétiques imitant des proches ou des supérieurs hiérarchiques.
Ces techniques, accessibles via des services en ligne peu coûteux, augmentent les fraudes financières ciblées. Juridiquement, elles soulèvent des défis en matière de preuve, de responsabilité et de lutte contre une cybercriminalité de plus en plus automatisée. Le droit doit s’adapter rapidement pour faire face à cette sophistication croissante des attaques.
Vulnérabilités structurelles des systèmes d’IA
Les systèmes d’IA eux-mêmes sont vulnérables : attaques par empoisonnement des données (data poisoning), inférences malveillantes, ou adversarial examples (images modifiées de manière imperceptible pour tromper l’IA). Ces techniques sont d’autant plus préoccupantes qu’elles affectent des systèmes déployés dans des secteurs critiques, comme la santé ou les transports.
L’opacité de ces systèmes rend difficile l’identification d’un responsable en cas d’erreur ou de dysfonctionnement. La « boîte noire » de l’IA pose des problèmes fondamentaux de traçabilité et de responsabilité, tant sur le plan civil que pénal.
Un encadrement juridique en constante évolution
Il est simple de constater que l’IA à un potentiel considérable. Mais pour faire face à ces nouveaux enjeux juridiques, le droit doit évoluer, à mesure que le numérique grandit.
L’IA Act : une révolution juridique
Adopté en 2024, le Règlement européen sur l’IA (IA Act) constitue le premier cadre juridique global visant à réguler les usages de l’intelligence artificielle au sein de l’Union européenne. Il introduit une typologie des risques : les systèmes à risque « inacceptable » (surveillance biométrique, notation sociale…) sont interdits, tandis que les IA à haut risque (comme les outils de recrutement automatisés) doivent répondre à des exigences strictes de transparence, de traçabilité et de supervision humaine.
Ce règlement est une avancée majeure, mais il reste complexe à mettre en œuvre, car l’intelligence artificielle demeure un sujet encore trop peu connu du grand public comme des professionnels, et soulève des difficultés importantes, tant sur le plan juridique que sur le plan technique.
Renforcement des normes en cybersécurité
Le cadre de la cybersécurité se renforce également. La directive NIS2, en vigueur depuis 2023, impose aux entités critiques (santé, énergie, finance, numérique…) une gouvernance plus rigoureuse en matière de sécurité informatique. Elle complète des instruments internationaux comme la Convention de Budapest (2001), qui impose la criminalisation de nombreuses infractions liées au cyberespace et encourage la coopération transnationale.
Ces textes sont particulièrement utiles pour lutter contre les nouvelles formes de cybercriminalité dopées à l’IA, comme les deepfakes à visée terroriste, les campagnes de désinformation ou les intrusions automatisées dans les systèmes critiques.
Vers une responsabilité civile adaptée à l’IA
La question de la responsabilité en cas de dommage causé par une IA reste un point juridique non résolu. Qui est responsable : le concepteur, le fournisseur, l’utilisateur ? Pour combler ce vide, l’Union européenne a proposé deux directives en 2023 :
- L’IA Liability Directive, facilitant l’indemnisation des victimes en introduisant des présomptions de faute pour les IA à haut risque ;
- La Product Liability Directive, élargissant la notion de « produit défectueux » aux logiciels et aux systèmes intelligents.
Cependant, le retrait en 2025 de la directive sur la responsabilité civile a suscité des critiques, notamment de la part de juristes et d’associations de consommateurs, qui dénoncent une politique européenne trop favorable à l’innovation au détriment des victimes.
Le droit face à l’obsolescence technologique
Le principal défi du droit face à l’IA reste sa lenteur. Comme l’illustre l’exemple du Yukon (Canada), une loi peut devenir obsolète avant même son adoption, tant les technologies évoluent vite.
En effet, en 2023, dans le territoire du Yukon, au Canada, un projet de loi concernant les technologies numériques ou l’informatique avait été préparé, mais le temps nécessaire à son élaboration, à sa discussion et à son adoption a été si long que, lorsqu’il a enfin été prêt à être adopté, les technologies qu’il visait à encadrer étaient déjà obsolètes ou dépassées par d’autres innovations plus récentes.
Ce cas est souvent cité dans la doctrine comme une illustration concrète de l’inadéquation entre la temporalité du droit et celle de l’innovation technologique. Il ne s’agit donc pas d’un événement spectaculaire en soi, mais d’un symbole révélateur d’un problème structurel du droit dans son rapport au numérique : il avance trop lentement face à des technologies en perpétuelle mutation.
En définitive, face aux risques émergents et aux opportunités considérables qu’offre l’intelligence artificielle, le droit doit évoluer de manière proactive pour garantir un encadrement à la fois rigoureux, éthique et techniquement adapté aux réalités d’un monde en constante mutation.
Bibliographie
Les Échos, Quand le logiciel de recrutement d’Amazon discrimine les femmes, 25 octobre 2018. Disponible sur : https://www.lesechos.fr/industrie-services/conso-distribution/quand-le-logiciel-de-recrutement-damazon-discrimine-les-femmes-141753
BFM Tech, Piratée, une chaîne d’information ukrainienne diffuse un deepfake de Volodymyr Zelensky, 17 mars 2022. Disponible sur : https://www.bfmtv.com/tech/piratee-une-chaine-d-information-ukrainienne-diffuse-un-deepfake-de-volodymyr-zelensky_AN-202203170296.html
il ne peut pas avoir d'altmétriques.)