Se rendre au contenu

Éthique, algorithme et droit

7 mai 2025 par
Éthique, algorithme et droit
Colin Heinen

À l’ère du tout numérique, si le scepticisme de certains demeure toujours, la confiance de l’homme vis-à-vis de l’IA s’est considérablement améliorée et il semble désormais indubitable de la qualifier de partie intégrante de notre quotidien. Néanmoins, si son potentiel fascine, ses dérives inquiètent. Intervient alors le rôle central de la société afin de légiférer et encadrer ce nouveau cap technologique ainsi que toutes les conséquences qui  en découlent.  

Dans cet article, sera exposé le versant juridique de cette technologie autant idolâtrée en raison de  son champ d’application infini que redoutée pour son côté inconnu et imprévisible. Plus particulièrement, les formes de criminalité, souvent favorisées par un vide législatif, engendrées par cette découverte, ainsi que les mécanismes juridiques susceptibles d'être instaurés pour encadrer ces phénomènes et, le cas échéant, les réprimer. 


Innovations criminelles
 

Afin d’illustrer les propos tenus lors de cette brève introduction, il convient de se pencher sur la récente explosion de pratiques illicites en lien avec cet instrument qu’incarne l’intelligence artificielle.  

Une première scission sera opérée puisque cet article se restreindra à exclusivement exposer celles ayant une implication directe dans le milieu juridico-politique.  

Parmi celles-ci, une, ayant à plusieurs reprises fait les gros titres des divers journaux du globe et se révélant actuellement comme l’égérie de ce qui est désormais praticable par l’intermédiaire de l’intelligence artificielle, se nomme le « Deep Fake ». 

Cet anglicisme, résultant de la contraction de « Deep Learning » et « Fake », peut se traduire  littéralement par « fausse profondeur ».

Cette pratique désigne donc des enregistrements vidéo ou audio créés ou modifiés grâce à l'intelligence artificielle, tout cela faisant écho à la volonté de rendre le contenu parfaitement crédible. Dans les faits, cela permet la création de contenu vidéo mettant en scène des personnes tenant des discours qu’elles n’ont jamais prononcé, commettant des actes qu’elles n’ont jamais perpétrés, ou plus simplement et de façon plus perverse, créer du contenu pornographique.  

Néanmoins, il est primordial d’éviter tout amalgame, le deepfake est le nom d’une pratique  arborant des versants totalement licites. Les criminalités naissantes issues de cette pratique ne sont que l’illustration d’une déviance rendant répréhensible un comportement qui ne l’est pas dans sa constitution.  

De façon moins visible mais avec un impact tout aussi conséquent, d’autres formes de dérives  émergent petit à petit de cet iceberg qu’incarne l’intelligence artificielle : fraude algorithmique, fraude fiscale automatisée, extorsion d’informations clients, cyberattaques automatisées…  

Parmi celles-ci, il est intéressant de s’attarder sur la discrimination algorithmique, puisque cette déviance a également fait la une de l’actualité pendant un moment. Cette appellation se rapporte aux biais et inégalités générés par des systèmes d'intelligence artificielle dans leurs prises de décision automatisées.

Une illustration parlante de ce phénomène est trouvée dans l’affaire amazone et son système automatisé d’analyse de profils. En effet, en 2014, Amazon a développé un outil d’intelligence artificielle pour automatiser la sélection des candidatures dans son processus de recrutement.  

Cependant, ce système s’est rapidement révélé discriminatoire envers les femmes. Ce biais trouvait son origine dans l'entraînement de l'algorithme sur des données historiques dominées par des profils masculins, ce qui par effet cascade influence le système automatisé qui en déduit que les profils féminins sont moins pertinents.


Domaines d’application  

Pour des raisons pratiques, et afin de structurer notre réflexion, nous concentrerons notre analyse sur les aspects légaux liés à l’usage des deepfakes. Cette forme de malversation constitue aujourd’hui une part prépondérante des interactions entre  l’intelligence artificielle dans son versant déviant et les sphères juridico-politiques. Plus encore, elle revêt une pertinence particulière, pour vous, lecteurs, en raison de ses répercussions potentielles sur votre vie quotidienne.  

Par ailleurs, le deepfake se distingue comme l’une des expressions de criminalité présentant la plus grande diversité d’usages déviants. Nous centrerons notre analyse à travers des cas de criminalité politique mais également pornographique.  

Pour aborder le cœur du problème, il convient de rappeler que, comme mentionné précédemment, des secteurs tels que la politique et la pornographie sont particulièrement affectés par cette dérive pernicieuse des deepfakes.  

Cette technologie ouvre un vaste éventail de possibilités pour la création de fausses informations et de canulars malveillants, offrant ainsi à des individus malintentionnés des outils sophistiqués  pour servir des objectifs frauduleux.  

De la politique …  

Dans le but de dissiper les dernières hésitations des lecteurs quant à la démocratisation de l'usage de tels procédés dans des contextes cruciaux, ainsi qu’aux conséquences profondément néfastes qui en découlent, il est essentiel d’illustrer cette problématique à travers un cas d’une gravité particulièrement alarmante sur la scène politique.  

En mars 2022, alors que l’Ukraine se trouvait au cœur de l’invasion brutale orchestrée par la Russie, une vidéo pour le moins troublante fit son apparition sur les réseaux sociaux. On y voyait le président ukrainien Volodymyr Zelensky, figure emblématique de la résistance nationale, prononcer un discours glaçant : il semblait enjoindre ses compatriotes à renoncer à leur combat, à déposer les armes et à se soumettre aux forces d’occupation russes. 

Tout ceci s’est révélé être l'œuvre d’une utilisation frauduleuse du deepfake. Dans un désir d’influence du comportement de la population, une propagande mensongère avait  été transmise de manière anonyme à des chaînes de télévisions ukrainiennes. La crédibilité de cette vidéo factice avait poussé certaines chaînes à relayer cette dernière, illustration de l’impact démesuré que cette pratique peut avoir.  

…À la pornographie  

Dans le domaine de la pornographie, il est désormais aisé, grâce à des outils spécialisés, de concevoir de toutes pièces des images ou des vidéos représentant des individus dans des situations de nudité ou engagés dans des actes licencieux. Ces créations, réalisées évidemment sans le moindre consentement des personnes concernées, illustrent une violation flagrante de leur dignité et de leur intégrité.  

De nombreux scandales avaient éclaté quelques années auparavant touchant certaines stars de renommées internationales telles que Emma Watson, Taylor Swift ou encore Scarlett Johansson. Mais également, et je m’adresse alors encore à vous chers lecteurs, à une quantité astronomique de personnes spécifiquement de la tranche d’âge étudiante.

Il est à noter que selon l’entreprise hollandaise en cybersécurité Deep Trace Lab, sur 14.000 contenus hyper truqués publiés sur internet en 2019, 96% d’entre eux étaient à caractère pornographique. Et ces mêmes contenus pornographiques visent presque exclusivement la gente féminine.

Si dans un premier temps ces procédés peuvent être assez aisément dissociés de la réalité, ils  tendent aujourd’hui à en devenir une véritable copie conforme.

Et comme l'expose lors d’une conférence le chercheur américain en IA, Alex Champandard : « Le principal danger est de voir arriver le moment où les humains ne pourront plus déterminer si  ce qui se trouve sur une vidéo correspond à la vérité ou non ».


Un cadre juridique en mutation

Hormis le combat mené afin de détecter et différencier de la réalité ces contenus factices, étant du ressort des professionnels de l’informatique.

Il y a lieu de se demander si à l’heure actuelle il existe une quantité suffisante de protections  juridiques dont les citoyens peuvent se munir face à ce phénomène en pleine intensification.

Toutefois, il convient d’adopter une perspective nuancée à l’égard de ce sujet. À ce jour, aucune disposition législative en vigueur ne traite explicitement du phénomène des deepfakes. Cependant, les actes malveillants impliquant ces technologies peuvent être appréhendés à travers des cadres juridiques existants.  

En réalité, la jurisprudence a progressivement reconnu que cette pratique peut relever de plusieurs  infractions déjà prévues par les normes en vigueur, telles que l’usurpation d’identité, la diffamation ou l’atteinte à la vie privée. Ainsi, bien que indirect, le recours à ces dispositions offre une réponse partielle à un problème qui demeure complexe et évolutif.  

Il est impératif d’émettre une réserve, l’exposé qui suit ne s’investit pas pour mission de dresser une liste exhaustive de l’ensemble des normes encadrant ce phénomène mais plutôt de mettre en  exergue les plus pertinentes.  

Il est primordial de scinder les protections juridiques offertes en deux parties, les unes vis-à-vis des deepfakes pornographiques et les autres vis-à-vis des deepfakes politiques.  


Face au pornographique  

Nous allons ici nous préoccuper dans un premier temps de tous les comportements infractionnels  pornographiques.

La législation sur la protection des données personnelles offre un premier rempart essentiel. En Belgique, comme dans l’ensemble des États membres de l’Union européenne, le Règlement Général sur la Protection des Données (RGPD) s’impose également aux entreprises opérant au sein de ces territoires.                              

Ce cadre juridique, principalement axé sur la régulation des pratiques des entreprises, sanctionne rigoureusement toute utilisation non autorisée de données personnelles, y compris lorsque ces dernières sont traitées hors des frontières de l’Union, pourvu qu’elles soient liées à des activités internes à l’UE.

Parallèlement à cela, le droit fondamental à la vie privée représente un pilier central de la législation belge dans ce domaine. Consacré par l’article 22 de la Constitution, il se combine avec les dispositions relatives à la  protection des données personnelles. 

La diffusion de deepfakes impliquant des individus sans leur consentement s’inscrit, de facto, dans  le cadre d’une atteinte à la vie privée. Les victimes disposent ainsi de recours juridiques pour faire valoir leurs droits et obtenir réparation.

Ce socle constitutionnel ouvre la voie à une pluralité de bases légales pertinentes dans la lutte contre  les deepfakes à caractère pornographique, parmi lesquelles une disposition clé se distingue. 

Cette dernière n’est autre que la disposition 417/8 du Code Pénal consacrée au voyeurisme.  Une norme qui par ailleurs a été renforcée et modernisée suite à une récente réforme en 2022 afin de faire face aux évolutions technologiques. Elle constitue à l’heure actuelle un rempart contre les déviances liées au deepfake pornographique, ainsi qu’une réelle ressource pour les individus dont la dignité a été bafouée. 

En effet, elle ne se borne plus à proscrire l’observation non-consentie d’une personne dénudée ou dans un contexte intime, mais sanctionne également le fait de permettre à autrui de visionner de tels contenus sans le consentement de la personne concernée.  

Comme le souligne l’avocate Sandrine Carneroli, ceci s’applique aussi bien aux logiciels espions qu’au contenu pornographique créé de toute pièce par l’intelligence artificielle. 

La question se pose de savoir si le droit pénal s'applique lorsque la "mise à nu" est générée par une intelligence artificielle, et non issue du corps réel des personnes ciblées. Selon la magistrate flamande Catherine Van de Heyning, la réponse est affirmative : "Créer une image à partir d’une  photo existante et générer un corps nu est d’office puni par l’article sur le voyeurisme. C’est donc punissable”.              Un paramètre qui au regard de notre droit pénal ne constitue donc en aucun cas une circonstance exonératoire de responsabilité. 


Face au politique  

Pour se pencher désormais sur le cas de comportements infractionnels non-pornographiques, il  convient d’ores et déjà de préciser que le RGPD, au même titre que vu ci-dessus, s’applique aux deepfakes politiques.  

Le deepfake politique, en tant que phénomène technologique et sociétal, relève également  pleinement du champ d’application du droit constitutionnel sur le droit à la vie privée consacré par l’article 22 de la Constitution. Toutefois, lorsque ces manipulations impliquent des personnalités  publiques, la portée de ce droit se voit interprétée de manière plus stricte. En effet, la frontière entre la sphère privée et les activités publiques se resserre considérablement pour les acteurs de la scène politique, dont les faits et gestes s’inscrivent, par nature, dans un  cadre de visibilité accrue.  

Cette dynamique s’accompagne de tensions juridiques, notamment lorsque les contenus incriminés sont justifiés par un discours d’intérêt général. 

En vertu des principes démocratiques, ce type de discours bénéficie d’une protection particulière en droit belge, plaçant ainsi les juridictions face à un dilemme : comment concilier la liberté d’expression avec le respect du droit à la vie privée.  

Dans ce contexte, il est crucial de distinguer les deepfakes créés dans un objectif malveillant de ceux relevant d’une intention humoristique ou parodique, tels qu’illustrés par des émissions satiriques populaires comme "Canteloup".  

Le critère déterminant demeure l’intention de nuire ou de tromper par la métamorphose de la vérité, comme le souligne l’avocate Sandrine Carneroli. 

Ainsi, selon une jurisprudence constante, un deepfake visant à manipuler la vérité, par exemple en  falsifiant un discours politique pour influencer l’opinion publique, constitue une infraction répréhensible à distinguer du contenu à but humoristique lui, couvert par la liberté d’expression. 

Lorsque le deepfake porte atteinte à la vie privée tout en étant diffusé dans un cadre public et médiatique, le droit constitutionnel à la vie privée peut se métamorphoser en ce que l’on appelle un délit de presse. Dans ce contexte, le droit ne se cantonne plus à simplement analyser les faits, mais également leur portée publique, leur intention, et leur capacité à altérer la perception de la vérité.  L’avocate Sandrine Carneroli souligne ainsi l’importance d’une analyse méticuleuse des propos  contenus dans ces manipulations numériques. Il ne suffit pas qu’un deepfake détourne les mots ou l’image d’une personnalité ; encore faut-il établir une volonté délibérée de nuire ou de tromper l’opinion.  

Lorsque les limites de la tromperie et de la manipulation sont franchies, le droit belge offre des outils juridiques adaptés pour encadrer et sanctionner de telles pratiques.  

Parmi ces dispositifs, l’un des plus significatifs est la diffamation, prévue à l’article 443 du Code pénal belge. Cette disposition se distingue par sa portée transversale, couvrant l’ensemble des secteurs où la vérité pourrait être travestie.  

Elle constitue donc une voie de recours très souvent privilégiée par les victimes de cette criminalité  naissante qu’incarne le deepfake politique. 

La diffamation se définit par l’imputation de faits ou d’allégations mensongères, diffusées  publiquement dans le but de nuire à l’honneur ou à la dignité d’autrui.  

En cas de deepfake, elle permet de sanctionner les manipulations numériques qui visent à altérer  l’image ou la réputation d’une personne, que ce soit par des propos fictifs, des comportements  fabriqués, ou des montages fallacieux. 

Contrairement à la manipulation politique - pour ne citer qu’elle - cette disposition s’applique de manière universelle, protégeant aussi bien les citoyens ordinaires que les personnalités publiques. Le seul fait de chercher à porter atteinte à la réputation d’une personne suffit à rendre cette norme opérante, et ce indépendamment du statut social ou professionnel de la victime. 

Dans un registre complémentaire, mais plus restreint en termes d’application, le droit belge prévoit  également des sanctions spécifiques pour les contenus diffusés incitant à des comportements haineux, violents ou discriminatoires.  

La loi du 30 juillet 1981 sur la répression du racisme et de la xénophobie constitue ici une riposte judicieuse dans l’optique d’encadrer ces abus. 

La réalité est que si des mutations juridiques afin de combattre ce fléau existent, elles restent souvent inadaptées à la complexité de ces nouvelles menaces, mais cette solution temporaire semble, pour l'instant, faire efficacement office de rempart d’urgence.  

Néanmoins, face à l'urgence que suscite la prolifération de telles pratiques, des ajustements  législatifs s’imposent. Ces adaptations, bien que nécessaires, se heurtent à la lenteur inhérente au processus normatif, lequel peine à suivre le rythme effréné des avancées technologiques. Ainsi, le défi persiste : réussir à devancer l’évolution pour, un jour peut-être, avoir une société déjà armée et prête à attendre chaque nouvel enjeu sociétal au coin du tournant.  


Vers une consécration juridique de ce phénomène ?  

Mais alors que cet enjeu juridique semble baigner dans un semi-vide juridique, une promesse d’avenir se dévoile, celle de l’émergence d’un cadre juridique harmonisé à l’échelle européenne.  

En cette ère où l'intelligence artificielle s'immisce dans les moindres recoins de notre quotidien, l'Union européenne s’est érigée en parangon de la régulation par l’intermédiaire de l'AI Act. Un nouveau cadre juridique perçu par bon nombre d'observateurs comme le Saint-Graal législatif en matière de criminalité liée à l'IA.  Ce projet de règlement, adopté par les 27 États membres et entré en vigueur le 1er août 2024, aspire à instaurer un cadre harmonisé, garantissant la sécurité et le respect des droits fondamentaux face à ce phénomène sociétal à l’évolution exponentielle. 

Cette volonté globale de l’Union européenne de devenir un leader dans l’éthique et la régulation de l’intelligence artificielle s’inscrit dans une approche réfléchie, classifiant les systèmes d’intelligence artificielle selon le degré de risque qu'ils présentent. 

  • Risque inacceptable : Les systèmes jugés contraires aux valeurs de l'Union, tels que la  notation sociale ou la manipulation comportementale, sont proscrits.  

  • Risque élevé : Les applications déployées dans des domaines sensibles, notamment la santé,  l'éducation ou le recrutement, sont soumises à des exigences strictes en matière de qualité, de transparence et de supervision humaine.  

  • Risque limité : Ces systèmes doivent respecter des obligations de transparence, informant  les utilisateurs de leur interaction avec une IA. 

  • Risque minimal : La majorité des applications actuelles, telles que les filtres anti-spam ou  les jeux vidéo, ne sont pas soumises à des obligations spécifiques. 

Cette stratification permet une régulation proportionnée, ciblant les usages potentiellement préjudiciables sans entraver l'essor de cette technologie révolutionnaire.  

Cette division permet d’augmenter progressivement les contraintes légales imposées aux  constructions et utilisations de ces systèmes technologiques jusqu’à la dernière catégorie qui est  purement et simplement proscrite. 

Pour rester concis et ne citer que certaines des caractéristiques les plus propices à encadrer l’usage défectueux que représentent les deepfakes, nous pouvons nous attarder sur l’obligation de transparence et l’encadrement des usages nuisibles. 

La transparence impose aux utilisateurs d’intelligence artificielle générative une transparence explicite quant à la nature synthétique des contenus produits. Ainsi, tout contenu créé par IA, y compris les deepfakes, devra être identifié comme tel. Ce dispositif vise à éviter que des manipulations trompeuses passent pour des contenus authentiques, protégeant ainsi les individus et les institutions contre les risques de désinformation ou d’usurpation. 

Tandis que l’encadrement des usages nuisibles établit un cadre rigoureux pour interdire ou limiter les utilisations malveillantes des technologies d’IA. Les usages à haut risque, tels que les deepfakes à des fins pornographiques ou politiques, sont soumis à des restrictions strictes, incluant des sanctions dissuasives.

En somme, l'AI Act incarne une vision prudente mais ambitieuse de la régulation de l'intelligence artificielle, et ce en conjuguant protection des citoyens et encouragement à l’innovation. Elle s'affirme désormais comme un modèle de référence à l'échelle mondiale. 


Un Enjeu Sociétal et Éthique 

Au-delà des cadres législatifs, l’éducation et la sensibilisation se dessinent comme des piliers  indispensables pour appréhender l’essor des technologies émergentes. 

Ce défi, à la croisée de l’éthique, du droit et de la technologie, exige une adaptation rapide et proactive. Face à des innovations qui redéfinissent notre société, il est temps d’agir, non seulement pour légiférer, mais également pour anticiper et guider ces évolutions. 

Enfin, si vous restez dubitatif face à l’importance de ces enjeux, posez-vous une question : comment savoir si ce texte n’a pas lui-même été conçu par une intelligence artificielle ? Voilà bien l’essence du problème : des outils qui modifient subtilement notre réalité et qui, faute d’une vigilance collective, pourraient redéfinir nos sociétés avant même que nous n’ayons eu le temps de les encadrer.  


Colin Heinen.





Éthique, algorithme et droit
Colin Heinen 7 mai 2025
Partager cet article
Archive