Points clés
- Les outils d’imagerie artificielle ont fait passer le monde des fantasmes sexuels à celui de la réalité sexuelle.
- Les victimes de deepfake porn ont peu ou pas de recours car le deepfake porn n’est pas illégal.
- Une fois que l’imagerie « deepfake » est diffusée sur l’internet, elle y reste presque toujours.

Jack s’installe devant son ordinateur portable et ouvre le programme d’imagerie artificielle connu sous le nom de Dall-E. Il entre une photo de lui et quelques mots au hasard – fleurs bleues et toit. Il saisit une photo de lui et quelques mots au hasard – fleurs bleues et toit. Dall-E crée alors une image réaliste de Jack debout sur un toit, entièrement vêtu de fleurs bleues. C’est drôle. Cela le fait rire. Il la publie sur Instagram s’il le souhaite, ou bien il l’efface et crée quelque chose d’autre.
En plus d’être très amusant, Dall-E et les programmes similaires sont utiles pour les graphistes, les publicitaires et même les artistes qui travaillent dans le domaine des médias numériques. Mais l’imagerie numérique présente un inconvénient. Il s’agit de la deepfake pornography.
Une étude publiée dans la revue Cyberpsychology, Behavior, and Social Networking définit l’imagerie deepfake comme du « matériel synthétisé dans lequel le visage d’une personne est superposé à un autre corps » .L’article ajoute : « La plupart des deepfakes trouvés en ligne sont pornographiques, et les personnes qui y sont représentées consentent rarement à leur création et à leur diffusion. »
La technologie Deepfake n’est pas un phénomène nouveau. Depuis plusieurs décennies, des gens coupent et collent la tête d’une personne sur le corps d’une autre et publient les résultats en ligne. Mais jusqu’à récemment, la technologie utilisée pour ce faire ne trompait pas vraiment les gens. Les faux étaient généralement évidents. Ce n’est plus le cas aujourd’hui.
Comme l’indique un article de l’International Journal of Evidence and Proof, « àterme, à mesure que la technologie s’améliorera, des technologies parallèles devront être développées et utilisées pour identifier et démasquer les vidéos truquées« . Cela signifie qu’à l’heure actuelle, les deepfakes bien produits peuvent facilement passer pour réels.
Autrefois, l’imagerie artificielle haut de gamme était l’apanage des maîtres des effets spéciaux hollywoodiens. Mais aujourd’hui, avec des technologies comme Dall-E, Lensa, et même les applications relativement peu sophistiquées d’échange de visages sur Google et Apple, elle est devenue à la fois gratuite et facile à utiliser. Pratiquement n’importe qui peut désormais produire du contenu sexuellement explicite sans le consentement ou la connaissance des personnes concernées.
Si cela ne vous effraie pas, vous devriez le faire. Car il est tout à fait possible que vous ouvriez votre courrier électronique en dégustant votre café au lait un beau matin et que vous tombiez sur une photo pornographique de vous que vous n’avez jamais prise ou à laquelle vous n’avez jamais consenti. Ou peut-être cette photo sera-t-elle envoyée à votre famille ou à votre employeur, ou tout simplement publiée sur des sites pornographiques dans le monde entier.
La pornographie « deepfake » peut constituer un énorme problème pour les victimes. Prenons l’exemple d’un article paru dans la Vanderbilt Law Review: « Non seulement la deepfake pornography brise l’intimité sexuelle des victimes, mais sa permanence en ligne entrave également leur capacité à [se sentir en sécurité sur] l’internet et à trouver [ou conserver] un emploi. » Kristen Zaleski, directrice de la santé mentale légale à la Keck Human Rights Clinic de l’USC, a récemment déclaré au Washington Post qu’elle travaillait avec une institutrice qui a perdu son emploi après que les parents et les administrateurs ont appris l’existence d’une fausse pornographie utilisant son image.
On ne sait pas si les images ont été créées et postées par un ex-petit ami en colère, un élève mécontent ou même un parfait inconnu qui a vu le visage de l’institutrice sur les médias sociaux et voulait le voir associé à un corps nu, et on ne le saura probablement jamais. Ce que nous savons, c’est qu’une institutrice innocente a été sexualisée de manière très publique, sans son consentement, avec de graves conséquences pour elle et aucune conséquence pour l’auteur de l’acte.
Et devinez quoi ? Elle et les autres victimes de deepfake porn ont peu ou pas de recours parce que le deepfake porn n’est pas illégal. Certes, les États-Unis ont adopté l’initiative nationale sur l’intelligence artificielle en 2021, mais il s’agit simplement d’une stratégie et non d’une partie de notre code pénal. D’autres gouvernements ont mis en place des cadres similaires, et l’Union européenne s’efforce de promulguer de véritables lois sur le deepfake, en particulier une législation interdisant les programmes d’imagerie artificielle qui présentent un « risque inacceptable ». Mais qu’entend-on par « risque inacceptable » ?
Sans parler du fait qu’il est pratiquement impossible de contrôler l’internet, car la technologie évolue sans cesse. C’est notamment le cas des technologies à caractère sexuel, car les développeurs créent presque quotidiennement de nouvelles façons d’être sexuel. Les auteurs de deepfakes (et de tout ce qui suivra) trouveront toujours des moyens d’agir dans l’anonymat tout en contournant les règles en vigueur à un moment donné. La législation et l’application de la loi ne peuvent tout simplement pas suivre le rythme.
C’est une mauvaise nouvelle pour les personnes victimes de cette technologie, dont la plupart sont des femmes. Une étude récente indique que 96 % des victimes de deepfake sont sexualisées, et presque toutes sont des femmes, bien que des hommes (en particulier des hommes politiques) et même des enfants aient également été abusés de cette manière. La même étude révèle que de nombreuses victimes sont harcelées ou extorquées sur la base de cette imagerie générée artificiellement.
Que cela nous plaise ou non, la pornographie générée artificiellement est désormais une réalité, et comme elle n’est pratiquement pas réglementée, tout le monde peut en être victime. De plus, la quantité de deepfake porno disponible a augmenté de façon presque exponentielle au cours des deux dernières années, grâce à la récente prolifération d’outils d’imagerie haut de gamme.
Le forum en ligne Reddit, connu depuis longtemps comme un havre pour tout ce qui est licite et illicite, comporte de nombreux fils de discussion consacrés à l’imagerie artificielle, avec des créateurs (et des aspirants créateurs) qui partagent des informations sur les programmes qui fonctionnent le mieux et sur la manière de les modifier pour qu’ils fonctionnent de manière à satisfaire le modèle d’excitation personnel de chacun. De plus, il y a bien sûr d’innombrables posts de deepfake à admirer, à commenter et à partager librement.
Pire encore, une fois que l’imagerie deepfake est diffusée sur l’internet, elle y reste presque toujours. Même si le créateur a des remords et supprime ses premiers messages, d’autres l’auront téléchargée et repostée. Et si, d’une manière ou d’une autre, ces images sont entièrement supprimées de l’internet, il suffit d’appuyer sur un bouton pour en générer d’autres.
Dans le monde d’aujourd’hui, les outils d’imagerie artificielle ont fait passer le monde des fantasmes sexuels à celui de la réalité sexuelle. C’est un fait. Cette transformation joue avec les vies et les émotions humaines de manière douloureuse. La technologie qui nous permet de fantasmer peut aussi être utilisée pour blesser : Une rupture difficile peut prendre une toute nouvelle dimension ; un inconnu peut commettre une violation sexuelle à des milliers de kilomètres de distance. Malheureusement, tout le monde est en danger. Même vous.

