Comment lutter contre les deepfakes porn, ces montages obscènes qui pullulent sur le Net ?

Publié le Jeudi 01 Décembre 2022
Maïlis Rey-Bethbeder
Par Maïlis Rey-Bethbeder Rédactrice
Maïlis Rey-Bethbeder aime écrire, le café, traîner sur les réseaux sociaux et écouter de la musique. Sa mission : mettre en lumière les profils, les engagements et les débats qui agitent notre société.
11 photos
Lancer le diaporama
Les deepfake porn, montages mettant en scène une personne dans des vidéos ou des photos pornographiques, ont envahi les réseaux sociaux. Et les femmes sont les premières victimes de ces cyber-délits, qui peinent encore à être punis.
À lire aussi

"Je suis fatiguée et il est temps que je vous explique". Fin octobre, la streameuse Maghla pointait dans un long thread Twitter toute la violence qu'elle subit en tant que femme active (et médiatiquement exposée) sur le service de streaming vidéo Twitch. Cyberharcèlement de masse et dickpics non sollicitées font ainsi partie de son quotidien.

Mais son cauchemar ne s'arrête pas là : Maghla dénonçait au détour de l'un de ses tweets la manipulation de son image à des fins pornographiques. "Il y a des montages sur des corps d'actrices porno", écrit-elle, précisant qu'elle n'est pas la seule femme visée par ces trucages. "Il y a des discords dédiés [des espaces de messagerie instantanée sur le serveur Discord; ndlr] aux faux 'nudes' et des mecs qui se br*nlent sur les streameuses avec partages de captures d'écran de lives et des faux montages".

96% des deep fakes sont des clips pornographiques visant les femmes

Maghla se dit victime de deepfake porn, véritable fléau apparu sur le web ces dernières années. Si sa définition juridique reste floue, le deepfake est, selon Laure Landes-Gronowski, avocate spécialisée dans le droit des technologies de l'information et de la protection des données personnelles, contactée par Terrafemina, "l'utilisation d'images, de vidéos ou de données d'une personne, pour en faire un montage quel qu'il soit, généralement à l'aide de logiciels d'intelligence artificielle, pour que cela paraisse le plus réel possible". Selon elle, les deep fakes porn sont donc "des deepfakes à caractère pornographique".

Les deep fakes porn sont donc "des deepfakes à caractère pornographique"
Les deep fakes porn sont donc "des deepfakes à caractère pornographique"

Une étude publiée en 2019 par la société de détection des fraudes Sensity AI révélait que 96 % de tous les deepfakes en ligne étaient des clips pornographiques ciblant les femmes, et prédisait que ce nombre "continuerait à grandir si aucune action décisive n'est prise".

Mais la multiplication de ces cyber-délits paraît malheureusement difficile à endiguer, d'autant qu'ils sont extrêmement faciles à commettre. "Ce sont des pratiques qui ont vocation à s'accentuer du fait du développement des technologies, de la maîtrise par des internautes lambdas de ces technologies, et de la protection de leur anonymat", analyse Laure Landes-Gronowski.

Preuve en est : il suffit de taper "deepfakes porn" sur un moteur de recherche pour voir s'afficher dès les premiers résultats une flopée de sites répertoriant de nombreux montages pornographiques...

Que dit la loi ?

En France, plusieurs textes peuvent être saisis pour punir le deepfake porn. L'article 226-8 du code pénal précise qu'est "puni d'un an d'emprisonnement et de 15 000 euros d'amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention".

"On peut invoquer l'article 226-4-1 du code pénal, relatif à l'usurpation d'identité, qui est puni d'un an d'emprisonnement et de 15 000 euros d'amende", indique Sylvie Jonas, avocate experte dans la prévention et la gestion de la cybercriminalité.

En France, plusieurs textes peuvent être saisis pour punir le deepfake porn
En France, plusieurs textes peuvent être saisis pour punir le deepfake porn

Si les deepfakes porn peuvent être punis par la loi, dans les faits, il peut être extrêmement compliqué de remonter jusqu'à leurs auteurs. Lorsqu'ils sont partagés sur les réseaux sociaux, ces trucages pornographiques circulent extrêmement rapidement et humilient les victimes à grande échelle, sans qu'elles ne puissent être certaines que ces montages ont été totalement effacés d'Internet.

L'article 6 de la loi pour la confiance dans l'économie numérique (dite "LCEN") précise néanmoins que les hébergeurs (des plateformes comme Facebook, Instagram, mais aussi Reddit et Discord, où les deepfakes s'échangent facilement) ont la responsabilité de retirer ou de rendre impossible "promptement" l'accès à ces montages dès lors qu'ils en ont connaissance, et l'obligation de proposer à leurs utilisateur·ice·s des manières de signaler ces comportements.

"Travailler sur les délais"

Le mot "promptement" fait tiquer Sylvie Jonas. "Travailler sur les fameux délais dont disposent les plateformes, pourquoi pas en communiquant davantage sur le sujet, pourrait permettre d'accélérer la prise en charge des victimes", suggère l'avocate.

"Vous avez dans certains cas des plateformes qui, soit par méconnaissance du texte, soit parce qu'elles n'en ont pas grand chose à faire, ne répondent pas à ce genre de demande. Dans ce cas, ce n'est pas une question de délais. Il faut trouver un moyen pour leur imposer de le faire", déclare Laure Landes-Gronowski.

Des brigades spécialisées dans la cyber-criminalité peuvent aussi être mobilisées, comme la la Brigade de lutte contre la cybercriminalité (BL2C).

Des brigades spécialisées dans la cyber-criminalité peuvent aussi être mobilisées, comme la la Brigade de lutte contre la cybercriminalité (BL2C)
Des brigades spécialisées dans la cyber-criminalité peuvent aussi être mobilisées, comme la la Brigade de lutte contre la cybercriminalité (BL2C)

"Malheureusement ces cellules ne sont pas toujours saisies lorsque vous déposez une plainte au commissariat de votre commune. Les informations ne remontent pas toujours jusqu'à elles", précise Laure Landes-Gronowski. Cette brigade, centralisée et nationale, ne pourrait de toute façon malheureusement pas se saisir de tous les dossiers. Pour l'avocate, plus globalement, "former les services de police et de gendarmerie sur ce type d'enquête" permettrait de mieux prendre en charge les victimes de deepfake porn.

"Montrer les ravages que cela peut faire dans une vie"

Enfin, les victimes ont la possibilité de déposer une plainte auprès du procureur de la République. Une démarche qui peut avoir "plus d'impact", assure Laure Landes-Gronowski, si la plainte est bien rédigée. "Le procureur peut ensuite décider de poursuivre et de saisir les services compétents pour pouvoir enquêter sur le sujet", explique l'avocate.

Elle insiste sur la prévention de ces délits auprès du public et sur la nécessité d'accompagner les victimes. "Il faudrait sensibiliser les citoyens sur le sujet, pour montrer les ravages que cela peut faire dans une vie et dire aux victimes d'en parler, de ne pas rester seules, de déposer plainte et de se faire accompagner sur le sujet", conclut l'avocate.

Au-delà des auteurs de deepfake porn, se pose la responsabilité de ceux qui "consomment" et qui diffusent ces contenus. Au Royaume-Uni, le gouvernement devrait ainsi officiellement interdire en décembre le partage de deepfakes pornographiques créés sans le consentement des personnes qu'ils imitent. Les auteurs risqueront notamment des peines de prison. De quoi inspirer la France ?