DeepNude, l'appli "fake porn" qui ne passe (vraiment) pas

DeepNude, l'application qui déshabillait les femmes. Getty Images.
DeepNude, l'application qui déshabillait les femmes. Getty Images.
Une semaine après son lancement, l'application DeepNude vient d'être retirée du marché. La raison ? Son nom donne déjà un petit indice.
A lire aussi

Comment exploiter au mieux une intelligence artificielle ? Les créateurs de l'application estonienne DeepNude ont la réponse : en s'en servant pour générer des nus aléatoires. L'utilisateur n'a qu'à joindre la photographie de celle qu'il désire voir dans le plus simple appareil. L'appli se charge ensuite de la déshabiller virtuellement en puisant dans son stock massif de modèles dénudés. Le montage qui en émane est ce que l'on appelle un "fake porn" : un montage pornographique (vidéo ou photo) créé par le biais d'un système de reconnaissance et de reconstitution d'images perfectionné, ajustant la morphologie d'une personne "réelle" au corps d'une autre - le plus souvent, une actrice X. De cette fabrication plus ou moins réaliste découle une illusion esthétique, et, surtout... une source inépuisable de fantasmes.

Mais aussi, on s'en doute, une certaine idée du paradis pour les mecs (et les exs) les plus malveillants. C'est d'ailleurs pour cela que l'application a finalement été supprimée par ses propres instigateurs, moins d'une semaine après sa création. Et ce n'est peut être pas trop tôt : en sept jours à peine, DeepNude comptait pas moins de 500 000 utilisateurs - pour plus de vingt mille "followers" sur les réseaux sociaux. Un succès qui a de quoi susciter l'inquiétude. Dépassés par cette soudaine viralité - et tout ce qu'elle pourrait impliquer - les créateurs ont exprimé sur Twitter leur crainte du "risque d'abus" et leur refus "de gagner de l'argent comme ça".

"Le monde n'est pas prêt pour DeepNude"

Mais pas sûr que la leçon soit bien comprise pour autant. Sur Twitter, les mêmes instigateurs présentent leur création tech comme "le super-pouvoir que vous avez toujours voulu avoir". Dans un tweet plus récent, ils se permettent un tout aussi ambiguë "Le monde n'est pas prêt pour DeepNude".

L'application a beau être désactivée, le simple fait qu'elle ait été lancée sur le marché et minutieusement pensée par des développeurs suffit déjà à nous déprimer. Car on se demande bien quel "super-héros" digne de ce nom jouirait de pouvoir déshabiller Taylor Swift, ou, pourquoi pas, sa voisine et sa collègue de bureau. User de ces nudes pour la harceler serait alors une option comme une autre. C'est là la base du "revenge porn", ce "chantage au montage pornographique" condamné par la loi.

"Y'a des femmes qui militent pour qu'on ait le droit d'être topless dans les rues et se font poursuivre en justice et t'as des hommes ils créent une appli pour déshabiller les femmes sans leur consentement", déplore une internaute. Difficile d'imaginer "une fin bienveillante à voir des femmes nues sans leur consentement, même sur base de photo", s'indigne une autre, qui se demande "ce qu'il se passe dans le cerveau des créateurs au moment du projet". Du côté de The Guardian, on envisage l'appli comme un simple prétexte pour "contrôler et humilier les femmes". C'est effectivement compliqué d'y voir autre chose que cela. Et encore moins un "super pouvoir", tant DeepNude est en vérité la démonstration de la lubricité la plus ordinaire.