change language     -         


L'IA fait basculer le fake porn dans une nouvelle ère

December 23, 2017, 9:11 am

Type: SCIENCE_TECHNOLOGIE

       




news_image

Quelqu'un a utilisé un algorithme de machine learning pour copier-coller le visage de l'actrice Gal Gadot sur celui d'une performeuse X.


 

Vous avez vu la vidéo de Gal Gadot qui couche avec son demi-frère ? Elle traîne sur Internet depuis quelques temps. Ce n’est juste pas le corps de Gal Gadot. Ce n’est presque pas son visage non plus, d’ailleurs. C’est une expérience, une approximation, un face-swap conçu pour donner l’illusion que l’actrice israélienne a vraiment tourné dans une vidéo pornographique fauxcest.

Les images en question ont été créées à l’aide d’un algorithme de machine learning. La mauvaise nouvelle, c’est que n’importe quel individu doté d’un minimum de connaissances dans le domaine du deep learning aurait pu bricoler cette formule dans son coin. Le code nécessaire est accessible en open-source.

 

Le spectateur attentif remarquera rapidement que quelque chose cloche dans la vidéo. Par moment, le visage ne “s’accroche” pas correctement à la tête. Du coin de l’oeil, par contre, ça passe.

Le plus frappant, c’est que tout ceci est l’oeuvre d’un seul individu. Deepfakes - c’est son pseudonyme sur Reddit - n’a pas eu besoin de l’aide d’un studio d’effets spéciaux de pointe pour créer sa Gal Gadot artifcielle : il s’est contenté d’outils de machine learning open-source comme TensorFlow, une bibliothèque logicielle distribuée gratuitement par Google.

Comme cet outil Adobe qui permet de faire dire n’importe quoi à n’importe qui ou l’algorithme Face2Face, ce genre de fake montre que nous sommes sur le point de basculer dans un univers où rien n’est plus facile que fabriquer des vidéos complètement truquées.

Pour le moment, deepfakes a appliqué sa méthode à Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza et Gal Gadot. Les résultats de toutes ses expériences sont disponibles sur Reddit. Motherboard a signalé l’existence de ces vidéos aux personnes et entreprises qui représentent les actrices concernées. En cas de retour, cet article sera mis à jour.

Les montages pornographiques de personnalités forment un genre ancien et populaire. Le subreddit sur lequel deepfakes poste ses créations compte plus de 40 000 membres. Beaucoup sont fans de son travail ; certains vont même jusqu’à le décrire comme annonciateur d’une nouvelle ère du fake porn.

 

Contacté par Motherboard, deepfakes a refusé de dévoiler sa véritable identité par crainte de l’opinion publique mais il accepté de nous en dire plus sur ses outils. Son logiciel est basé sur plusieurs librairies logicielles open-source comme Keras et TensorFlow. Pour compiler le visage des célébrités qui l’intéressent, il utilise la recherche par image de Google, des stock photos et des vidéos YouTube.

Les systèmes de deep learning reposent sur des réseaux de noeuds conçus pour “digérer” les informations qui lui sont fournies, l’input. (Dans ce cas précis, Deepfakes a entraîné l’algorithme à l’aide de vidéos X et d’images du visage de Gal Gadot.) À force d’input, les noeuds s’organisent pour accomplir au mieux une tâche particulière : reconnaître des visages, des objets, manipuler de la vidéo en direct…

Contacté par mail, le chercheur en intelligence artificielle Alex Champandard a indiqué à Motherboard qu’une bonne carte graphique grand public suffisait pour ce genre de tâche. À l’en croire, même un processeur pourrait faire le travail. “Tout ceci n'est vraiment pas sorcier”, a-t-il ajouté.

La méthode de deepfakes est inquiétante de facilité. Au-delà de son aspect technique, elle ne demande rien d’autre qu’un nombre suffisant d’images de la personne à faker. Quand on sait que les humains ont uploadé 24 milliards de selfies sur Google Photos entre 2015 et 2016, on n’a pas de mal à imaginer que le programmeur-amateur qui créera votre sextape sans vous est déjà né.

 

Deepfakes nous a affirmé qu’il n’était pas un chercheur professionnel, juste un programmeur qui s’intéresse au machine learning.

“J’ai juste trouvé une manière astucieuse de faire du face swap, affirme-t-il à propos de son algorithme. Avec des centaines d’images de visage, je peux facilement générer des millions d’images déformées pour entraîner le réseau. Après ça, si je mets le visage de quelqu’un d’autre dans le réseau, il va essayer de le modifier pour qu’il ressemble au visage avec lequel il a été entraîné.”

Au détour d’un fil de commentaires sur Reddit, deepfakes affirme qu’il utilise un algorithme similaire à celui qu’utilisent les chercheurs de Nvdia pour transformer instantanément une scène estivale en scène hivernale, entre autres. Les chercheurs de Nvidia qui ont développé cet algorithme ont refusé de commenter ses applications éventuelles pour Motherboard.

Presque toutes les images diffusées par deepfakes sont imparfaites. Dans la vidéo de Gal Gadot, une boîte apparaît parfois autour du visage de l’actrice - c’est l’image originale qui ressurgit. Ses yeux et sa bouche ne cadrent pas toujours avec les mots prononcés par l’actrice. Ceci dit, en plissant un peu les yeux, on pourrait se laisser convaincre. D’autres vidéos de deepfakes sont encore plus convaincantes.

L’actrice pornographique Grace Evangeline nous a expliqué que les performeurs X étaient habitués à voir leurs images partagées sans leur accord sur des tubes gratuits comme SendVid, où la vidéo de Gal Gadot a été uploadée. Elle nous a aussi dit que tout ça était différent et qu’elle n’avait jamais rien vu de tel.

 

“Il y a un truc important qui doit toujours être présent, le consentement, insiste Evangeline. Ça marche pour la vie privée comme pour les plateaux. Faire des scènes pornographiques fake sans le consentement des personnes concernées, c’est mal.”

Même les personnes qui gagnent leur vie face caméra ont du mal à tolérer qu’on viole leur intimité. Nous avons montré la vidéo de Gal Gadot à Alia Janine, une actrice qui a travaillé 15 ans dans l’industrie du X avant de prendre sa retraite. “C’est vraiment perturbant, nous a-t-elle déclaré par téléphone. Ça montre à quel point certains hommes ne voient les femmes que comme des objets qu’ils peuvent manipuler pour leur faire faire tout ce qu’ils veulent… Ça dénote un manque de respect total pour les performeuses et pour les actrices concernées.”

Nous avons demandé à deepfakes s’il se souciait des questions éthiques soulevées par son travail. Le consentement, le revenge porn et le chantage l’avaient-ils inquiété pendant qu’il développait l’algorithme ?

“Toute technologique peut être utilisé à des fins de nuisance, c’est impossible de lutter contre ça”, nous a-t-il répondu en traçant un parallèle entre son logiciel et la technologie qui a été utilisée pour façonner la performance posthume de Paul Walker dans Furious 7. “La grosse différence, c’est la facilité d’accès. Je ne pense pas que ce soit une mauvaise chose que les gens normaux puissent se lancer dans la recherche en machine learning.”

 

Pour Champandard, deepfakes pose un “énorme” défi éthique. Et si l’utilisation de la technologie à des fins malveillantes est impossible à empêcher, elle peut tout à fait être combattue.

“Nous devons avoir un débat public à ce sujet, a-t-il déclaré. Tout le monde doit savoir à quel point il est facile de créer des photos et des vidéos truquées et qu’il sera impossible de les distinguer d’images originales d’ici quelques mois. Bien sûr, tout ceci est possible depuis longtemps, mais seulement au prix de ressources conséquentes et d’une main d’oeuvre qualifiée. Désormais, cela peut être fait par un seul programmeur derrière un ordinateur récent.”

Champandard pense que les chercheurs peuvent commencer à développer des techniques de détection de vidéos truquées dès maintenant. Il soutient aussi qu’Internet pourrait s’adapter pour gérer au mieux les événements déclenchés par ce genre d’images.

“D’une certaine manière”, c’est une bonne chose, explique-t-il. “Nous devons nous employer à transformer notre société pour qu’elle soit capable de gérer tout ça.”


Source de l'article: Motherboard



allnews_image

Le ministère de l’Agriculture (USDA) et la Food and Drug Administration (FDA) américains viennent d’annoncer leur intention de superviser la production de viande cultivée en laboratoire, de manière à pouvoir être vendue en toute sécurité aux consommateurs

Lire l'article



allnews_image

Une équipe de chercheurs annonce avoir mis au point une méthode utilisant la carbonisation hydrothermale dans un « autocuiseur », pour transformer les excréments humains en combustibles. Les détails de l’étude sont publiés dans le Journal of Cleaner Produ

Lire l'article


allnews_image

La demande généralisée des consommateurs de produits en plastique exempts de bisphénol-A (BPA), substance chimique contenant des perturbateurs endocriniens, a conduit à des changements positifs et importants dans la fabrication des récipients alimentaires

Lire l'article


allnews_image

Dans la baie de San Francisco, la pollution causée par le Camp Fire, qui sévit à plusieurs centaines de kilomètres, a dépassé les niveaux observés en Inde ou en Chine.

Lire l'article


allnews_image

Dans son dernier ouvrage*, Marc Chesney dresse un parallèle entre la Première Guerre mondiale et la crise financière de 2008. Pour le professeur de finance de l’Université de Zurich, une société civilisée vacille dans les deux cas. Aujourd’hui, une aristo

Lire l'article



allnews_image

Emmanuel Macron a annoncé lundi, lors d’un discours au Forum sur la gouvernance de l’Internet, la création d’un groupe de travail composé d’employés de Facebook et de membres issus d’autorités françaises. Une première.

Lire l'article


allnews_image

Des chercheurs américains sont parvenus à mettre au point une technique d’espionnage en utilisant le wifi. Il s’agit de voir les mouvements d’un individu à travers les portes, par le biais d’un simple smartphone équipé d’un algorithme.

Lire l'article


allnews_image

Nous avons demandé à un physicien et un philosophe d’expliquer ce qu'est le rien, et c’est vraiment quelque chose.

Lire l'article


allnews_image

Nous mangeons de nombreux céphalopodes tels que les poulpes, les calamars ainsi que les seiches. Délicieux mais également bons pour la santé et l’environnement, ces animaux marins ont également la réputation d’être très intelligents. Faut-il réellement s’

Lire l'article


allnews_image

Ce n’est ni une « fake news » ni une farce : lundi dernier, des délégués de l’ONU ont louangé le royaume islamiste. À lire.

Lire l'article


allnews_image

L’autorité garante de la concurrence a estimé que ces sociétés étaient coupables de "pratiques commerciales malhonnêtes" à l’issue d'une enquête.

Lire l'article


allnews_image

Derrière les États-Unis et la Russie, la France a exporté pour 5 milliards de dollars (4,1 milliards d'euros) d'armes.

Lire l'article




allnews_image

Le ministre de l'Action et des Comptes publics a annoncé la mise en place prochaine d'une expérimentation sur le plateau de l'émission "Capital".

Lire l'article


allnews_image

Avec la légalisation du cannabis qui s’en vient très rapidement, il faudra s’attendre à en voir de toutes les couleurs et en fait, c’est déjà commencé! En effet, voilà qu’une compagnie située à Toronto est à la recherche d’amateurs de cannabis afin de pro

Lire l'article


allnews_image

POUR UNE JOURNÉE DE RÉSISTANCE SIMULTANÉE, SANS FRONTIÈRES, LE 10 DÉCEMBRE 2018 contre le durcissement du capitalisme et de la société autoritaire

Lire l'article


allnews_image

Cela fait plus d’un mois qu’un étrange nuage est apparu sur Mars. Long de 1 500 kilomètres, il est accroché au deuxième plus gros volcan de la planète rouge.

Lire l'article