Source : The Atlantic, Franklin Foer, 09-04-2018
La manipulation numérique de la vidéo peut faire en sorte que l’ère actuelle des « fausses nouvelles » (Fake News) semble vieillotte
Edmon de Haro
Dans un sombre recoin de l’internet, il est possible de trouver des actrices de Game of Thrones ou d’Harry Potter engagées dans toutes sortes d’actes sexuels. Ou du moins pour le monde, les formes charnelles ressemblent à ces actrices, et les visages des vidéos sont bien les leurs. Tout ce qui se trouve au dessous du cou appartient à des femmes différentes. Une intelligence artificielle a presque cousu sans couture les visages familiers dans des scènes pornographiques, un visage échangé pour un autre. Le genre est l’une des formes les plus cruelles et les plus envahissantes de vol d’identité inventées à l’ère d’Internet. Au cœur de la cruauté se trouve l’acuité de la technologie : un observateur occasionnel ne peut pas facilement détecter le canular.
Ce développement, qui a fait beaucoup agité la presse technique, est l’œuvre d’un programmeur qui porte le nom de hack « Deepfakes ». Et ce n’est qu’une version bêta d’un projet beaucoup plus ambitieux. L’un des compatriotes de Deepfakes a déclaré au site Motherboard de Vice en janvier qu’il a l’intention de démocratiser son travail. Il veut affiner le processus, l’automatiser davantage, ce qui permettrait à n’importe qui de transposer la tête désincarnée d’un coup de cœur, d’un ex ou d’un collègue de travail dans un clip pornographique existant en quelques étapes simples. Aucune connaissance technique ne serait nécessaire. Et parce que les laboratoires universitaires et commerciaux mettent au point des outils encore plus sophistiqués à des fins non pornographiques – des algorithmes qui cartographient avec précision les expressions faciales et imitent les voix – les faux sordides vont bientôt acquérir une vraisemblance encore plus grande.Lire la suite
Source