Vous utilisez un navigateur obsolète !

L'affichage de la page peut être incorrect.

Persona (non) grata

Persona (non) grata

D'autres publications de cette rubrique (10)
  • Ajouter aux favoris
    Ajouter aux favoris

Conservez votre tête

Lu par: 953 Commentaires: 4 Cote de popularité: 8

Nos ancêtres n’avaient pas besoin de Photoshop pour les photos de médecins sur lesquelles la tête d’une personne est attachée au corps d’une autre. Ni les artistes qui ont utilisé ces astuces depuis l’antiquité. Mais pendant un certain temps, il fallait des compétences exceptionnelles pour créer de fausses images semblant réelles – même après l’apparition de logiciels d’images. Tout change et le machine learning permet à un utilisateur novice d’accomplir des choses qu’il ne pouvait envisager qu’en rêve auparavant.

Un utilisateur de Reddit nommé DeepFakes a formé des réseaux neuronaux pour générer des vidéos pornographiques « avec » des célébrités.

La technologie Face2Face remplace le visage de l’acteur en temps réel.

Pour créer ces vidéos, l’auteur utilisait des manuels accessibles au public et des structures de machine learning comme TensorFlow que Google fournit gratuitement aux chercheurs, aux étudiants de troisième cycle et à tout utilisateur intéressé par le machine learning.

https://habrahabr.ru/post/346478

Naturellement, n’importe qui peut utiliser la technique. Et bien sûr, ces vidéos ne peuvent être considérées comme des preuves dans une investigation criminelle : elles semblent authentique à première vue, mais les clips contiennent des distorsions et le suivi des visages ne fonctionne pas correctement, cependant, un œil non entraîné aura du mal à repérer un faux.

Et le système peut être utilisé par des individus peu scrupuleux pour nuire à la réputation de quelqu’un. Par exemple, deux personnes se querellent et le lendemain matin, une vidéo les montrant nues apparaît sur les réseaux sociaux. La résolution est basse et des distorsions ont été délibérément apportées – qui va réaliser que les têtes et les corps appartiennent à des personnes différentes ?

Sincèrement, nous ne pensions pas écrire sur ce sujet. Après tout, cela n’a pas grand-chose à voir avec la sécurité informatique et les faux existent sur Internet depuis longtemps. Mais la technologie gagne en popularité et c’est pourquoi nous pensons qu’il est de notre devoir d’alerter nos lecteurs.

Il y a deux mois, Motherboard a contacté Peter Eckersley, Directeur de recherche informatique à la Fondation Electronic Frontier, pour discuter de l’impact possible de la technologie sur la vie quotidienne des gens. « Vous pouvez créer de fausses vidéos avec des réseaux neuronaux aujourd’hui, mais les gens seront capables de vous dire que vous avez fait cela en regardant de très près, et certaines techniques utilisées restent assez avancées. Cela ne va pas rester vrai plus d’un an ou deux », affirmait Peter Eckersley.

Manifestement, deux mois ont été plus que suffisants. De nouveaux clips porno « avec » Jessica Alba et Daisy Ridley sont apparus sur Reddit – la qualité de ces vidéos est de loin supérieure à celles sorties en décembre.

En réalité, les clips étaient si convaincants que les sites montrant des photos de célébrités nues les ont considérés comme authentiques. Une fausse vidéo d’Emma Watson prenant une douche a été mise en ligne sur l’un des plus populaires de ces sites et était accompagnée de cette légende : « Cette vidéo jamais vue auparavant appartient à ma collection privée ». En réalité, Emma Watson n’avait rien à voir avec cette vidéo, excepté qu’une photo de son visage avait été utilisée sans son consentement.

L’application, conviviale, permet à tout le monde de créer de fausses vidéos allant d’un clip montrant une ancienne petite amie pour se venger jusqu’à l’utilisation de l’image d’un homme politique pour lui faire dire ce que veut le créateur de la vidéo.

https://motherboard.vice.com/en_us/article/bjye8a/reddit-fake-porn-app-daisy-ridley

Est-ce qu’un faux peut être démasqué ? Oui, c’est toujours possible mais:

Lorsque vous apprenez des choses dans le domaine de l’analyse de l’authenticité d’images, vous réalisez qu’il existe toujours un moyen de contourner les techniques utilisées pour révéler les faux. Certaines peuvent être facilement contournées via la compression JPEG. Dans d’autres cas, la correction des couleurs, le floutage, le redimensionnement de l’image ou sa rotation feront l’affaire. Lorsque des productions magazine ou TV sont converties au format digital, des erreurs surviennent également, ce qui complique toujours l’analyse. Et c’est là que vous commencez à comprendre qu’une image a pu être déformée dans Photoshop de telle façon qu’il sera difficile de prouver que c’est un faux.

http://vas3k.ru/blog/390

Dr.Web recommande :

Sachez que ces techniques existent. Et ne tombez pas dans un piège.

Evaluez les publications et recevez des Dr.Webonus ! (1 voix = 1 Dr.Webonus)

Authentifiez-vous et recevez 10 Dr.Webonus pour un lien vers une publication du projet dans un réseau social.

[Twitter]

En raison de limitations techniques liées aux réseaux sociaux Vk et Facebook, nous ne pouvons malheureusement pas vous offrir de DrWebonus. Mais vous pouvez partager gratuitement le lien vers cette publication.

Nous apprécions vos commentaires

10 Dr.Webonus pour un commentaire publié le jour de la sortie d’une news ou 1 Dr.Webonus un autre jour. Les commentaires sont automatiquement publiés et modérés après. Règles de commentaires de news sur le site de Doctor Web.

Pour laisser un commentaire, vous devez accéder au site via votre compte sur le site de Doctor Web. Si vous n'avez pas de compte, vous pouvez le créer.

Commentaires des utilisateurs