top of page

Quand l’image ment : comprendre les fausses images et les deepfakes


Il n’a jamais été aussi facile de fabriquer une image ou une vidéo… et il n’a jamais été aussi difficile de savoir si ce qu’on voit est vrai. Avec l’explosion des outils d’intelligence artificielle, de nouvelles formes de manipulation visuelle ont vu le jour — certaines inoffensives, d’autres dangereuses.


Bienvenue dans l’ère des fausses images et des deepfakes.


Les fausses images : un phénomène ancien, amplifié par l’IA


La manipulation d’images ne date pas d’hier. Dès le début de la photographie, on retouchait déjà les clichés pour embellir ou falsifier la réalité.

La nouveauté ? La vitesse et la facilité.


Aujourd’hui, quelques secondes suffisent pour :


  • Changer le ciel d’une photo.

  • Ajouter ou enlever des personnes.

  • Créer un paysage qui n’existe pas.


Et grâce aux générateurs d’images par IA (Midjourney, DALL·E, Stable Diffusion), on peut inventer de toutes pièces une image hyperréaliste… sans appareil photo.


Les deepfakes : quand la vidéo devient un mensonge crédible


Le mot deepfake vient de deep learning (apprentissage profond) et fake (faux).

Il désigne des vidéos ou enregistrements audio où l’on remplace le visage ou la voix d’une personne par ceux d’une autre, à l’aide de l’IA.


Exemples concrets :


  • Faire dire à un politicien des propos qu’il n’a jamais tenus.

  • Créer de fausses vidéos intimes à partir d’images volées.

  • Recréer un acteur décédé pour un film.


Les deepfakes peuvent être utilisés pour l’art et l’humour, mais aussi pour la désinformation, la fraude et le harcèlement.


Des chiffres qui donnent le vertige



  • ~34 millions d’images générées par IA chaque jour dans le monde.

  • >100 000 images et vidéos pornographiques deepfake diffusées chaque jour, le plus souvent sans consentement.

  • +550 % : croissance des deepfakes détectés depuis 2019.


Comment repérer un contenu falsifié


Pour les images :


  • Ombres incohérentes.

  • Mains, yeux ou détails déformés.

  • Logos ou textes flous.


Pour les vidéos deepfake :


  • Clignements étranges.

  • Décalage lèvres/voix.

  • Flou ou halos autour du visage.


Se protéger et vérifier


  • Chercher la source : d’où vient l’image/vidéo ?

  • Utiliser la recherche inversée (Google Images, TinEye).

  • Analyser avec des outils spécialisés (Sensity AI, Deepware Scanner).

  • Ralentir la lecture vidéo pour repérer les anomalies.


Vers un futur plus critique


La technologie ne cesse d’évoluer. Ce qui est vrai aujourd’hui pourrait être indétectable demain.

Face à ce défi, notre meilleure défense reste l’esprit critique et la vérification des sources.


Dans un monde où l’image peut mentir, la vigilance devient un réflexe vital.


Et vous ? Avez-vous déjà été trompé par une image ou une vidéo ? Partagez votre expérience si le cœur vous en dit! Soyons vigilants et créons des contenus humains et originaux! 🫶😃


Janick


ree

 
 
 

Commentaires


S'abonner à l'infolettre

Merci pour votre envoi !

© Janick Laberge

bottom of page