La technologie Deepfake peut être amusante à utiliser, mais son potentiel de nuisance est important. Voici ce que l'avenir des deepfakes pourrait apporter.

Les signes révélateurs d'une image deepfake étaient faciles à repérer, mais l'IA générative nous fait remettre en question à peu près tout ce que nous voyons et entendons maintenant. Avec chaque nouveau modèle d'IA qui est publié, les signes révélateurs d'une fausse image diminuent, et pour ajouter à la confusion, vous pouvez désormais créer des vidéos deepfake, des clones vocaux de vos proches et fabriquer de faux articles en quelques clics secondes.

Pour éviter d'être trompé par les deepfakes de l'IA, il vaut la peine de savoir quel genre de dangers ils représentent.

L'évolution des deepfakes

Un deepfake montre une personne faisant quelque chose qui ne s'est jamais produit dans la vraie vie. C'est complètement faux. Nous rions des deepfakes lorsqu'ils sont partagés sur Internet sous forme de mème ou de blague, mais très peu de gens trouvent cela amusant lorsqu'ils sont utilisés pour nous induire en erreur.

instagram viewer

Dans le passé, les deepfakes étaient créés en prenant une photo existante et en la modifiant dans un logiciel de retouche d'image comme Photoshop. Mais ce qui distingue un deepfake d'IA, c'est qu'il peut être généré à partir de zéro à l'aide d'algorithmes d'apprentissage en profondeur.

Le Dictionnaire Merriam-Webster définit un deepfake comme :

Une image ou un enregistrement qui a été modifié et manipulé de manière convaincante pour représenter quelqu'un comme faisant ou disant quelque chose qui n'a pas été réellement fait ou dit.

Mais avec les progrès de la technologie de l'IA, cette définition commence à paraître obsolète. Avec l'utilisation d'outils d'intelligence artificielle, les deepfakes incluent désormais des images, du texte, des vidéos et le clonage de la voix. Parfois, les quatre modes de génération d'IA sont utilisés en même temps.

Parce qu'il s'agit d'un processus automatisé incroyablement rapide et peu coûteux à utiliser, c'est l'outil parfait pour produire deepfakes à un rythme que nous n'avons jamais vu auparavant, le tout sans avoir besoin de savoir quoi que ce soit sur la façon d'éditer des photos, des vidéos ou l'audio.

Les grands dangers des deepfakes d'IA

L'hôte de Générateurs vidéo IA existent déjà, aux côtés de nombreux Générateurs de voix IA. Jeter dans un grand modèle de langue comme GPT-4 et vous avez une recette pour créer les deepfakes les plus crédibles que nous ayons vus dans l'histoire moderne jusqu'à présent.

Être conscient des différents types de deepfakes d'IA et de la façon dont ils pourraient être utilisés pour vous tromper est un moyen d'éviter d'être induit en erreur. Voici quelques exemples sérieux de la façon dont la technologie deepfake d'IA constitue une menace réelle.

1. Usurpation d'identité par IA

Vous les avez peut-être vus. Parmi les premiers deepfakes d'IA véritablement viraux à se répandre à travers le monde, il y avait une image de Donald Trump en cours d'arrestation et une du pape François dans une doudoune blanche.

Alors que l'on semble être une réinvention innocente de ce qu'une figure religieuse célèbre pourrait porter à porter par une journée fraîche à Rome; l'autre image, montrant une personnalité politique dans une situation grave avec la justice, a des conséquences bien plus importantes si elle est considérée comme réelle.

Jusqu'à présent, les gens ont principalement ciblé des célébrités, des personnalités politiques et d'autres personnes célèbres lors de la création de deepfakes d'IA. Cela s'explique en partie par le fait que des personnes célèbres ont de nombreuses photos d'eux sur Internet, ce qui a probablement aidé à former le modèle en premier lieu.

Dans le cas d'un générateur d'images AI comme Midjourney - utilisé à la fois dans le deepfake de Trump et du pape - un utilisateur doit simplement saisir un texte décrivant ce qu'il veut voir. Des mots-clés peuvent être utilisés pour spécifier le style artistique, comme une photographie ou un photoréalisme, et les résultats peuvent être affinés en augmentant la résolution.

Vous pouvez tout aussi facilement apprendre à utiliser Midjourney et testez-le vous-même, mais pour des raisons morales et juridiques évidentes, vous devriez éviter de publier ces images publiquement.

Malheureusement, être un être humain moyen et non célèbre ne garantit pas non plus que vous êtes à l'abri des deepfakes de l'IA.

Le problème réside dans une fonctionnalité clé offerte par les générateurs d'images IA: la possibilité de télécharger votre propre image et de la manipuler avec l'IA. Et un outil comme Repeinture en DALL-E 2 peut étendre une image existante au-delà de ses bordures en saisissant une invite de texte et en décrivant ce que vous souhaitez générer d'autre.

Si quelqu'un d'autre faisait cela avec vos photos, les dangers pourraient être bien plus grands que le deepfake du pape en veste blanche: ils peuvent l'utiliser n'importe où, en se faisant passer pour vous. Alors que la plupart des gens utilisent généralement l'IA avec de bonnes intentions, il existe très peu de restrictions empêchant les gens de l'utiliser pour causer des dommages, en particulier en cas d'usurpation d'identité.

2. Escroqueries Deepfake Voice Clone

Avec l'aide de l'IA, les deepfakes ont franchi une ligne à laquelle la plupart d'entre nous n'étaient pas préparés: les faux clones de voix. Avec juste une petite quantité d'audio original - peut-être d'une vidéo TikTok que vous avez déjà publiée ou d'une vidéo YouTube dans laquelle vous apparaissez - un modèle d'IA peut reproduire votre voix unique.

Il est à la fois étrange et effrayant d'imaginer recevoir un appel téléphonique qui ressemble à un membre de la famille, un ami ou un collègue. Les clones de voix Deepfake sont une préoccupation suffisamment sérieuse pour que le Commission fédérale du commerce (FTC) a émis un avertissement à ce sujet.

Ne vous fiez pas à la voix. Appelez la personne qui vous a soi-disant contacté et vérifiez l'histoire. Utilisez un numéro de téléphone dont vous savez qu'il est le leur. Si vous ne pouvez pas joindre votre proche, essayez de le contacter par l'intermédiaire d'un autre membre de la famille ou de ses amis.

Le Washington Post a rapporté un cas d'un couple dans la soixantaine qui a reçu un appel téléphonique de quelqu'un qui ressemblait à son petit-fils. Il était en prison et avait un besoin urgent d'argent pour sa caution. N'ayant aucune autre raison de douter à qui ils parlaient, ils sont allés de l'avant et ont remis l'argent à l'escroc.

Ce n'est pas seulement la génération plus âgée qui est à risque, Le Gardien a rapporté un autre exemple d'un directeur de banque qui a approuvé une transaction de 35 millions de dollars après une série d '"appels profondément truqués" d'une personne qu'ils croyaient être un directeur de banque.

3. Fausses nouvelles produites en masse

Grands modèles de langage, comme ChatGPT sont très, très doués pour produire un texte qui sonne comme un humain, et nous n'avons actuellement pas d'outils efficaces pour repérer la différence. Entre de mauvaises mains, les fausses nouvelles et les théories du complot seront bon marché à produire et prendront plus de temps à démystifier.

La diffusion de fausses informations n'est bien sûr pas nouvelle, mais un document de recherche publié sur arXiv en janvier 2023 explique que le problème réside dans la facilité avec laquelle il est possible d'augmenter la production avec des outils d'IA. Ils l'appellent des "campagnes d'influence générées par l'IA", qui, selon eux, pourraient, par exemple, être utilisées par des politiciens pour externaliser leurs campagnes politiques.

La combinaison de plusieurs sources générées par l'IA crée un deepfake de haut niveau. Par exemple, un modèle d'IA peut générer un reportage bien écrit et convaincant pour accompagner la fausse image de l'arrestation de Donald Trump. Cela lui donne plus de légitimité que si l'image était partagée seule.

Les fausses nouvelles ne se limitent pas non plus aux images et à l'écriture, les développements dans la génération de vidéos AI signifient que nous voyons plus de vidéos deepfake surgir. Voici celle de Robert Downey Jr. greffée sur une vidéo d'Elon Musk, postée par le Chaîne YouTube Deepfakery.

Créer un deepfake peut être aussi simple que de télécharger une application. Vous pouvez utiliser une application comme TokkingHeads pour transformer des images fixes en avatars animés, qui vous permet de télécharger votre propre image et audio pour donner l'impression que la personne parle.

Pour la plupart, c'est divertissant et amusant, mais il y a aussi un potentiel de problèmes. Cela nous montre à quel point il est facile d'utiliser l'image de quelqu'un pour donner l'impression que cette personne a prononcé des mots qu'elle n'a jamais prononcés.

Ne vous laissez pas berner par un deepfake d'IA

Les deepfakes peuvent être rapidement déployés à très peu de frais et avec une faible barre d'expertise ou de puissance de calcul requise. Ils peuvent prendre la forme d'une image générée, d'un clone de voix ou d'une combinaison d'images, d'audio et de texte générés par l'IA.

Auparavant, il était beaucoup plus difficile et laborieux de produire un deepfake, mais maintenant, avec de nombreuses applications d'IA, presque tout le monde a accès aux outils utilisés pour créer des deepfakes. Alors que la technologie d'IA deepfake devient de plus en plus avancée, il vaut la peine de surveiller de près les dangers qu'elle représente.