Fake news, deepfakes, images trompeuses: tout cela peut être créé à l'aide de l'intelligence artificielle. Voici comment l'IA signifie que la désinformation se répand.
L'intelligence artificielle (IA) joue désormais un rôle dans divers aspects de notre vie. Plus précisément, les outils d'IA générative tels que ChatGPT et d'autres se sont considérablement développés. Cela signifie qu'il y aura une abondance de contenu généré par l'IA à l'avenir.
Cependant, l'IA générative introduit également le risque de désinformation générée par l'IA. Ses fonctionnalités permettent aux individus opportunistes de diffuser plus facilement de fausses informations. Alors, explorons comment l'IA générative est utilisée pour la désinformation.
Risques potentiels de l'IA générative pour propager la désinformation
L'IA générative pose de nombreuses menaces pour les gens, comme la suppression d'emplois, une surveillance accrue et des cyberattaques. Et le les problèmes de sécurité avec l'IA vont encore s'aggraver. Mais il y a un autre souci: les gens peuvent l'utiliser pour répandre des mensonges. Les individus trompeurs peuvent utiliser l'IA générative pour partager de fausses nouvelles via un contenu visuel, auditif ou textuel.
Les fausses nouvelles peuvent être classées en trois types :
- Désinformation: Informations incorrectes ou fausses involontaires.
- Désinformation: Utilisation délibérée d'informations manipulatrices ou trompeuses.
- Malinformation: Nouvelles trompeuses ou version exagérée de la vérité.
Quand combiné avec la technologie deepfake, les outils d'IA générative peuvent rendre le contenu qui semble et sonne réel, comme des images, des vidéos, des clips audio et des documents. Il existe de nombreuses possibilités pour créer du faux contenu, donc savoir comment se protéger des vidéos deepfake est important.
Les diffuseurs de fausses nouvelles peuvent générer du contenu en grande quantité, ce qui facilite la diffusion parmi les masses via les médias sociaux. La désinformation ciblée peut être utilisée pour influencer les campagnes politiques, ce qui a potentiellement un impact sur les élections. De plus, l'utilisation d'outils de génération de texte et d'images d'IA soulève des inquiétudes concernant les lois sur le droit d'auteur, comme l'a rapporté le Service de recherche du Congrès: déterminer la propriété du contenu généré par ces outils devient difficile.
Comment la loi s'attaquera-t-elle à la propagation de fausses nouvelles par le biais de l'IA générative? Qui sera tenu responsable de la diffusion de fausses informations: les utilisateurs, les développeurs ou les outils eux-mêmes ?
4 façons dont l'IA générative peut être utilisée pour répandre la désinformation
Pour rester en sécurité en ligne, tout le monde doit comprendre les risques de l'IA générative dans la diffusion de la désinformation, car elle se présente sous de nombreuses formes différentes. Voici quelques façons dont il peut être utilisé pour manipuler les gens.
1. Générer du faux contenu en ligne
La création de faux contenus à l'aide de l'IA générative est une stratégie courante employée par ceux qui diffusent de fausses nouvelles. Ils utilisent des outils d'IA génératifs populaires tels que ChatGPT, DALL-E, Bard, Midjourney et d'autres pour produire divers types de contenu. Par exemple, ChatGPT peut aider les créateurs de contenu de plusieurs façons. Mais cela peut également générer des publications sur les réseaux sociaux ou des articles de presse susceptibles de tromper les gens.
Pour le prouver, j'ai incité ChatGPT à écrire un article inventé sur l'arrestation du président américain Joe Biden pour corruption. Nous lui avons également demandé d'inclure des déclarations des autorités compétentes pour le rendre plus crédible.
Voici l'article fictif créé par ChatGPT :
Étonnamment, la sortie était très convaincante. Il comprenait les noms et les déclarations de personnalités faisant autorité pour rendre l'article plus convaincant. Cela montre comment n'importe qui peut utiliser de tels outils pour générer de fausses nouvelles et les diffuser facilement en ligne.
2. Utiliser les chatbots pour influencer les opinions des gens
Les chatbots qui s'appuient sur des modèles d'IA génératifs peuvent utiliser diverses tactiques pour influencer les opinions des gens, notamment :
- Manipulation émotionnelle: L'IA peut utiliser des modèles d'intelligence émotionnelle pour exploiter les déclencheurs et les préjugés émotionnels afin de façonner vos perspectives.
- Chambres d'écho et biais de confirmation: Les chatbots peuvent renforcer les croyances existantes en créant des chambres d'écho qui valident vos préjugés. Si vous avez déjà un certain point de vue, l'IA peut le renforcer en présentant des informations qui correspondent à vos opinions.
- Preuve sociale et effet de train en marche: L'IA peut manipuler l'opinion publique en générant une preuve sociale. Cela peut avoir des conséquences importantes, car cela peut amener les individus à se conformer aux opinions populaires ou à suivre la foule.
- Personnalisation ciblée: Les chatbots ont accès à de vastes quantités de données qu'ils peuvent collecter pour créer des profils personnalisés. Cela leur permet de personnaliser le contenu en fonction de vos préférences. Grâce à une personnalisation ciblée, l'IA peut persuader les individus ou renforcer davantage leurs opinions.
Ces exemples illustrent tous comment les chatbots peuvent être utilisés pour tromper les gens.
3. Créer des DeepFakes IA
Quelqu'un peut utiliser des deepfakes pour créer de fausses vidéos d'un individu disant ou faisant des choses qu'il n'a jamais faites. Ils peuvent utiliser ces outils pour l'ingénierie sociale ou mener des campagnes de diffamation contre d'autres. De plus, dans la culture des mèmes d'aujourd'hui, les deepfakes peuvent servir d'outils de cyberintimidation sur les réseaux sociaux.
De plus, les adversaires politiques peuvent utiliser de l'audio et des vidéos deepfakes pour ternir la réputation de leurs adversaires, manipulant l'opinion publique à l'aide de l'IA. Donc Les deepfakes générés par l'IA posent de nombreuses menaces à l'avenir. Selon un 2023 Rapport Reuters, l'essor de la technologie de l'IA pourrait avoir un impact sur les élections américaines de 2024. Le rapport met en évidence l'accessibilité d'outils comme Midjourney et DALL-E qui peuvent facilement créer du contenu fabriqué et influencer les opinions collectives des gens.
Il est donc crucial de pouvoir identifier les vidéos créées par des deepfakes et les distinguer des originaux.
4. Cloner des voix humaines
L'IA générative, associée à la technologie deepfake, permet la manipulation du discours de quelqu'un. La technologie Deepfake progresse rapidement et offre une variété d'outils capables de reproduire la voix de n'importe qui. Cela permet à des individus malveillants de se faire passer pour d'autres et de tromper des individus sans méfiance. Un tel exemple est l'utilisation de la musique deepfake.
Vous avez peut-être rencontré des outils comme Ressembler à l'IA, Discourir, FakeYou, et d'autres qui peuvent imiter les voix de célébrités. Bien que ces outils audio IA puissent être divertissants, ils présentent des risques importants. Les escrocs peuvent utiliser des techniques de clonage de voix pour divers stratagèmes frauduleux, entraînant des pertes financières.
Les escrocs peuvent utiliser de fausses voix pour se faire passer pour vos proches et vous appeler en faisant semblant d'être en détresse. Avec un son synthétique qui semble convaincant, ils pourraient vous inciter à envoyer de l'argent de toute urgence, vous faisant devenir victime de leurs escroqueries. Un incident rapporté par Le Washington Post en mars 2023 illustre ce problème: les escrocs ont utilisé de fausses voix pour convaincre les gens que leurs petits-fils étaient en prison et avaient besoin d'argent...
Comment repérer la désinformation diffusée par l'IA
La lutte contre la propagation de la désinformation facilitée par l'IA est un problème urgent dans le monde d'aujourd'hui. Alors, comment pouvez-vous repérer les fausses informations qui ont été faites par l'IA ?
- Abordez le contenu en ligne avec scepticisme. Si vous rencontrez quelque chose qui semble manipulateur ou incroyable, vérifiez-le par recoupement.
- Avant de faire confiance à un article de presse ou à une publication sur les réseaux sociaux, assurez-vous qu'il provient d'une source fiable.
- Méfiez-vous des indicateurs de deepfakes, tels que des clignements ou des mouvements du visage non naturels, une mauvaise qualité audio, des images déformées ou floues et un manque d'émotion véritable dans la parole.
- Utilisez des sites Web de vérification des faits pour vérifier l'exactitude des informations.
En suivant ces étapes, vous pouvez vous identifier et vous protéger contre la désinformation générée par l'IA.
Méfiez-vous de la désinformation propagée par l'IA
Les logiciels génératifs ont joué un rôle crucial dans l'avancement de l'IA. Pourtant, ils peuvent également être une source importante de désinformation dans la société. Ces outils abordables ont permis à quiconque de créer différents types de contenu à l'aide de modèles d'IA sophistiqués; leur capacité à générer du contenu en grande quantité et à incorporer des deepfakes les rend encore plus dangereux.
Il est important que vous soyez conscient des défis de la désinformation à l'ère de l'IA. Comprendre comment l'IA peut être utilisée pour diffuser de fausses nouvelles est la première étape pour vous protéger de la désinformation.