L'intelligence artificielle (IA) a le potentiel de changer la nature même de notre société. Et si les outils d'IA dont nous disposons actuellement sont une indication de ce qui nous attend, nous avons beaucoup à attendre.
Nous avons également de quoi nous méfier. À savoir, la militarisation de l'IA par les cybercriminels et d'autres acteurs de la menace. Ce n'est pas une préoccupation théorique, et même les générateurs d'images IA ne sont pas à l'abri des abus.
Que sont les générateurs d'images AI? Comment travaillent-ils?
Si vous avez déjà utilisé un générateur d'images AI, vous avez une assez bonne idée de ce qu'ils sont. Même si vous n'en avez jamais utilisé, vous avez très probablement rencontré des images générées par l'IA sur les réseaux sociaux et ailleurs. Le logiciel qui est populaire aujourd'hui fonctionne sur un principe très simple: l'utilisateur saisit le texte et l'IA génère une image basée sur ce texte.
Ce qui se passe sous le capot est beaucoup plus complexe. L'IA s'est beaucoup améliorée ces dernières années, et la plupart générateurs de texte en image sont aujourd'hui des modèles dits de diffusion. Cela signifie qu'ils sont "formés" sur une longue période de temps sur un nombre énorme de textes et d'images, ce qui rend leurs créations si impressionnantes et incroyablement réalistes.
Ce qui rend ces outils d'intelligence artificielle encore plus impressionnants, c'est le fait qu'ils ne se contentent pas de modifier des images existantes ou de combiner des milliers d'images en une seule, mais qu'ils créent également de nouvelles images originales à partir de zéro. Plus les gens utilisent ces générateurs de texte en image, plus ils reçoivent d'informations et meilleures sont leurs créations.
Certains des plus connus Les générateurs d'images AI sont Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor et Craiyon. De nouveaux apparaissent à gauche et à droite, et les géants de la technologie, y compris Google, publient les leurs, nous ne pouvons donc que spéculer sur ce que l'avenir nous réserve.
4 façons dont les acteurs de la menace militarisent les générateurs d'images AI
Comme à peu près toutes les technologies, les générateurs d'images IA peuvent être abusés par des acteurs malveillants. En fait, ils sont déjà utilisés à toutes sortes de fins néfastes. Mais quel type d'escroqueries et de cyberattaques exactement un criminel peut-il mener à l'aide de générateurs d'images IA ?
1. Ingénierie sociale
Une chose évidente que les pirates pourraient faire avec les générateurs d'images IA est faire de l'ingénierie sociale; par exemple, créer de faux profils de réseaux sociaux. Certains de ces programmes peuvent créer des images incroyablement réalistes qui ressemblent à de véritables photographies de personnes réelles, et un escroc pourrait utiliser ces faux profils de médias sociaux pour la pêche au chat.
Contrairement aux photos de personnes réelles, celles générées par l'IA ne peuvent pas être découvertes via la recherche d'image inversée, et le cybercriminel n'a pas à travailler avec un nombre limité de photographies pour conquérir leur cible - en utilisant l'IA, ils peuvent en générer autant qu'ils le souhaitent, construisant une identité en ligne convaincante à partir de gratter.
Mais il existe des exemples concrets d'acteurs malveillants utilisant des générateurs d'images d'IA pour arnaquer les gens. En avril 2022, TechTalks Le blogueur Ben Dickinson a reçu un e-mail d'un cabinet d'avocats affirmant qu'il avait utilisé une image sans autorisation. Les avocats ont envoyé par e-mail un avis de violation du droit d'auteur DMCA, indiquant à Dickinson qu'il devait établir un lien vers un de leurs clients ou supprimer l'image.
Dickinson a recherché le cabinet d'avocats sur Google et a trouvé le site Web officiel. Tout semblait parfaitement légitime; le site contenait même des photos de 18 avocats, accompagnées de leurs biographies et de leurs références. Mais rien de tout cela n'était réel. Les photos ont toutes été générées par AI, et les supposés avis de violation du droit d'auteur ont été envoyés par quelqu'un cherchant à extorquer des backlinks à des blogueurs sans méfiance, dans le cadre d'un chapeau SEO (optimisation des moteurs de recherche) stratégie.
2. Escroqueries caritatives
Lorsque des tremblements de terre dévastateurs ont frappé la Turquie et la Syrie en février 2023, des millions de personnes dans le monde ont exprimé leur solidarité avec les victimes en faisant don de vêtements, de nourriture et d'argent.
Selon un rapport de Bbc, les escrocs en ont profité en utilisant l'IA pour créer des images réalistes et solliciter des dons. Un escroc a montré des images de ruines générées par l'IA sur TikTok Live, demandant à leurs téléspectateurs des dons. Un autre a publié une image générée par l'IA d'un pompier grec sauvant un enfant blessé des ruines et a demandé à ses partisans des dons en Bitcoin.
On ne peut qu'imaginer quel type d'escroqueries caritatives les criminels exécuteront à l'avenir avec l'aide de l'IA, mais il est prudent de supposer qu'ils ne feront que s'améliorer en abusant de ce logiciel.
3. Deepfakes et désinformation
Les gouvernements, les groupes d'activistes et les groupes de réflexion ont depuis longtemps mis en garde contre la les dangers des deepfakes. Les générateurs d'images IA ajoutent une autre composante à ce problème, compte tenu du réalisme de leurs créations. En fait, au Royaume-Uni, il existe même une émission comique appelée Deep Fake Neighbor Wars qui trouve de l'humour dans des couples de célébrités improbables. Qu'est-ce qui empêcherait un agent de désinformation de créer une fausse image et d'en faire la promotion sur les réseaux sociaux à l'aide de bots ?
Cela peut avoir des conséquences réelles, comme ce fut presque le cas en mars 2022, lorsqu'une fausse vidéo montrant le président ukrainien Volodymyr Zelensky disant aux Ukrainiens de se rendre a circulé en ligne, par Radio Nationale Publique. Mais ce n'est qu'un exemple, car les possibilités sont presque infinies et il existe d'innombrables façons de l'acteur menaçant pourrait nuire à la réputation de quelqu'un, promouvoir un faux récit ou diffuser de fausses nouvelles avec l'aide de l'IA.
4. Fraude publicitaire
TrendMicro les chercheurs ont découvert en 2022 que les escrocs utilisaient du contenu généré par l'IA pour créer des publicités trompeuses et promouvoir des produits louches. Ils ont créé des images suggérant que des célébrités populaires utilisent certains produits et ont lancé des campagnes publicitaires basées sur ces images.
Par exemple, une publicité pour une "opportunité de conseil financier" mettait en vedette le milliardaire Elon Musk, fondateur et PDG de Tesla. Bien sûr, Musk n'a jamais approuvé le produit en question, mais les séquences générées par l'IA ont donné l'impression qu'il en était ainsi, incitant vraisemblablement les téléspectateurs sans méfiance à cliquer sur les publicités.
IA et cybersécurité: un problème complexe auquel nous devons nous attaquer
À l'avenir, les régulateurs gouvernementaux et les experts en cybersécurité devront probablement travailler ensemble pour faire face à la menace émergente de la cybercriminalité alimentée par l'IA. Mais comment réglementer l'IA et protéger les citoyens ordinaires, sans étouffer l'innovation et restreindre les libertés numériques? Cette question occupera une place importante dans les années à venir.
Jusqu'à ce qu'il y ait une réponse, faites ce que vous pouvez pour vous protéger: examinez attentivement toute information que vous voyez en ligne, évitez sites Web louches, utilisez des logiciels sûrs, maintenez vos appareils à jour et apprenez à utiliser l'intelligence artificielle pour votre avantage.