L'art authentique peut-il vraiment être protégé de l'IA? Les créatifs semblent de plus en plus impuissants.

Les outils d'IA générative comme Midjourney et Stable Diffusion produisent des visuels de plus en plus convaincants. Pourtant, ils s'appuient sur de vastes bases de données sur le travail des créatifs pour générer leur contenu. À ce stade, vous vous demandez peut-être s'il existe un moyen de protéger votre travail des outils d'IA et la réponse est: c'est compliqué.

Les outils d'IA générative utilisent des modèles d'apprentissage automatique formés pour effectuer des actions à l'aide de grands ensembles de données. Disons que nous parlons d'un générateur d'images AI comme Midjourney. Dans ce cas, les ensembles de données utilisés pour la formation comprennent des milliards de paires d'images et de textes, du travail d'artistes légendaires comme Picasso aux créatifs professionnels et amateurs.

Les générateurs d'art IA utilisent ces appariements média-texte pour générer du contenu visuel en réponse aux invites de texte de l'utilisateur. Fondamentalement, ils utilisent le travail d'artistes existants et associent des modèles à des appariements de texte (publications sociales, légendes, texte alternatif, etc.) afin que les utilisateurs puissent générer de nouveaux visuels à partir d'invites telles que "un ciel étoilé dans le style de Vincent van Gogh" ou "une scène néo-noire d'un détective buvant du whisky dans le centre-ville des années 1950 LA".

Pourquoi tant d'artistes sont-ils mécontents?

La principale plainte des créatifs est que les outils d'IA générative utilisent leur travail sans autorisation. Ils n'utilisent pas simplement leur travail pour former des algorithmes non plus.

Le discours marketing sur l'IA générative suggère que ces outils créent un contenu unique, mais ce n'est pas le cas. Ce qu'ils font vraiment, c'est combiner les données de plusieurs œuvres d'art et les assembler pour générer quelque chose qui correspond à l'invite de l'utilisateur.

Le terme génération d'IA lui-même est trompeur. La réplication de l'IA serait plus précise, et l'astuce avec ces outils est qu'ils reproduisent de grands volumes d'œuvres d'art et les mélangent.

Les outils d'IA générative sont conçus pour remplacer les créations, et ils le font en utilisant leurs illustrations. Et, comme si cela ne suffisait pas, la plupart des outils d'IA font tout cela sans demander la permission, sans offrir de compensation ou même sans créditer les créateurs originaux.

Malheureusement, le seul moyen d'empêcher les outils d'IA d'accéder à votre contenu est de ne rien publier en ligne. Cela peut sembler extrême, mais c'est la réalité. Bien sûr, vous pouvez utiliser le fichier robots.txt sur votre site Web pour empêcher les outils d'IA de gratter votre site Web, ou protégez vos images de l'IA en désactivant les ensembles de données d'apprentissage, mais ces méthodes présentent plusieurs limites.

Premièrement, les commandes du fichier robots.txt sont indicatives, ce qui signifie que les sites n'ont aucune obligation légale de s'y conformer. Deuxièmement, vous devrez empêcher une entreprise comme Google d'explorer votre site Web, ce qui est essentiellement un suicide SEO. Et enfin, le fichier robots.txt ne vous donne qu'un contrôle (limité) sur l'accès à votre site Web, il ne fait rien pour protéger le contenu que vous publiez ailleurs: réseaux sociaux, services cloud, etc.

Malheureusement pour les créatifs, le paysage va empirer avant de s'améliorer.

La politique de confidentialité de Google pourrait signifier qu'il utilise tout le contenu en ligne pour former ses algorithmes d'IA

En juillet 2023, Google a mis à jour sa politique de confidentialité pour indiquer qu'il utilisera le contenu en ligne pour former ses systèmes d'IA, y compris Brad, Google Translate et d'autres. Google utilise l'expression "sources accessibles au public". Voici la citation qui a sonné l'alarme après la mise à jour :

"Par exemple, nous pouvons collecter des informations accessibles au public en ligne ou provenant d'autres sources publiques pour aider formez les modèles d'IA de Google et créez des produits et des fonctionnalités, comme Google Translate, Bard et les capacités Cloud AI. – Politique de confidentialité de Google

En d'autres termes, Google dit maintenant que tout ce que vous publiez en ligne est à gagner. À tout le moins, Google facilite la comparaison des mises à jour de sa politique de confidentialité en mettant en évidence les modifications les plus récentes :

Comme vous pouvez le voir, les changements de formulation sont assez subtils, mais les implications sont importantes. Auparavant, les principales fonctions des modèles linguistiques de Google étaient l'interprétation des requêtes de recherche et la traduction de texte dans d'autres langues.

Désormais, la société affirme qu'elle peut utiliser toutes les sources accessibles au public pour former sa suite complète de modèles d'IA. Cela inclut son système d'IA générative, Bard, et s'étend au-delà des modèles de langage pour inclure tous les outils/fonctionnalités d'IA de Google, l'exemple le plus évident étant la génération d'images.

Les réseaux sociaux peuvent utiliser tout contenu que vous publiez sur leurs plateformes

Meta a également un accès illimité à tout ce qui est publié sur Facebook, Instagram et Threads. Il s'agit d'une pratique courante pour les plateformes sociales si vous lisez les CGU. Dès que vous téléchargez quoi que ce soit sur un réseau social, ils ont le droit de l'utiliser et de le réutiliser comme ils le souhaitent.

Plein de les utilisateurs sociaux ont trouvé des entreprises utilisant leurs images dans des publicités sans autorisation, y compris les créations. Malheureusement, si cette société est le réseau social sur lequel vous avez téléchargé l'image, la société mère du réseau ou une autre marque appartenant à la même société mère, vous n'avez pas de chance.

Pour la plupart des gens, les chances qu'une plateforme comme Instagram utilise l'une de leurs images pour une campagne publicitaire sont très faibles. Cependant, Meta utilise presque certainement vos images, vidéos et publications pour former ses algorithmes d'IA.

Des services comme Adobe peuvent accéder à votre travail et l'utiliser pour former leurs algorithmes

En janvier 2023, Adobe a pris un peu de chaleur pour une mise à jour de ses conditions générales. Le langage semblait suggérer qu'Adobe pourrait utiliser des images téléchargées sur ses services cloud par des photographes pour former ses algorithmes d'IA.

La formulation précise était la suivante :

"Adobe peut analyser votre contenu à l'aide de techniques telles que l'apprentissage automatique (par exemple pour la reconnaissance de formes) pour développer et améliorer nos produits et services."

Pour aggraver les choses, Adobe optait automatiquement les utilisateurs pour ce système d'analyse de contenu, ce qui signifiait qu'ils devaient le désactiver manuellement dans les paramètres de leur compte. Naturellement, les créatifs n'ont pas répondu trop gentiment et Adobe a attisé les flammes en ne répondant pas initialement aux critiques.

Des semaines plus tard, Adobe a déclaré qu'aucune donnée client n'était utilisée pour former ses outils d'IA générative. La société a qualifié l'incident de signal d'alarme et s'est engagée à dissiper toute confusion en rendant le libellé de sa politique plus précis.

Quoi qu'il en soit, il n'en reste pas moins que si Adobe veut utiliser les données clients pour former ses systèmes d'IA, personne ne peut rien y faire, à part boycotter. Dans le même temps, Adobe obtient ses données pour des outils comme Generative Fill de quelque part, donc il utilise le travail des artistes, d'une manière ou d'une autre.

Les entreprises technologiques ont un accès presque illimité à vos données... pour l'instant

Dans l'état actuel des choses, les géants de la technologie comme Google et Meta ont un accès presque illimité aux données des créatifs. L'examen minutieux de leur traitement des données des utilisateurs est presque aussi ancien qu'Internet, mais les réglementations en matière de confidentialité continuent de rattraper leur retard.

Il a fallu jusqu'en 2018 à l'Union européenne pour mettre en œuvre son Directives de confidentialité du RGPD et ils ont peu fait pour protéger les données des utilisateurs.

L'IA générative est un nouveau champ de mines avec presque aucune réglementation en place pour restreindre les actions des entreprises technologiques dans cet espace. Pour le moment, des entreprises comme Google et OpenAI peuvent faire presque tout ce qu'elles veulent avec nos données, et cela ne va pas changer de si tôt.

En fin de compte, il faudra des poursuites et des réglementations pour protéger les artistes de l'IA

Jusqu'à ce que l'IA générative et son accès aux données des utilisateurs soient réglementés, les créatifs sont presque impuissants à arrêter la technologie. Le scénario le plus probable serait des modifications des lois sur le droit d'auteur ou, éventuellement, de nouvelles protections des données liées à la propriété des créations. Dans les deux cas, il faudra beaucoup de temps pour voir de nouvelles réglementations introduites puis appliquées.

La doublure argentée pour les créatifs est que les poursuites contre l'IA générative s'accumulent rapidement et cela pourrait accélérer la réponse juridique. La mauvaise nouvelle est que certaines des entreprises technologiques impliquées disposent des fonds juridiques nécessaires pour faire passer ces affaires par les voies les plus chronophages de la procédure régulière.

En attendant, les questions éthiques qui pèsent sur la génération artistique de l'IA persisteront.