L'idée que les technologies de l'IA doivent être réglementées est un sentiment commun. La plupart des gouvernements, des développeurs de produits d'IA et même des utilisateurs ordinaires de produits d'IA sont d'accord sur ce point. Malheureusement, la meilleure façon de réglementer ce domaine en croissance rapide est un casse-tête non résolu.
Si elles ne sont pas contrôlées, les technologies de l'IA peuvent perturber négativement notre mode de vie et menacer notre existence. Mais comment les gouvernements peuvent-ils naviguer dans le labyrinthe des défis qui accompagnent ce domaine en évolution rapide?
1. Règlement sur la confidentialité et la protection des données
L'une des principales préoccupations des technologies d'IA est la confidentialité et la sécurité des données. Les systèmes d'intelligence artificielle sont des machines gourmandes en données. Ils ont besoin de données pour fonctionner, de plus de données pour être efficaces et encore plus de données pour s'améliorer. Bien que ce ne soit pas un problème, la façon dont ces données sont obtenues, leur nature et la façon dont elles sont traitées et stockées est l'un des principaux sujets de discussion concernant la réglementation sur l'IA.
Compte tenu de cela, la voie logique à suivre est de mettre en place des réglementations strictes en matière de confidentialité des données qui régissent les données la collecte, le stockage et le traitement, ainsi que les droits des personnes, dont les données sont utilisées, d'accéder et de contrôler leurs données. Les questions que ces règlements aborderaient probablement sont les suivantes :
- Quel type de données peut-on collecter?
- Certaines données privées doivent-elles être considérées comme taboues en IA?
- Comment les entreprises d'IA doivent-elles gérer les données personnelles sensibles, telles que les dossiers de santé ou les informations biométriques?
- Les entreprises d'IA devraient-elles être tenues de mettre en place des mécanismes permettant aux individus de demander facilement la suppression ou la correction de leurs données personnelles?
- Quelles sont les conséquences pour les entreprises d'IA qui ne respectent pas les réglementations sur la confidentialité des données? Comment la conformité doit-elle être contrôlée et comment l'application doit-elle être assurée?
- Peut-être plus important encore, quelle norme les entreprises d'IA devraient-elles mettre en œuvre pour garantir la sécurité de la nature sensible des informations qu'elles possèdent?
Ces questions et quelques autres ont constitué le cœur de pourquoi ChatGPT a été temporairement interdit en Italie. À moins que ces préoccupations ne soient résolues, l'espace de l'intelligence artificielle pourrait être un far west pour la confidentialité des données, et l'interdiction de l'Italie pourrait s'avérer être un modèle pour les interdictions d'autres pays du monde.
2. Développement d'un cadre d'IA éthique
Les entreprises d'IA se vantent souvent de leur engagement envers les directives éthiques dans le développement de systèmes d'IA. Au moins sur le papier, ils sont tous partisans du développement responsable de l'IA. Dans les médias, les dirigeants de Google ont souligné à quel point l'entreprise prend au sérieux la sécurité et l'éthique de l'IA. De même, "l'IA sûre et éthique" est un mantra pour le PDG d'OpenAI, Sam Altman. Ceux-ci sont tout à fait appréciables.
Mais qui établit les règles? Qui décide quelles directives éthiques en matière d'IA sont suffisamment bonnes? Qui décide à quoi ressemble un développement sûr de l'IA? À l'heure actuelle, chaque entreprise d'IA semble avoir sa propre vision du développement responsable et éthique de l'IA. OpenAI, Anthropic, Google, Meta, Microsoft, tout le monde. Se fier simplement aux entreprises d'IA pour faire ce qu'il faut est dangereux.
Le les conséquences d'un espace IA non contrôlé peuvent être catastrophiques. Laisser les entreprises individuelles décider quelles directives éthiques adopter et lesquelles abandonner s'apparente à un somnambulisme vers une apocalypse de l'IA. La solution? Un cadre d'IA éthique clair qui garantit :
- Les systèmes d'IA ne désavantagent pas ou ne discriminent pas injustement des individus ou certains groupes en fonction de la race, du sexe ou du statut socio-économique.
- Les systèmes d'IA sont sûrs, sécurisés et fiables, et minimisent le risque de conséquences imprévues ou de comportements nuisibles.
- Les systèmes d'IA sont construits en gardant à l'esprit l'impact sociétal plus large des technologies d'IA.
- Que les humains conservent le contrôle ultime des systèmes d'IA et de leur prise de décision de manière transparente.
- Les systèmes d'IA sont intentionnellement limités d'une manière avantageuse pour les humains.
3. Agence de régulation dédiée
En raison de son impact potentiel sur la civilisation humaine, les discussions sur la sécurité de l'IA sont généralement parallèles au risque de crise sanitaire ou de catastrophe nucléaire. Éviter d'éventuels incidents nucléaires nécessite une agence dédiée comme la NRC (Nuclear Regulatory Commission) américaine. Éviter le risque de crises sanitaires dangereuses nécessite la mise en place de la FDA (Food and Drug Administration)
De même, pour s'assurer que les choses ne tournent pas mal dans l'espace de l'IA, une agence dédiée semblable à la FDA et au NRC est nécessaire alors que l'IA continue de faire des incursions agressives dans tous les domaines de notre vie. Malheureusement, la question de la réglementation nationale de l'IA est délicate. Le travail de toute agence de régulation dédiée risque d'être extrêmement difficile sans coopération transfrontalière. Tout comme la NRC (Nuclear Regulatory Commission) des États-Unis doit travailler main dans la main avec l'International Atomic Energy (AIEA) pour être à son meilleur, toute agence de réglementation de l'IA dédiée dans le pays aurait également besoin d'un analogue international.
Une telle agence serait responsable de ce qui suit :
- Élaboration de la réglementation IA
- Garantir la conformité et l'application
- Superviser le processus d'examen éthique des projets d'IA
- Collaboration et coopération transnationale sur la sécurité et l'éthique de l'IA
4. Répondre aux préoccupations en matière de droit d'auteur et de propriété intellectuelle
Les lois sur le droit d'auteur et les cadres juridiques existants s'effondrent face à l'intelligence artificielle. La façon dont les outils d'IA, en particulier les outils d'IA générative, sont conçus les fait ressembler à une machine de violation du droit d'auteur approuvée publiquement contre laquelle vous ne pouvez rien faire.
Comment? Eh bien, de nombreux systèmes d'IA d'aujourd'hui sont formés à l'aide de matériaux protégés par le droit d'auteur. Vous savez, les articles protégés par le droit d'auteur, les chansons protégées par le droit d'auteur, les images protégées par le droit d'auteur, etc. C'est ainsi que des outils comme ChatGPT, Bing AI et Google Bard peuvent faire les choses formidables qu'ils font.
Bien que ces systèmes profitent clairement de la propriété intellectuelle des personnes, la façon dont ces systèmes d'IA le font n'est pas différent d'un être humain lisant un livre protégé par le droit d'auteur, écoutant des chansons protégées par le droit d'auteur ou regardant un livre protégé par le droit d'auteur. images.
Vous pouvez lire un livre protégé par le droit d'auteur, en apprendre de nouveaux faits et utiliser ces faits comme base pour votre propre livre. Vous pouvez également écouter une chanson protégée par des droits d'auteur pour vous inspirer pour créer votre propre musique. Dans les deux cas, vous avez utilisé des éléments protégés par le droit d'auteur, mais cela ne signifie pas nécessairement que le produit dérivé enfreint le droit d'auteur de l'original.
Bien qu'il s'agisse d'une explication logique pour expliquer le désordre que l'IA crée dans les lois sur le droit d'auteur, cela nuit toujours aux titulaires de droits d'auteur et de propriété intellectuelle. Dans ce contexte, des réglementations sont nécessaires pour :
- Définissez clairement la responsabilité et les responsabilités de toutes les parties impliquées dans le cycle de vie d'un système d'IA. Cela comprend la clarification des rôles de chaque partie, des développeurs d'IA aux utilisateurs finaux, pour garantir que les responsables les parties sont tenues responsables de toute violation du droit d'auteur ou de la propriété intellectuelle commise par AI systèmes.
- Renforcer les cadres de droit d'auteur existants et peut-être introduire des lois sur le droit d'auteur spécifiques à l'IA.
- Pour garantir l'innovation dans l'espace de l'IA tout en protégeant les droits des créateurs originaux, l'IA la réglementation devrait redéfinir les concepts d'utilisation équitable et de travail transformateur dans le contexte de Contenu généré par l'IA. Des définitions et des lignes directrices plus claires sont nécessaires pour garantir que l'espace de l'IA puisse continuer à s'améliorer tout en respectant les limites du droit d'auteur. Il est essentiel de trouver un équilibre entre l'innovation et la préservation des droits des créateurs de contenu.
- Des voies claires pour la collaboration avec les titulaires de droits. Si les systèmes d'IA doivent de toute façon utiliser la propriété intellectuelle des personnes, il devrait y avoir des voies ou des cadres clairs pour les développeurs d'IA et titulaires de droits à collaborer, notamment en termes de compensations financières, si l'œuvre dérivée de ces propriétés intellectuelles est commercialisé.
La réglementation de l'IA est une solution désespérément nécessaire
Alors que l'intelligence artificielle est apparue comme une solution prometteuse à bon nombre de nos problèmes de société, l'IA elle-même devient rapidement un problème nécessitant une solution urgente. Il est temps de prendre du recul, de réfléchir et d'apporter les correctifs nécessaires pour garantir l'impact positif de l'IA sur la société. Nous avons désespérément besoin d'un recalibrage urgent de notre approche de la construction et de l'utilisation des systèmes d'IA.