Le développement de l’IA progresse rapidement, mais qui doit guider l’IA et son impact sur le monde ?

Points clés à retenir

  • L’IA nécessite une surveillance plus stricte, car des vulnérabilités en matière de cybersécurité et des problèmes de confidentialité continuent d’émerger.
  • Le gouvernement, les entreprises technologiques et les utilisateurs finaux ont tous un rôle à jouer dans la réglementation de l’IA, mais chaque approche a ses limites.
  • Les médias, les organisations à but non lucratif, les associations de l’industrie technologique, les établissements universitaires et les forces de l’ordre contribuent également à la réglementation de l’IA.

Le grand public a des opinions divergentes sur l’IA: certains pensent que les machines remplaceront complètement les travailleurs humains, tandis que d’autres prétendent que l’IA est une mode. Cependant, une chose sur laquelle tout le monde s’accorde est que l’IA nécessite une surveillance plus stricte.

Malgré l’importance de la réglementation de l’IA, celle-ci est passée au second plan par rapport à la formation. Les développeurs sont tellement obsédés par la création du prochain plus grand modèle d’IA qu’ils troquent la cybersécurité contre des progrès rapides. La question n’est pas de savoir si l’IA a besoin d’être réglementée; il s’agit de savoir quel organe directeur doté d’un financement, de ressources humaines et de capacités technologiques adéquates prendra l’initiative.

Alors, qui devrait réglementer l’IA ?

Organismes gouvernementaux

Diverses personnes, des consommateurs aux les leaders technologiques espèrent que le gouvernement réglementera l’IA. Les institutions financées par des fonds publics disposent des ressources nécessaires pour le faire. Même Elon Musk et Sam Altman, deux principaux moteurs de la course à l'IA, estiment que certains problèmes de confidentialité liés à l’IA sont trop dangereux pour que les organes directeurs les négligent.

Le gouvernement devrait se concentrer sur la protection de la vie privée et des libertés civiles de ses électeurs s’il prend en charge la réglementation de l’IA. Les cybercriminels continuent de trouver des moyens d’exploiter les systèmes d’IA dans leurs projets. Les personnes peu familiarisées avec l’IA pourraient facilement se laisser tromper par les voix synthétisées, les vidéos deepfake et les profils en ligne gérés par des robots.

Cependant, l’un des problèmes majeurs liés à la réglementation de l’IA par le gouvernement est qu’elle pourrait par inadvertance étouffer l’innovation. L’IA est une technologie complexe et évolutive. Si les responsables chargés de superviser le déploiement, le développement et la formation ne comprennent pas le fonctionnement de l’IA, ils risquent de porter des jugements prématurés et inefficaces.

Développeurs d'IA, entreprises technologiques et laboratoires

Compte tenu des obstacles potentiels qui pourraient découler de la surveillance par le gouvernement de l’IA, beaucoup préféreraient que les entreprises technologiques soient le fer de lance de la réglementation. Ils pensent que les développeurs devraient être responsables de la technologie qu’ils publient. L’autorégulation leur permet de stimuler l’innovation et de se concentrer sur le développement efficace de ces systèmes.

De plus, leur compréhension approfondie de l’IA les aidera à élaborer des directives justes et éclairées donnant la priorité à la sécurité des utilisateurs sans compromettre les fonctionnalités. Comme pour toute technologie, l’expertise industrielle rationalise la surveillance. Affecter des fonctionnaires non formés à la réglementation de technologies qu’ils comprennent à peine pourrait présenter plus de problèmes que d’avantages.

Prenons comme exemple l’audience du Sénat américain de 2018 sur les lois de Facebook sur la confidentialité des données. Dans ce rapport de Le Washington Post, vous verrez que de nombreux législateurs sont confus avec les fonctions de base de Facebook. Ainsi, à moins que le Sénat américain ne crée un département unique de spécialistes en technologie, ils ne seront probablement pas qualifiés pour réglementer un système aussi avancé et en constante évolution que l’IA.

Cependant, le principal problème avec les entreprises technologiques qui s’autoréglementent est que des sociétés douteuses pourraient abuser de leur pouvoir. Sans l’intervention d’un tiers, ils sont fondamentalement libres de faire ce qu’ils veulent.

Les utilisateurs finaux

Certains craignent que le gouvernement et les entités privées abusent des systèmes d’IA. Ils hésitent à accorder à une poignée d’instances dirigeantes un contrôle total sur des technologies aussi puissantes, d’autant plus que l’IA est encore en évolution. Ils pourraient éventuellement se battre pour l’autorité plutôt que de travailler à une réglementation efficace.

Pour atténuer ces risques, les sceptiques estiment que les utilisateurs finaux méritent carte blanche pour utiliser les modèles d’IA comme ils le souhaitent. Ils affirment que les organismes gouvernementaux ne devraient intervenir que lorsque les utilisateurs d’IA enfreignent la loi. C’est un objectif ambitieux, mais il pourrait techniquement être atteint si les développeurs d’IA open source dominaient les parts de marché.

Cela dit, cette configuration désavantage les personnes non averties en technologie. Les utilisateurs sont responsables de la définition des restrictions au sein de leurs systèmes. Malheureusement, tout le monde ne dispose pas des ressources nécessaires pour le faire.

Il serait également peu avisé de supprimer du marché des modèles propriétaires. La prolifération de les modèles d'IA open source ont plusieurs impacts positifs et négatifs; pour certains, les inconvénients l’emportent sur les avantages.

Autres entités jouant un rôle dans la régulation de l’IA

Même si de grandes entités seront le fer de lance de la réglementation de l’IA, certains organismes jouent un rôle important :

Les médias jouent un rôle essentiel dans la formation de la perception qu’a le public de l’IA. Ils rendent compte des évolutions du secteur, partagent de nouveaux outils, sensibilisent aux utilisations néfastes de l’IA et interrogent des experts sur les préoccupations pertinentes.

La plupart des informations que les utilisateurs finaux connaissent sur l’IA proviennent essentiellement des médias. La publication de fausses données, intentionnellement ou non, causera des dommages irréversibles: vous ne pouvez pas sous-estimer la rapidité avec laquelle la désinformation se propage.

2. Organisations non-gouvernementales

Plusieurs organisations à but non lucratif se consacrent à la protection de la vie privée et des libertés civiles des utilisateurs d’IA. Ils éduquent le public grâce à des ressources gratuites, plaident en faveur de nouvelles politiques, coopèrent avec les représentants du gouvernement et expriment des préoccupations négligées.

Le seul problème avec les OBNL est qu’ils manquent généralement de ressources. N’ayant aucun lien avec le gouvernement, ils dépendent de sollicitations et de dons privés pour leurs opérations quotidiennes. Malheureusement, seules quelques organisations reçoivent un financement adéquat.

3. Associations de l'industrie technologique

Les associations industrielles technologiques axées sur l’IA peuvent représenter les droits et les intérêts du public. Comme les OBNL, ils travaillent avec les législateurs, représentent les personnes concernées, plaident en faveur de politiques équitables et sensibilisent à des problèmes spécifiques.

La différence, cependant, est qu’ils ont souvent des liens avec des entreprises privées. Leurs membres font toujours des sollicitations, mais ils obtiennent généralement un financement suffisant de leurs organisations mères tant qu’ils produisent des résultats.

4. Institutions académique

Bien que l’IA comporte plusieurs risques, elle est intrinsèquement neutre. Tous les préjugés, problèmes de confidentialité, erreurs de sécurité et activités potentielles de cybercriminalité proviennent des humains, donc l’IA en elle-même n’est pas quelque chose à craindre.

Mais très peu de gens comprennent déjà le fonctionnement des modèles d’IA modernes. Les idées fausses faussent la perception qu’ont les gens de l’IA, perpétuant des craintes sans fondement telles que l’IA s’empare de l’humanité ou vole des emplois.

Les établissements universitaires pourraient combler ces lacunes éducatives grâce à des ressources accessibles. Il n’existe pas encore beaucoup d’ouvrages scientifiques sur les systèmes LLM et NLP modernes. Le public peut utiliser l’IA de manière plus responsable et lutter contre la cybercriminalité s’il comprend parfaitement son fonctionnement.

5. Les organismes d'application de la loi

Les forces de l’ordre devraient s’attendre à rencontrer davantage Cyberattaques basées sur l'IA. Avec la prolifération des modèles génératifs, les escrocs peuvent rapidement synthétiser des voix, générer de fausses images, gratter informations personnellement identifiables (PII), et même créer des personnages entièrement nouveaux.

La plupart des agences ne sont pas équipées pour gérer ces crimes. Ils devraient investir dans de nouveaux systèmes et former leurs agents à la cybercriminalité moderne; sinon, ils auront du mal à attraper ces escrocs.

L’avenir de la réglementation de l’IA

Compte tenu de la nature dynamique de l’IA, il est peu probable qu’un seul organe directeur puisse la contrôler. Certes, les leaders technologiques détiendront plus de pouvoir que les consommateurs, mais diverses entités doivent coopérer pour gérer les risques liés à l’IA sans entraver les progrès. Il est préférable de définir des mesures de contrôle dès maintenant alors que l’intelligence artificielle générale (AGI) est encore un objectif lointain.

Cela dit, la réglementation de l’IA est tout aussi lointaine que celle de l’AGI. En attendant, les utilisateurs doivent respecter les pratiques de sécurité pour lutter contre les menaces basées sur l’IA. De bonnes habitudes, comme limiter le nombre de personnes avec lesquelles vous vous connectez en ligne et sécuriser vos informations personnelles numériques, sont déjà très utiles.