Les experts pensent que l'IA mettra fin à l'humanité telle que nous la connaissons, alors que fait-on pour l'empêcher de se produire ?

Encore une fois, un groupe de chercheurs et d'entreprises technologiques de premier plan en IA ont averti que le développement rapide actuel de l'intelligence artificielle pourrait être catastrophique pour l'humanité.

Les risques couvrent les conflits nucléaires, les maladies, la désinformation et l'IA incontrôlable sans surveillance, qui présentent tous une menace immédiate pour la survie humaine.

Mais il ne sera pas perdu que bon nombre de ces avertissements proviennent des mêmes personnes qui dirigent le développement de l'IA et poussent les outils et programmes d'intelligence artificielle dans leurs entreprises respectives.

Pourquoi les entreprises technologiques et les scientifiques de l'IA mettent-ils en garde contre les risques liés à l'IA?

Le 30 mai 2023, plus de 350 chercheurs, développeurs et ingénieurs en IA ont publié une déclaration cosignée mettant en garde contre la menace de l'IA pour l'humanité.

instagram viewer

L'atténuation du risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire.

Signataires de la Déclaration Safe.ai inclus Sam Altman d'OpenAI, Demis Hassabis de Google DeepMind et Dario Amodei d'Anthropic, ainsi que Turing Les lauréats Geoffrey Hinton et Yoshua Bengio (bien que Yann LeCun, qui a également remporté le même prix, ait négligé de signer). La liste est presque un who's who du monde du développement de l'IA - les personnes qui ouvrent la voie avec l'IA - mais elles sont toutes là, avertissant que l'IA pourrait être catastrophique pour l'humanité.

C'est une courte déclaration qui clarifie les menaces, citant spécifiquement deux domaines clés qui pourraient mettre en danger le monde tel que nous le connaissons: la guerre nucléaire et les problèmes de santé mondiaux. Alors que la menace d'un conflit nucléaire est une préoccupation, le risque d'une pandémie est une menace plus tangible pour la plupart.

Cependant, ce n'est pas seulement une pandémie mondiale qui pourrait causer des problèmes de santé liés à l'IA. Le gardien signale plusieurs autres problèmes de santé liés à l'IA qui pourraient avoir un impact sur les humains s'ils ne sont pas vérifiés avant une utilisation généralisée. Un exemple lié à l'utilisation d'oxymètres alimentés par l'IA qui "surestiment les niveaux d'oxygène dans le sang chez les patients à la peau plus foncée, entraînant un sous-traitement de leur hypoxie".

De plus, ce n'est pas la première fois qu'un groupe de leaders technologiques appelle à une pause ou à une réévaluation sérieuse du développement de l'IA. En mars 2023, Elon Musk et d'autres chercheurs en IA ont signé un appel à l'action similaire demandant un moratoire sur le développement de l'IA jusqu'à ce que davantage de réglementation puisse être mise en œuvre pour aider à guider le processus.

Quel est le risque de l'IA?

La plupart des risques associés à l'IA, du moins dans ce contexte, sont liés au développement d'une technologie d'IA incontrôlable qui dépasse les capacités de l'homme, dans lequel il finit par se retourner contre son créateur et anéantir la vie comme nous le savons il. C'est une histoire couverte d'innombrables fois dans l'écriture de science-fiction, mais la réalité est maintenant plus proche que nous ne le pensons.

Les grands modèles de langage (qui sous-tendent des outils comme ChatGPT) augmentent considérablement leurs capacités. Cependant, des outils comme ChatGPT ont de nombreux problèmes, tels que les préjugés inhérents, les problèmes de confidentialité et les hallucinations de l'IA, sans parler de sa capacité à être jailbreaké pour agir en dehors des limites de ses termes et conditions programmés.

Au fur et à mesure que les grands modèles de langage augmentent et ont plus de points de données à appeler, ainsi qu'un accès Internet et une plus grande compréhension des événements actuels, les chercheurs en intelligence artificielle craignent qu'un jour, selon les mots du PDG d'OpenAI, Sam Altman, « faux."

Comment les gouvernements réglementent-ils le développement de l'IA pour stopper les risques?

La réglementation de l'IA est essentielle pour prévenir les risques. Début mai 2023, Sam Altman a appelé à plus de réglementation sur l'IA, déclarant que "l'intervention réglementaire des gouvernements sera essentielle pour atténuer les risques de modèles de plus en plus puissants".

Puis le L'Union européenne a annoncé la loi sur l'IA, un règlement conçu pour fournir un cadre beaucoup plus solide pour le développement de l'IA dans toute l'UE (avec de nombreuses réglementations se répandant dans d'autres juridictions). Altman a d'abord menacé de retirer OpenAI de l'UE, mais a ensuite renoncé à sa menace et a convenu que l'entreprise se conformerait à la réglementation sur l'IA qu'il avait précédemment demandée.

Quoi qu'il en soit, il est clair que la réglementation du développement et des utilisations de l'IA est importante.

L'IA mettra-t-elle fin à l'humanité?

Comme une grande partie du débat autour de ce sujet repose sur des hypothèses sur la puissance des futures versions de l'IA, il y a des problèmes autour de la longévité et de la puissance que toute réglementation de l'IA peut avoir. Comment réguler au mieux une industrie qui se déplace déjà à des milliers de kilomètres à la minute et dont les percées en matière de développement se produisent quotidiennement ?

De plus, il y a encore des doutes sur les capacités de l'IA en général et sur où elle finira. Alors que ceux qui craignent le pire indiquent que l'intelligence artificielle générale devient un suzerain humain, d'autres soulignent le fait que les versions actuelles de l'IA ne peuvent même pas répondre aux questions mathématiques de base et que les voitures entièrement autonomes sont encore un moyen désactivé.

Il est difficile de ne pas être d'accord avec ceux qui regardent vers l'avenir. Beaucoup de gens qui crient le plus fort sur les problèmes que l'IA peut poser sont aux commandes, regardant vers où nous pourrions nous diriger. Si ce sont eux qui exigent une réglementation de l'IA pour nous protéger d'un avenir potentiellement horrible, il est peut-être temps d'écouter.