Au cours des dernières années seulement, les capacités de l'IA ont considérablement progressé. Aujourd'hui, nous pouvons utiliser l'IA pour créer de l'art, écrire des histoires, en savoir plus sur le monde et bien plus encore. Mais est-ce que tout cela arrive un peu trop tôt? L'IA se développe-t-elle trop rapidement, et quels signes sont là pour le suggérer ?

Pourquoi les gens sont-ils préoccupés par l'IA?

Fin mars 2023, un document a été mis en ligne par le Future of Life Institute intitulé "Pause Giant AI Experiments: Une lettre ouverte". Le document présentait des arguments contre le développement de l'IA au-delà de la sophistication de GPT-4, la dernière version d'OpenAI d'un chatbot alimenté par l'IA.

Dans la lettre, il était écrit que "les systèmes d'IA dotés d'une intelligence humaine compétitive peuvent présenter de graves risques pour la société et l'humanité", et que "des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront maniable."

instagram viewer

Un certain nombre de personnalités éminentes du domaine de la technologie, dont Steve Wozniak et Elon Musk a signé la lettre et souhaite suspendre le développement de l'IA. Ce plaidoyer pour un arrêt du développement de l'IA a remis en question la dangerosité de l'IA et les risques qu'elle fait peser sur la vie humaine.

Alors, quels signes indiquent que l'IA évolue trop rapidement ?

1. Concurrence avec les humains

Nous avons déjà vu la technologie remplacer les travailleurs humains dans d'innombrables scénarios. Lorsque vous entrez dans un fast-food, vous pouvez désormais commander via un écran d'ordinateur, et lorsque vous souhaitez faire vos courses, vous pouvez passer à la caisse avec un système automatisé. Cela peut être une option rapide et pratique, mais à mesure que l'automatisation devient plus importante dans diverses industries, le besoin de travailleurs humains diminue.

C'est là que le problème commence. Bien sûr, les gens doivent travailler pour subvenir à leurs besoins, mais la montée de l'automatisation rend cela beaucoup plus difficile. C'est particulièrement le cas pour les travailleurs au salaire minimum, comme ceux de la restauration, de la production et de la vente au détail. Les tâches de base, telles que la vérification des commandes, le ramassage des charges et le nettoyage, peuvent toutes être effectuées par des machines. L'intégration de l'IA signifie que nous n'aurons peut-être bientôt plus besoin d'opérateurs pour cette technologie.

Il a été rapporté par FormStack que 76 % des entreprises utilisent l'automatisation pour normaliser ou automatiser les flux de travail quotidiens. Et avec Zapier signalant que 94 % des travailleurs ont déclaré que leur travail impliquait des tâches répétitives et chronophages, L'automatisation alimentée par l'IA pourrait très facilement devenir une partie majoritaire de la main-d'œuvre mondiale dans tous les industries.

2. Encourager la paresse humaine

L'un des principaux avantages de l'IA est qu'elle peut simplifier de nombreuses tâches. Mais cette commodité peut très facilement céder la place à la paresse. Et, dans certains cas, c'est déjà le cas.

Prenez ChatGPT, par exemple. Vous pouvez utiliser ChatGPT pour faire une variété de choses comme écrire des essais, rechercher des sujets, créer des blagues, traduire des textes et bien plus encore. Avoir un service capable d'exécuter rapidement des tâches pour vous est formidable, mais nous conduit également à la complaisance. Le retard de croissance et la créativité de cette manière peuvent certainement avoir un effet négatif sur l'humanité dans son ensemble, ce qui est l'une des principales raisons pour lesquelles tant de gens s'inquiètent de l'IA.

Nous sommes tellement habitués aux services basés sur l'IA à notre époque moderne que nous leur avons naturellement accordé une grande confiance. Par exemple, l'assistant virtuel de Microsoft, Cortana, utilise l'apprentissage automatique et l'IA pour exécuter les commandes des utilisateurs. De nombreux autres assistants virtuels, dont Siri d'Apple, utilisent également l'IA pour fonctionner.

Faire confiance à cette technologie peut être sûr, mais il n'y a vraiment aucun moyen de le savoir, d'autant plus que l'IA est encore à un stade très avancé de développement.

3. La diffusion de fausses informations

Crédit d'image: Hommage profond/Flickr

Dans les domaines grand public, l'IA a acquis une grande notoriété grâce à sa capacité à créer de l'art, des images et des vidéos. Non seulement les services alimentés par l'IA peuvent être utilisés pour créer de l'art, mais ils peuvent également créer une forme de média particulièrement controversée connue sous le nom de deepfakes. Les deepfakes sont des vidéos montrant le visage d'une personne superposé au corps d'une autre personne.

Cela semble assez amusant, mais peut très facilement être mal utilisé.

Il existe déjà des milliers de vidéos de célébrités et de personnalités politiques semblant dire des choses incroyablement obscènes et inappropriées via des deepfakes. Alors que certains deepfakes sont très faciles à identifier, certains sont si sophistiqués qu'il est difficile de discerner s'ils sont réels ou non. Lorsque cela se produit, les gens peuvent supposer qu'une personnalité publique a dit quelque chose qui, en réalité, n'a jamais été dit par eux.

A partir de là, les gens vont se faire des avis sur ces vidéos, contribuant ainsi à la diffusion de fausses informations en ligne.

De plus, les chatbots alimentés par l'IA peuvent également donner aux utilisateurs de fausses informations. Chatbots tels que ChatGPT, Boost. AI et Drift peuvent fournir aux utilisateurs de nombreuses informations, mais ces informations ne sont pas toujours nécessairement exactes. Comme discuté par Le gardien, les chatbots IA ne s'engagent en aucun cas à vous fournir des informations véridiques, ce qui signifie que les fausses nouvelles peuvent très facilement passer entre les mailles du filet et vous parvenir.

4. La création de logiciels malveillants

Au début de 2023, un reportage a commencé à circuler sur acteurs malveillants créant des logiciels malveillants à l'aide de ChatGPT. Dans ce cas, la société de cyber-analystes Check Point Research a découvert que des individus discutaient des avantages de l'utilisation de ChatGPT pour créer des logiciels malveillants sur un forum de piratage. L'auteur du message du forum a partagé un infostealer qu'il avait écrit en Python à l'aide de ChatGPT, encourageant d'autres acteurs malveillants à créer des logiciels malveillants à l'aide du chatbot.

Les programmes malveillants doivent être codés, ce qui peut prendre du temps, surtout si le créateur n'utilise pas un modèle d'un programme préexistant.

En utilisant ChatGPT, non seulement les acteurs malveillants peuvent rationaliser le processus de création de logiciels malveillants, mais les individus moins avertis sur le plan technologique peuvent créer des logiciels malveillants. À mesure que la sophistication de l'IA continue de progresser, il peut être possible de créer des logiciels malveillants incroyablement sophistiqués capables de contourner la détection antivirus, l'authentification, les pare-feu et d'autres mesures de protection.

5. Le manque de réglementation

Un problème courant dans l'industrie technologique est le manque de réglementation pour les nouveaux services, tels que les plates-formes basées sur la blockchain et les produits d'IA. L'absence de réglementation peut être considérée comme une bonne chose par certains, mais peut aussi donner lieu à des pratiques illicites.

Non seulement un manque de réglementation peut entraîner une augmentation des escroqueries et des cybercrimes alimentés par l'IA, mais la manière dont les chercheurs développent les technologies de l'IA peut également commencer à franchir de sérieuses frontières. Il y a des considérations éthiques qui doivent être prises en compte lorsqu'il s'agit d'IA. Un système peut-il devenir trop conscient? Quelle sorte de les effets de l'IA sur la vie humaine? Devrions-nous exploiter l'IA de cette manière? La liste des questions s'allonge encore et encore.

Sans réglementation, certaines entreprises pourraient commencer à fouler aux pieds les limites morales, ce qui pourrait, à son tour, être une très mauvaise nouvelle pour le grand public.

L'IA évolue à un rythme rapide et présente certainement des risques

Il est indéniable que le potentiel de l'IA est vaste, mais cela devrait être exploité de manière appropriée pour réduire le risque que les choses deviennent incontrôlables. Nous avons déjà vu l'IA être utilisée de manière malveillante, donc on ne sait pas comment ce problème pourrait se développer à mesure que les choses avancent. Le temps nous dira si l'IA devient une bénédiction ou une malédiction dans notre monde, et la manière dont elle est gérée aujourd'hui jouera certainement un rôle dans ce résultat.