Les dernières innovations autour de la technologie basée sur l'IA repoussent les limites de ce que nous pensions autrefois possible avec l'IA. Cependant, avec des chatbots comme ChatGPT et Bing Chat qui deviennent presque aussi bons que les humains dans plusieurs domaines, est-il temps de freiner pendant un moment ?
Elon Musk et plusieurs chercheurs en IA font partie des 1 188 personnes (au moment de la rédaction) qui le pensent. Une lettre publiée par l'institut à but non lucratif Future of Life appelle à une pause de six mois sur la formation des technologies d'IA mieux que GPT 4, mais une pause est-elle vraiment nécessaire ?
En quoi consiste la lettre ouverte sur l'avenir de la vie?
Le lettre publiée par l'institut Future of Life souligne que les laboratoires d'IA ont été "enfermés dans une course incontrôlable" pour développer et déployer de plus en plus des modèles d'IA plus puissants que personne, y compris leurs créateurs, ne peut "comprendre, prédire ou de manière fiable contrôle".
Il souligne également que les systèmes d'IA contemporains deviennent désormais compétitifs pour les humains dans les tâches générales et demande si nous devrions développer "des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et remplacer nous".
La lettre appelle finalement tous les laboratoires d'IA à suspendre immédiatement la formation des systèmes d'IA plus puissants que GPT-4 pendant au moins six mois. La pause doit également être publique et vérifiable auprès de tous les acteurs clés. Il indique également que si une telle pause ne peut pas être imposée rapidement, les gouvernements devraient intervenir pour interdire temporairement la formation au modèle d'IA.
Une fois la pause active, les laboratoires d'IA et les experts indépendants sont invités à l'utiliser pour développer et mettre en œuvre conjointement un "ensemble partagé de protocoles de sécurité" pour s'assurer que les systèmes adhérant à ces règles sont "sûrs au-delà d'un doute".
Cette lettre a été signée par un certain nombre de personnalités nommées, dont Elon Musk, Steve Wozniak et des chercheurs et auteurs en intelligence artificielle. En fait, la liste des signataires est actuellement en pause en raison d'une forte demande.
Quelles sont les préoccupations de Musk concernant les technologies d'IA avancées et OpenAI?
Bien que la signature de la lettre de Future of Life puisse indiquer que Musk est préoccupé par les risques pour la sécurité que posent ces systèmes d'IA avancés, la vraie raison pourrait être autre chose.
Musk a cofondé OpenAI avec l'actuel PDG Sam Altman en 2015 en tant qu'organisation à but non lucratif. Cependant, il a affronté Altman plus tard en 2018 après avoir réalisé qu'il n'était pas satisfait des progrès de l'entreprise. Musk aurait voulu prendre le relais pour accélérer le développement, mais Altman et le conseil d'administration d'OpenAI ont rejeté l'idée.
Musk a quitté OpenAI peu de temps après et a emporté son argent avec lui, rompant sa promesse de contribuer 1 milliard de dollars et ne donnant que 100 millions avant de partir. Cela a forcé OpenAI à devenir une société privée peu de temps après en mars 2019 pour lever des fonds pour poursuivre ses recherches.
Une autre raison pour laquelle Musk est parti était que le développement de l'IA chez Tesla provoquerait un conflit d'intérêts à l'avenir. Il est évident que Tesla a besoin de systèmes d'IA avancés pour alimenter ses Fonctions complètes d'auto-conduite. Depuis que Musk a quitté OpenAI, la société s'est enfuie avec ses modèles d'IA, lançant ChatGPT alimenté par GPT3.5 en 2022 et suivi plus tard avec GPT-4 en mars 2023.
Le fait que l'équipe d'IA de Musk soit loin d'être proche d'OpenAI doit être pris en compte chaque fois qu'il dit que les modèles d'IA modernes pourraient présenter des risques. Il n'a eu aucun problème non plus déploiement de la bêta Tesla Full Self-Driving sur la voie publique, transformant essentiellement les conducteurs réguliers de Tesla en bêta-testeurs.
Cela ne s'arrête pas là non plus. Musk a également été plutôt critique envers OpenAI sur Twitter, Altman allant jusqu'à dire qu'il les attaque en apparaissant récemment sur le podcast "On with Kara Swisher".
Pour le moment, il semble que Musk utilise simplement la lettre Future of Life pour arrêter le développement d'OpenAI et de toute autre entreprise qui rattrape son retard. au GPT-4 pour donner à ses entreprises une chance de rattraper leur retard au lieu de s'inquiéter des dangers potentiels de ces modèles d'IA pose. Notez que la lettre demande également de suspendre la "formation" des systèmes d'IA pendant six mois, ce qui peut être relativement facilement contourné pour continuer à les développer en attendant.
Une pause est-elle vraiment nécessaire?
La nécessité d'une pause dépend de l'état des modèles d'IA à l'avenir. La lettre a définitivement un ton un peu dramatique, et nous ne risquons pas de perdre le contrôle de notre civilisation au profit de l'IA, comme elle le déclare si ouvertement. Cela dit, Les technologies de l'IA posent quelques menaces.
Étant donné qu'OpenAI et d'autres laboratoires d'IA peuvent mettre en place de meilleurs contrôles de sécurité, une pause ferait plus de mal que de bien. Cependant, la suggestion de la lettre d'un ensemble de protocoles de sécurité partagés qui sont « rigoureusement audités et supervisés par des experts extérieurs indépendants » semble être une bonne idée.
Avec des géants de la technologie comme Google et Microsoft qui injectent des milliards dans le développement et l'intégration de l'IA dans leurs produits, il est peu probable que la lettre affecte le rythme actuel du développement de l'IA.
L'IA est là pour rester
Alors que les géants de la technologie poussent plus loin l'intégration de l'IA dans leurs produits et investissent des milliards de dollars dans la recherche et le développement, l'IA est là pour rester, indépendamment de ce que dit l'opposition.
Mais ce n'est pas une mauvaise idée de mettre en œuvre des mesures de sécurité pour empêcher ces technologies de dérailler et de se transformer potentiellement en outils de nuisance.