Avec des modèles de langage d'IA modernes comme ChatGPT et Bing Chat de Microsoft qui font des vagues dans le monde entier, un certain nombre de personnes s'inquiètent de la conquête du monde par l'IA.
Bien que nous ne rencontrions pas SkyNet dans un avenir prévisible, l'IA s'améliore que les humains à plusieurs égards. C'est là que le problème de contrôle de l'IA entre en jeu.
Le problème de contrôle de l'IA expliqué
Le problème du contrôle de l'IA est l'idée que l'IA finira par devenir meilleure pour prendre des décisions que les humains. Conformément à cette théorie, si les humains ne configurent pas les choses correctement à l'avance, nous n'aurons aucune chance de réparer les choses plus tard, ce qui signifie que l'IA aura un contrôle efficace.
La recherche actuelle sur les modèles d'IA et d'apprentissage automatique (ML) est, à tout le moins, à des années de dépassement des capacités humaines. Cependant, il est raisonnable de penser que, compte tenu des progrès actuels, l'IA dépassera les humains en termes d'intelligence et d'efficacité.
Cela ne veut pas dire que les modèles d'IA et de ML n'ont pas leurs limites. Ils sont, après tout, liés par les lois de la physique et de la complexité informatique, ainsi que par la puissance de traitement des appareils qui prennent en charge ces systèmes. Cependant, il est prudent de supposer que ces limites sont bien au-delà des capacités humaines.
Cela signifie que superintelligent Les systèmes d'IA peuvent constituer une menace majeure s'il n'est pas correctement conçu avec des garanties en place pour vérifier tout comportement potentiellement malveillant. De tels systèmes doivent être construits à partir de zéro pour respecter les valeurs humaines et contrôler leur pouvoir. C'est ce que signifie le problème de contrôle lorsqu'il dit que les choses doivent être configurées correctement.
Si un système d'IA devait surpasser l'intelligence humaine sans les garanties appropriées, le résultat pourrait être catastrophique. De tels systèmes pourraient assumer le contrôle des ressources physiques car de nombreuses tâches sont réalisées mieux ou plus efficacement. Étant donné que les systèmes d'IA sont conçus pour atteindre une efficacité maximale, perdre le contrôle pourrait avoir de graves conséquences.
Quand le problème de contrôle de l'IA s'applique-t-il?
Le principal problème est que plus un système d'IA s'améliore, plus il est difficile pour un superviseur humain de surveiller la technologie pour s'assurer que le contrôle manuel peut être repris facilement en cas de défaillance du système. De plus, la tendance humaine à s'appuyer sur un système automatisé est plus élevée lorsque le système fonctionne de manière fiable la plupart du temps.
Un bon exemple en est le Suite Tesla Full-Self Driving (FSD). Bien que la voiture puisse se conduire toute seule, elle nécessite qu'un humain ait les mains sur le volant, prêt à prendre le contrôle de la voiture en cas de dysfonctionnement du système. Cependant, à mesure que ces systèmes d'IA deviennent plus fiables, même l'attention de l'homme le plus alerte commencera à varier et la dépendance à l'égard du système autonome augmentera.
Alors, que se passe-t-il lorsque les voitures commencent à rouler à des vitesses que les humains ne peuvent pas suivre? Nous finirons par céder le contrôle aux systèmes autonomes de la voiture, ce qui signifie qu'un système d'IA contrôlera votre vie, au moins jusqu'à ce que vous atteigniez votre destination.
Le problème de contrôle de l'IA peut-il être résolu?
Il y a deux réponses pour savoir si le problème de contrôle de l'IA peut être résolu ou non. Premièrement, si nous interprétons la question littéralement, le problème de contrôle ne peut pas être résolu. Nous ne pouvons rien faire qui cible directement la tendance humaine à s'appuyer sur un système automatisé alors qu'il fonctionne de manière fiable et plus efficace la plupart du temps.
Cependant, si cette tendance devait être prise en compte comme une caractéristique de tels systèmes, nous pouvons concevoir des moyens de contourner le problème de contrôle. Par exemple, le Prise de décision algorithmique et problème de contrôle Le document de recherche suggère trois méthodes différentes pour faire face à la situation difficile :
- L'utilisation de systèmes moins fiables nécessite qu'un humain s'engage activement dans le système, car les systèmes moins fiables ne posent pas le problème de contrôle.
- Attendre qu'un système dépasse l'efficacité et la fiabilité humaines avant un déploiement dans le monde réel.
- Pour implémenter uniquement une automatisation partielle à l'aide de la décomposition des tâches. Cela signifie que seules les parties d'un système qui ne nécessitent pas d'opérateur humain pour effectuer une tâche importante sont automatisées. C'est ce qu'on appelle l'approche dynamique/complémentaire d'allocation de fonction (DCAF).
L'approche DCAF place toujours un opérateur humain à la tête d'un système automatisé, garantissant que sa contribution contrôle les parties les plus importantes du processus décisionnel du système. Si un système est suffisamment engageant pour qu'un opérateur humain y prête constamment attention, le problème de contrôle peut être résolu.
Pouvons-nous jamais vraiment contrôler l'IA?
Au fur et à mesure que les systèmes d'IA deviennent plus avancés, plus performants et plus fiables, nous continuerons à leur décharger davantage de tâches. Cependant, le problème de contrôle de l'IA peut être résolu avec les bonnes précautions et garanties.
L'IA change déjà le monde pour nous, principalement pour le mieux. Tant que la technologie est sous surveillance humaine, nous ne devrions pas nous inquiéter de quoi que ce soit.