Les discussions autour de la sensibilité de l'IA ne sont pas nouvelles, mais les nouvelles concernant l'IA LaMDA de Google ont attisé les flammes. Après qu'un ingénieur ait affirmé que le robot était conscient, voire qu'il avait une âme, certaines questions familières se sont à nouveau posées.

Une IA comme LaMDA peut-elle réellement être sensible ou consciente d'elle-même, et si oui, comment pouvez-vous le savoir? Est-ce que ça importe?

Qu'est-ce que LaMDA ?

LaMDA, abréviation de Language Model for Dialogue Applications, est apparu pour la première fois en 2021 lors de la conférence des développeurs de Google. Le système d'IA avancé est censé aider à créer d'autres chatbots plus petits. Lorsque Google l'a introduit pour la première fois, il a annoncé son intention de l'intégrer dans tout, aidant des services comme Google Assistant et Search à se sentir plus humains, ou du moins naturels.

Lorsque l'ingénieur de Google, Blake Lemoine, s'est entretenu avec LaMDA pour voir s'il utilisait un discours de haine, il est reparti avec une impression différente. Lemoine a affirmé que LaMDA était sensible, et s'il ne savait pas que c'était un bot, il penserait que c'était un enfant de huit ans.

Après ses conversations avec LaMDA, Lemoine a essayé de prouver qu'il était conscient et de défendre ce qu'il croyait être ses droits légaux. En réponse, Google a placé Lemoine en congé administratif payé pour avoir rompu les accords de confidentialité.

LaMDA est-il réellement sensible ?

Alors, LaMDA est-il réellement sensible? La plupart des experts qui se sont penchés sur la question sont sceptiques. LaMDA est une plate-forme de chat IA très avancée analysant des billions de mots sur Internet, elle est donc habile à ressembler à une personne réelle.

Ce n'est pas la première fois qu'une IA de Google trompe les gens en leur faisant croire qu'elle est humaine. En 2018, Google a fait la démonstration de son Duplex AI en appelant un restaurant pour réserver une table. À aucun moment, l'employé à l'autre bout du fil n'a semblé douter qu'il parlait à une personne.

La sensibilité est difficile à définir, même si la plupart des gens doute que l'IA ait atteint ce point encore. Cependant, la question importante n'est peut-être pas de savoir si LaMDA est réellement sensible, mais quelle différence cela fait s'il peut tromper les gens en leur faisant croire qu'il l'est.

Implications juridiques possibles de LaMDA

La situation de LaMDA soulève de nombreuses questions juridiques et éthiques. Premièrement, certaines personnes peuvent se demander si Google a eu raison de mettre Lemoine en congé pour en avoir parlé.

Selon l'article 740 du droit du travail de New York, les protections des lanceurs d'alerte défendent les employés contre de telles conséquences s'ils estiment que les pratiques de leur employeur enfreignent la loi ou présentent un risque important pour le public sécurité. La sensibilité supposée de LaMDA ne répond pas tout à fait à cette exigence légale, mais devrait-elle le faire ?

Donner des droits à l'IA est un sujet délicat. Alors que l'IA peut créer des choses et paraître humain, vous pouvez rencontrer des situations compliquées si ces machines bénéficient de protections légales. Les droits légaux fonctionnent autour de récompenses et de punitions qui n'affectent pas l'IA, ce qui complique la justice.

Si une voiture autonome heurte un piéton, l'IA est-elle coupable si la loi la traite comme un humain? Et si c'est le cas, cela ne rend pas strictement justice à la victime puisque vous ne pouvez techniquement pas punir l'IA de la même manière que vous le feriez pour un humain.

Une autre question qui se pose avec LaMDA et les chatbots AI similaires est leur sécurité. Si ces bots semblent réels de manière convaincante, les gens peuvent leur faire davantage confiance et être disposés à leur donner informations plus sensibles. Cela ouvre la porte à une multitude de problèmes de confidentialité et de sécurité si cette technologie tombe entre de mauvaises mains.

L'IA introduit des questions éthiques compliquées

Les IA comme LaMDA deviennent de plus en plus sophistiquées et réalistes. À mesure que cette tendance se développe, les entreprises et les législateurs devraient réévaluer la façon dont ils traitent l'IA et comment ces décisions pourraient affecter la justice et la sécurité.

Dans l'état actuel des choses, l'IA LaMDA de Google n'est peut-être pas sensible, mais elle est assez bonne pour faire croire aux gens que c'est le cas, ce qui devrait déclencher des alarmes.