L'intelligence artificielle (IA) est aussi controversée qu'impressionnante. Cela peut faciliter de nombreux aspects du travail et de la vie quotidienne, mais cela soulève également des questions éthiques. L'utilisation de l'IA par le gouvernement américain, en particulier, laisse certaines personnes mal à l'aise.
De nombreux projets gouvernementaux d'IA sont utilisés ou en développement aujourd'hui, et certains ont fait beaucoup de bien. Dans le même temps, ils soulèvent de nombreuses préoccupations en matière de confidentialité de l'intelligence artificielle. Voici un aperçu de ces projets et de ce qu'ils signifient pour la vie privée.
Exemples de projets gouvernementaux d'IA et d'automatisation
Les exemples les plus élémentaires d'intelligence artificielle utilisés par le gouvernement américain impliquent l'automatisation du travail de bureau de routine. En 2019, Seattle a utilisé Automatisation des processus robotiques (RPA) prendre en charge la saisie des données et le traitement des applications. Depuis lors, la ville a traité plus de 6 000 demandes en attente et a économisé des centaines d'heures de travail.
D'autres projets d'IA du gouvernement sont plus accrocheurs. Le service d'incendie de New York teste des chiens robots de Dynamique de Boston pour mesurer les dommages structurels et les fumées toxiques avant l'entrée des pompiers. Avant le projet de robot pompier, le département de police de New York avait prévu de mettre en œuvre les mêmes robots.
Les services de police et d'autres agences gouvernementales à travers le pays envisagent d'utiliser des technologies similaires. Cependant, à mesure que ces projets gouvernementaux d'IA décollent, leurs lacunes potentielles en matière de confidentialité sont devenues plus claires.
L'intelligence artificielle est-elle une menace pour la vie privée et la sécurité ?
On ne sait toujours pas si vous verrez des robots policiers à l'avenir, mais les choses semblent aller dans cette direction. Ces projets présentent de nombreux avantages, mais les problèmes de confidentialité liés à l'intelligence artificielle deviennent plus sérieux lorsqu'ils traitent avec le gouvernement. Voici quelques-uns des plus gros problèmes avec ces technologies.
L'intelligence artificielle repose sur la collecte et l'analyse de données. En conséquence, plus de projets gouvernementaux d'IA signifient que ces agences recueilleront et stockeront des informations supplémentaires sur leurs citoyens. Certaines personnes ont l'impression que toute cette collecte d'informations porte atteinte à leur vie privée et viole leurs droits.
Des technologies comme le projet de chien pompier sont particulièrement préoccupantes car elles peuvent rendre la surveillance gouvernementale trompeuse. Les agences disent que le robot est là pour vérifier les problèmes de sécurité, mais il n'y a aucun moyen pour les gens de savoir quelles données il collecte. Il pourrait avoir des caméras et des capteurs qui scannent leurs visages ou suivent leurs téléphones portables à leur insu.
Certaines personnes craignent que le "facteur cool" des robots ne cache leur potentiel de surveillance. À l'avenir, les robots de la police pourraient espionner les citoyens sans éveiller beaucoup de soupçons, car les gens ne voient que de nouvelles technologies au lieu d'une violation de leur vie privée.
Responsabilités peu claires
Ces projets d'IA et d'automatisation soulèvent également la question de la responsabilité. Si un robot commet une erreur qui cause un préjudice, qui en est responsable? Lorsqu'un employé du gouvernement outrepasse ses limites et enfreint les droits de quelqu'un, les tribunaux peuvent le tenir responsable, mais qu'en est-il d'un robot ?
Vous pouvez voir ce problème dans les voitures autonomes. Des personnes ont accusé le fabricant dans le cadre d'une action en responsabilité du fait du produit dans certains cas d'accident de pilote automatique, tandis que d'autres blâment le conducteur. Dans un cas, le Bureau national de la sécurité des transports place la responsabilité à la fois sur le constructeur et sur le conducteur, mais cela doit finalement être décidé au cas par cas. Les robots de la police brouillent les cartes de la même manière. S'ils violent votre vie privée, il n'est pas clair s'il faut blâmer le fabricant, le service de police ou les superviseurs humains.
Cette confusion pourrait ralentir et compliquer les procédures judiciaires. Cela pourrait prendre un certain temps pour que les victimes d'atteintes à la vie privée ou d'atteintes à leurs droits obtiennent la justice qu'elles méritent. De nouvelles lois et précédents juridiques pourraient clarifier les choses et résoudre ce problème, mais pour le moment, c'est incertain.
Risques de violation de données
L'intelligence artificielle utilisée par le gouvernement américain pourrait également étendre les problèmes de confidentialité de l'IA que vous voyez dans le secteur privé. La collecte de certaines données peut être parfaitement légale, mais plus les organisations collectent, plus elles sont à risque. L'entreprise ou le gouvernement ne peut pas utiliser les informations à des fins illégales, mais cela peut rendre les gens vulnérables à la cybercriminalité.
Il y avait plus de 28 000 cyberattaques contre le gouvernement américain en 2019 seulement. Si les agences détiennent davantage d'informations privées sur les citoyens, ces attaques pourraient toucher plus que le gouvernement. Une violation de données réussie pourrait mettre en danger de nombreuses personnes sans qu'elles le sachent. Les violations passent souvent inaperçues, vous devez donc vérifiez que vos données ne sont pas déjà en vente.
Par exemple, si un robot policier utilise à l'avenir la reconnaissance faciale pour rechercher des criminels recherchés, il peut stocker les données biométriques de nombreux citoyens. Les pirates qui pénètrent dans le système pourraient voler ces informations et les utiliser pour pénétrer dans les comptes bancaires des gens. Les projets gouvernementaux d'IA doivent avoir de solides mesures de cybersécurité s'ils ne veulent pas mettre en danger les données des personnes.
L'IA du gouvernement présente des avantages mais soulève des inquiétudes
On ne sait toujours pas comment le gouvernement américain utilisera l'intelligence artificielle à l'avenir. De nouvelles protections et lois pourraient résoudre ces problèmes et apporter tous les avantages de l'IA sans ses risques. Pour l'instant, cependant, ces inquiétudes suscitent des inquiétudes.
Les problèmes de confidentialité abondent partout où l'IA fonctionne. Ces questions deviennent plus sérieuses à mesure qu'il joue un rôle plus important au sein du gouvernement. Les projets d'IA de l'État pourraient faire beaucoup de bien, mais ils présentent également un potentiel de préjudice considérable.
Microsoft prévient que "1984" pourrait devenir réalité dans trois ans
Lire la suite
Rubriques connexes
- Sécurité
- Intelligence artificielle
- Confidentialité en ligne
A propos de l'auteur
Shannon est un créateur de contenu situé à Philly, PA. Elle écrit dans le domaine de la technologie depuis environ 5 ans après avoir obtenu un diplôme en informatique. Shannon est la rédactrice en chef du magazine ReHack et couvre des sujets tels que la cybersécurité, les jeux et la technologie commerciale.
Abonnez-vous à notre newsletter
Rejoignez notre newsletter pour des conseils techniques, des critiques, des ebooks gratuits et des offres exclusives !
Cliquez ici pour vous abonner