Les capacités d'intelligence artificielle se développent de manière exponentielle, l'IA étant désormais utilisée dans des secteurs allant de la publicité à la recherche médicale. L'utilisation de l'IA dans des domaines plus sensibles tels que les logiciels de reconnaissance faciale, les algorithmes de recrutement et la prestation de soins de santé a précipité le débat sur les préjugés et l'équité.

Le biais est une facette bien documentée de la psychologie humaine. La recherche expose régulièrement nos préférences et nos préjugés inconscients, et nous voyons maintenant que l'IA reflète certains de ces biais dans leurs algorithmes.

Alors, comment l'intelligence artificielle devient-elle biaisée? Et pourquoi est-ce important?

Comment l'IA devient-elle biaisée ?

Par souci de simplicité, dans cet article, nous ferons référence à apprentissage automatique et apprentissage profond algorithmes en tant qu'algorithmes ou systèmes d'IA.

Les chercheurs et les développeurs peuvent introduire des biais dans les systèmes d'IA de deux manières.

instagram viewer

Premièrement, les biais cognitifs des chercheurs peuvent être intégrés accidentellement dans les algorithmes d'apprentissage automatique. Les biais cognitifs sont des perceptions humaines inconscientes qui peuvent affecter la façon dont les gens prennent des décisions. Cela devient un problème important lorsque les préjugés concernent des personnes ou des groupes de personnes et peuvent nuire à ces personnes.

Ces biais peuvent être introduits directement mais accidentellement, ou les chercheurs peuvent entraîner l'IA sur des ensembles de données qui étaient eux-mêmes affectés par des biais. Par exemple, une IA de reconnaissance faciale pourrait être formée à l'aide d'un ensemble de données qui ne comprend que des visages à la peau claire. Dans ce cas, l'IA sera plus performante lorsqu'elle traitera des visages à la peau claire que des visages sombres. Cette forme de biais de l'IA est connue comme un héritage négatif.

Deuxièmement, des biais peuvent survenir lorsque l'IA est entraînée sur des ensembles de données incomplets. Par exemple, si une IA est formée sur un ensemble de données qui n'inclut que des informaticiens, elle ne représentera pas l'ensemble de la population. Cela conduit à des algorithmes qui ne parviennent pas à fournir des prédictions précises.

Exemples de biais d'IA dans le monde réel

Il y a eu plusieurs exemples récents et bien rapportés de biais d'IA qui illustrer le danger de laisser ces biais s'infiltrer.

Priorisation des soins de santé aux États-Unis

En 2019, un algorithme d'apprentissage automatique a été conçu pour aider les hôpitaux et les compagnies d'assurance à déterminer quels patients bénéficieraient le plus de certains programmes de soins de santé. Basé sur une base de données d'environ 200 millions de personnes, l'algorithme a favorisé les patients blancs par rapport aux patients noirs.

Il a été déterminé que cela était dû à une hypothèse erronée dans l'algorithme concernant la variation des coûts de santé entre les Noirs et les Blancs, et le biais a finalement été réduit de 80%.

COMPAS

Le Correctional Offender Management Profiling for Alternative Sanctions, ou COMPAS, était un algorithme d'IA conçu pour prédire si certaines personnes récidiveraient. L'algorithme a produit le double de faux positifs pour les délinquants noirs par rapport aux délinquants blancs. Dans ce cas, l'ensemble de données et le modèle étaient défectueux, introduisant un biais important.

Amazone

L'algorithme de recrutement qu'Amazon utilise pour déterminer l'aptitude des candidats a été trouvé en 2015 pour favoriser fortement les hommes par rapport aux femmes. En effet, l'ensemble de données contenait presque exclusivement des hommes et leurs curriculum vitae, car la plupart des employés d'Amazon sont des hommes.

Comment arrêter le biais de l'IA

L'IA révolutionne déjà notre façon de travailler chaque industrie. Avoir des systèmes biaisés contrôlant des processus décisionnels sensibles est moins que souhaitable. Au mieux, cela réduit la qualité de la recherche basée sur l'IA. Au pire, cela nuit activement aux groupes minoritaires.

Il existe des exemples d'algorithmes d'IA déjà utilisés pour aide à la prise de décision humaine en réduisant l'impact des biais cognitifs humains. En raison de la façon dont les algorithmes d'apprentissage automatique sont formés, ils peuvent être plus précis et moins biaisés que les humains dans la même position, ce qui entraîne une prise de décision plus juste.

Mais, comme nous l'avons montré, l'inverse est également vrai. Les risques de laisser les préjugés humains être intégrés et amplifiés par l'IA peuvent l'emporter sur certains des avantages possibles.

À la fin de la journée, L'IA est aussi bonne que les données avec lesquelles elle est entraînée. Le développement d'algorithmes impartiaux nécessite une pré-analyse approfondie et approfondie des ensembles de données, garantissant que les données sont exemptes de biais implicites. C'est plus difficile qu'il n'y paraît parce que tant de nos préjugés sont inconscients et souvent difficiles à identifier.

Défis de la prévention des biais de l'IA

Lors du développement de systèmes d'IA, chaque étape doit être évaluée pour son potentiel à intégrer des biais dans l'algorithme. L'un des principaux facteurs de prévention des biais est de veiller à ce que l'équité, plutôt que les biais, soit « intégrée » à l'algorithme.

Définir l'équité

L'équité est un concept relativement difficile à définir. En fait, c'est un débat qui n'a jamais fait consensus. Pour rendre les choses encore plus difficiles, lors du développement de systèmes d'IA, le concept d'équité doit être défini mathématiquement.

Par exemple, en ce qui concerne l'algorithme d'embauche d'Amazon, l'équité ressemblerait-elle à une répartition parfaite 50/50 des hommes et des femmes? Ou une proportion différente?

Détermination de la fonction

La première étape du développement de l'IA consiste à déterminer exactement ce qu'elle va accomplir. Si vous utilisez l'exemple COMPAS, l'algorithme prédit la probabilité de récidive des criminels. Ensuite, des entrées de données claires doivent être déterminées pour permettre à l'algorithme de fonctionner. Cela peut nécessiter la définition de variables importantes, telles que le nombre d'infractions antérieures ou le type d'infractions commises.

Définir correctement ces variables est une étape difficile mais importante pour garantir l'équité de l'algorithme.

Création de l'ensemble de données

Comme nous l'avons vu, les données incomplètes, non représentatives ou biaisées sont une cause majeure de biais de l'IA. Comme dans le cas de l'IA de reconnaissance faciale, les données d'entrée doivent être soigneusement vérifiées pour déceler les biais, la pertinence et l'exhaustivité avant le processus d'apprentissage automatique.

Choisir des attributs

Dans les algorithmes, certains attributs peuvent être pris en compte ou non. Les attributs peuvent inclure le sexe, la race ou l'éducation, essentiellement tout ce qui peut être important pour la tâche de l'algorithme. Selon les attributs choisis, la précision prédictive et le biais de l'algorithme peuvent être gravement affectés. Le problème est qu'il est très difficile de mesurer à quel point un algorithme est biaisé.

Le biais de l'IA n'est pas là pour rester

Le biais de l'IA se produit lorsque les algorithmes font des prédictions biaisées ou inexactes en raison d'entrées biaisées. Cela se produit lorsque des données biaisées ou incomplètes sont reflétées ou amplifiées pendant le développement et l'apprentissage de l'algorithme.

La bonne nouvelle est qu'avec la multiplication du financement de la recherche sur l'IA, nous verrons probablement de nouvelles méthodes pour réduire et même éliminer les biais de l'IA.

E-mail
5 mythes courants sur l'intelligence artificielle qui ne sont pas vrais

Mettons les choses au clair sur certains mensonges courants entourant l'IA.

Lire la suite

Rubriques connexes
  • La technologie expliquée
  • Intelligence artificielle
  • Apprentissage automatique
A propos de l'auteur
Jake Harfield (6 articles publiés)

Jake Harfield est un écrivain indépendant basé à Perth, en Australie. Lorsqu'il n'écrit pas, il est généralement dans la brousse pour photographier la faune locale. Vous pouvez lui rendre visite sur www.jakeharfield.com

Plus de Jake Harfield

Abonnez-vous à notre newsletter

Rejoignez notre newsletter pour des conseils techniques, des critiques, des ebooks gratuits et des offres exclusives !

Un pas de plus…!

Veuillez confirmer votre adresse e-mail dans l'e-mail que nous venons de vous envoyer.

.