Economie

« La question n’est pas celle d’une intelligence artificielle qui remplace l’expert mais qui le seconde »

Tribune. Le public a peur de l’intelligence artificielle (IA), car elle pourrait reproduire des discriminations du monde réel plus efficacement : on se souvient d’Amazon qui a tenté de filtrer les candidatures à l’embauche à l’aide de l’IA, pour ne se retrouver qu’avec des hommes blancs aux entretiens. Si l’IA est développée avec des données qui souffrent de tels biais, ce n’est pas étonnant qu’elle les reproduise en mieux !

Pourtant, si l’on « nettoie » les données qui servent à l’IA, il restera du chemin à parcourir. C’est la thèse du National Institute of Standards and Technology (NIST), l’agence américaine de standardisation, dans son rapport « A Proposal for Identifying and Managing Bias in Artificial Intelligence », soumis à consultation, dans le cadre du plan de Joe Biden qui vise à encourager un usage responsable et innovant de l’IA.

Le biais du « solutionnisme »

Le premier risque de biais est d’imaginer l’application d’IA en fonction des données qui existent déjà. Même si elles sont exemptes de biais, elles vont influencer la question à résoudre par l’IA. Il vaut mieux penser le problème à résoudre indépendamment, et tant pis s’il n’y a pas encore de données pour l’apprentissage, il faudra les créer. On ne procède pas autrement en science : on génère en laboratoire les mesures nécessaires à l’expérience qu’on a imaginée avant et pas l’inverse (et si ce n’est pas possible, comme pour les études sur le climat, on recourt aux simulations numériques).

Archives : Contre le « solutionnisme » numérique

Entre les données qu’on est capable de rassembler et celles du monde réel, il peut y avoir un fossé : c’est l’exemple des questionnaires en ligne que l’on juge vite représentatifs alors qu’ils font évidemment l’impasse de tous ceux qui ne répondent pas.

On pense qu’une application d’IA une fois déployée a subi une phase de test qui la valide. Or avec le Covid-19, selon le NIST, des applications d’IA ont été diffusées dans l’urgence en se disant que leur utilisation en production servirait aussi de test. Ces exemples montrent les biais introduits non par les données mais par un cycle de développement d’IA peu rigoureux.

En second lieu, l’IA souffre du biais du « solutionnisme » : elle va apporter des solutions à tout. Dans ce cas, on pêche par optimisme, on imagine sans limite le potentiel de l’IA. Impossible alors de faire intervenir la gestion des risques qui voudrait mettre des limites raisonnables à son utilisation. Ce sont des trouble-fêtes.

Un comité d’éthique

Il vous reste 57.89% de cet article à lire. La suite est réservée aux abonnés.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page