Economie

« Le nouveau modèle s’appuie de plus en plus sur la responsabilisation des entreprises »

Tribune. Les systèmes d’intelligence artificielle (IA) présentent aujourd’hui de nombreux risques pour les individus : ils peuvent porter atteinte à la vie privée ou s’avérer discriminatoires, manipulateurs ou même produire des préjudices physiques, psychologiques ou économiques. Par exemple, les systèmes d’IA peuvent perpétuer des préjugés sociaux et discriminer les femmes ou les personnes LGBT (lesbiennes, gays, bisexuels et transgenres) sur le lieu de travail ou les minorités sociales dans des contextes de prévention de la criminalité.

Ils peuvent aussi manipuler les comportements en ligne des enfants, des personnes âgées ou même d’autres consommateurs, en exploitant leurs vulnérabilités grâce à des analyses de données avancées, et en les forçant à prendre des décisions commerciales (ou même électorales, comme dans le scandale de Cambridge Analytica) non souhaitées ou déraisonnables. En même temps, ces systèmes peuvent être obscurs et donc difficiles à remettre en question.

Lire aussi L’intelligence artificielle, enjeu majeur pour l’UE

Pour aborder ces questions, la Commission européenne a publié le 21 avril une nouvelle proposition de réglementation de l’intelligence artificielle, qui doit maintenant être discutée et approuvée par le Conseil et le Parlement européen. La proposition introduit une approche fondée sur le risque pour les produits et services basés sur l’IA, avec des règles de conception ambitieuses et des charges administratives, mais il n’ajoute aucun nouveau droit individuel pour les consommateurs/citoyens.

Interdictions

Alors que, par le passé, l’accent était mis sur le modèle « notification et droits individuels », le nouveau modèle s’appuie de plus en plus sur la responsabilisation des entreprises, sur la base de mesures techniques et organisationnelles visant à atténuer les risques de l’IA pour les humains, une autorité de surveillance contrôlant la conformité.

Dans le cadre proposé, certains systèmes d’IA sont interdits : les « dark patterns » (les publicités en ligne manipulatrices) qui causent des préjudices non économiques aux consommateurs ou qui exploitent leur vulnérabilité en raison de leur âge ou de leur handicap ; les systèmes de crédit social produisant des effets préjudiciables disproportionnés ou hors contexte ; et les systèmes d’identification biométrique utilisés par les forces de l’ordre dans les espaces publics (lorsque leur utilisation n’est pas strictement nécessaire ou lorsque le risque d’effets préjudiciables est trop élevé).

Article réservé à nos abonnés Lire aussi « Les développements à venir de l’intelligence artificielle nécessitent une réflexion forte sur les limites à imposer »

D’autres systèmes d’IA sont considérés à haut risque (notamment la reconnaissance des visages et des émotions, l’IA utilisée dans les infrastructures critiques, dans les contextes de l’éducation, de l’emploi, de l’urgence, d’asile et de frontières, dans l’aide sociale, pour l’évaluation du crédit, par les forces de l’ordre ou les juges).

Il vous reste 55.78% de cet article à lire. La suite est réservée aux abonnés.


Source link

Afficher plus

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page