La justice sociale : l’angle mort de la révolution de l’intelligence artificielle
Par Karine Gentelet, titulaire de la Chaire Intelligence artificielle et justice sociale et Sandrine Lambert de l'Université Laval
14 juin 2021 - The Conversation
Dans un contexte où nous avons de plus en plus recours à l’IA pour aider à la prise de décision dans des secteurs clés comme la santé et les services aux citoyens, ses promoteurs mettent en l'avant les bienfaits de ces technologies, nourrissant l’espoir d’un avenir meilleur. Mais ce glissement vers la prouesse technique dissimule certains problèmes techniques et soulèvent de nouveaux enjeux éthiques. Les questions de justice sociale seraient-elles restées dans l’angle mort de ce déploiement de l’IA ?
Par Karine Gentelet de l'Université du Québec en Outaouais (UQO), titulaire de la Chaire Intelligence artificielle et justice sociale Abeona – ENS-PSL – OBVIA et Sandrine Lambert de l'Université Laval
L’intelligence artificielle (IA) fait actuellement couler beaucoup d’encre et suscite des sentiments ambivalents entre dilemmes éthiques et enthousiasme débordant. Mais les questions de justice sociale seraient-elles restées dans l’angle mort de ce déploiement de l’IA ?
Dans un contexte où le recours aux technologies de l’IA est croissant pour aider à la prise de décision dans des secteurs clés comme la santé et les services aux citoyens, les promoteurs de l’intelligence artificielle mettent de l'avant les bienfaits de ces technologies, nourrissant l’espoir d’un avenir meilleur.
Ainsi s’opère un glissement vers la prouesse technique qui dissimule certains problèmes accompagnant les développements technologiques. Cela se répercute sur les options de participation, de contribution et de consentement qui sont laissées aux citoyens.
Cette injonction au progrès nous invite à ne pas manquer le virage numérique, à nous adapter sans cesse, sans avoir le temps de prendre la mesure des conséquences de l’intrusion des technologies de l’IA dans notre quotidien. Ce manque de recul critique, de transparence et d’évaluation des technologies déployées, tout comme l’absence de participation des citoyens sur les questions numériques posent des problèmes en matière de justice sociale.
Par exemple, comment documenter une décision discriminatoire sur l’accès à un service essentiel, comme l’aide sociale, si cette décision a été prise sur la base d’informations fournies par un algorithme dont le fonctionnement n’est pas rendu public ? Comment avoir un débat de société sur le recours à l’IA s’il n’est pas possible de savoir qui gère (et comment) des données sensibles sur la santé, entre autres choses, comme dans le cas des récentes discussions sur les passeports vaccinaux numériques ?
Les biais de l’IA
Nombreux sont les groupes et communautés qui demeurent invisibles au regard des technologies numériques soit parce qu’ils sont déjà socialement marginalisés ou parce que leurs besoins ne sont pas prioritaires.
Par exemple, certains outils de détection des maladies excluent des personnes ayant la peau plus foncée. D’autres outils utilisés par la police pour identifier des personnes ciblent davantage des groupes déjà largement victimes de profilage racial.
Bref de nombreuses personnes peuvent être affectées par les biais et les discriminations de genre, de race, de lieux, ou encore de littératie numérique. Ces injustices renforcent le poids d’enjeux sociaux et économiques auxquels font face des citoyens qui sont alors écartés des processus décisionnels et davantage exclus de la société.
L’exclusion d’une partie de la population des développements technologiques, comme les personnes ne disposant pas de téléphones intelligents ou qui ne sont pas représentées dans les données, rendent plus évidentes les nécessaires mises en action sur les questions d’IA et de justice sociale. Les applications inadéquates telles que celles qui visent à géolocaliser les employés posent aussi des enjeux de consentement et de protection à la vie privée dont il faudra tenir compte.
Les fractures numériques
Les fractures numériques reflètent d’ailleurs avant tout des fractures sociales profondes et amplifiées – éloignement géographique, faible niveau d’éducation, fossé générationnel – qui n’ont jamais fait l’objet d’une discussion collective. On se questionne peu également sur le réel besoin d’avoir des technologies de reconnaissance faciale ou qui détectent les émotions, ainsi que sur les limites et les enjeux entourant l’usage de ce type de procédés.
Les technologies numériques sont pilotées par des entreprises qui, comme Google, cherchent à restreindre les réglementations et à miser plutôt sur certaines normes éthiques plus flexibles et non contraignantes. Si nous ne remettons pas le développement technologique au cœur de débats plus larges sur le respect des droits de la personne et les enjeux démocratiques, la somme des dommages des technologies de l’IA deviendra supérieure à ses multiples avantages.
Actuellement, l’absence de consultation, de participation et d’échanges sur notre présent et notre avenir numérique ne permet pas d’inscrire l’IA dans les principes de justice sociale et de justice politique. En effet, comme le dit le sociologue Éric Olin Wright, « dans une société socialement juste, l’ensemble des individus disposeraient assez largement d’un accès égal aux moyens matériels et sociaux de vivre une vie épanouissante ». Nous avançons qu’ils doivent aussi disposer d’un accès aux instances de pouvoir afin d’être en mesure de faire des choix éclairés.
En ce sens, selon nous, tout projet technologique doit être vu comme un projet à la fois sociétal, mais aussi politique. Certaines décisions représentent des choix de société et ne peuvent pas être laissées sous la seule responsabilité du secteur privé. Or, fonder la décision sur une poignée d’experts qui « eux seuls savent » n’invite pas à prendre part à la discussion.
L’urgence de… ralentir
Comme le rappelle la sociologue Alex Haché, « nous sommes tous experts dans notre propre relation avec les technologies, nous pouvons donc tous jouer à les analyser pour les réinventer ». C’est ainsi qu’il convient de s’intéresser à d’autres manières de faire pour reprendre le contrôle de nos destinées numériques.
Globalement, il ne s’agit pas tant de savoir s’il faut plus d’IA, moins d’IA ou même si c’était mieux avant. Personne n’est contre le progrès tant qu’on ne s’emploie pas à le définir ou à en dessiner les contours. Exiger la participation et la contribution des citoyens au débat de société, sans d’abord leur laisser la possibilité de se représenter dans cet écosystème technologique ou de déterminer les problèmes auxquels ils font face, s’inscrit dans l’injonction au progrès dont nous parlions précédemment.
Il est en effet souhaitable de décider collectivement des domaines d’application de l’IA et des limites sociétales à imposer pour ne pas empiéter sur un certain nombre de droits de la personne. Il est également requis de réfléchir collégialement à sa mise en œuvre pour tendre vers l’équité et la justice sociale. Il faut contrer cette obligation de prendre le virage numérique à tout prix et à toute vitesse, afin d’éviter la sortie de route. S’il y a une urgence, c’est celle de ralentir et de faire émerger des conditions favorables à la participation des citoyens. Ainsi, il sera possible de trouver des réponses inclusives à des problématiques numériques qui demeurent avant tout sociales.
Karine Gentelet de l'Université du Québec en Outaouais (UQO), titulaire de la Chaire Intelligence artificielle et justice sociale Abeona – ENS-PSL – OBVIA et Sandrine Lambert de l'Université Laval
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.