»

»

Le privilège blanc est ancré dans vos objets du quotidien

Le privilège blanc est ancré dans vos objets du quotidien

partagez cet article

Partager sur linkedin
Partager sur twitter
Partager sur facebook

Depuis le meurtre de Georges Floyd, un homme noir américain le 25 Mai 2020 par un policier blanc américain, et face à la faible réaction des autorités, un mouvement massif a émergé partout aux Etats-Unis pour rappeler (encore et toujours) à ceux qui n’ont pas compris (ou qui ne veulent pas comprendre) : black lives matter. Il ne s’agit pas d’un dérapage, il ne s’agit pas d’un « mauvais » flic, il s’agit d’un système mondial bien ancré, bien huilé et admis. Je ne le dirai ni mieux ni avec la légitimité de Yeshimabeit Milner dont je vous invite à lire l’article.

Pour tous ceux qui croient que ce n’est pas un système total mais quelques individus, quelques relicats du passé dans quelques institutions, ou encore quelques dérapages ; pour tous ceux qui pensent que le racisme n’est pas ancré dans leur quotidien, je partage un exemple qui me semble particulièrement parlant dans mon domaine d’expertise. Ce paragraphe est tiré d’un travail préparatoire pour un prochain livre et explore les biais dans l’utilisation de la science et l’invention des technologies. Beaucoup trop souvent ce domaine est placé hors de tout soupçon car « la science est neutre » : parfois (trop rarement) le privilège blanc est mentionné dans l’accès aux carrières scientifiques, mais il est rare qu’on vous dise que les objets techniques de votre quotidien sont aussi un résultat de ce privilège. N’ayant pas trouvé d’article récent sur le sujet, voilà ma contribution.

Non seulement la science n’est pas neutre, mais les technologies renferment, reproduisent et renforcent les inégalités. L’exemple documenté le plus récent est celui des algorithmes de reconnaissance faciale. En 2019, le National Institute of Standards and Technology (NIST), agence du département du Commerce des États-Unis, a testé les logiciels sur le marché et révélé que le nombre de faux positifs étaient 10 à 100 fois plus élevés pour les afro-américains et les amérindiens que pour les caucasiens. C’est loin d’être neutre : utilisé par les forces de l’ordre, un faux positif conduit à arrêter des innocents. Je n’ai pas besoin de rappeler les conséquences potentielles d’une telle arrestation en fonction de la couleur de peau…

L’inaction scandaleuse des concepteurs, malgré la mobilisation de groupes militants et de la presse, malgré les rapports du NIST qui pointent ces biais depuis 2011, n’a qu’une seule explication : la discrimination raciale n’est pas un enjeu sérieux à leurs yeux ! Il serait de très mauvais goût d’invoquer que l’intelligence artificielle est encore jeune, qu’il faut faire preuve de patience, laisser le temps à la technique de devenir mature (notez que c’est toujours « la technologie » qui doit devenir mature, jamais les concepteurs ou ceux qui la commercialisent) ou encore qu’ « on ne savait pas ». Il faut être sorti de l’œuf pour croire que nous découvrons le sujet. Ca a le goût amer du déjà vu : au milieu du XXème siècle les premières technologies de développement de film photographiques, mises au point pour les blancs, ne rendaient pas les contrastes sur les personnes noires.

Drziz+Gueye
artist Drziz-sn / Instagram: @drziz.sn

Est-ce que ces entreprises, se rendant compte de l’injustice massive produite par leurs solutions, les ont améliorées ? Les produits chimiques servant au développement des pellicules ont bien évolués, mais pour des raisons plus bassement terre-à-terre. Dans les années 1970, aux côtés des plaintes de particuliers, se trouvaient aussi celles des chocolatiers et des vendeurs de meubles en bois mécontents des mauvais contrastes sur les publicités de leurs produits. De l’aveu même de l’ancien directeur de la recherche de Kodak, « ce n’est jamais la peau noire qui a été considéré comme un problème sérieux à l’époque ».

Qu’est-ce qui a changé depuis ? Le développement d’une innovation prend seulement en compte ce qui est important aux yeux de ceux qui en sont à l’origine. Si l’intelligence artificielle renforce des biais, il n’y a pas à chercher très loin: c’est tout simplement que pour le système en place la vie de certaines personnes a moins de valeur que celles d’autres. Un dernier détail sur le cas Kodak est riche d’enseignement : pourquoi les communautés afro-américaines de l’époque n’ont pas fait pression sur l’entreprise ? Après tout, dans les années 1970 elles sont au cœur de revendications politiques pour l’égalité. La raison est tout aussi écœurante qu’attendue : « Le grand public considérait que ces choses étaient basés sur la science et ne pouvaient donc pas être modifiées »[1]. Voilà pour la sacro-sainte science, « neutre » par excellence, qui justifie et renforce les systèmes de domination en place.

Le racisme est structurel et encore bien présent dans absolument tous les domaines (et tous les pays), n’en doutez pas une seconde. Le combattre se passe à tous les niveaux : même celui technologique et scientifique, des algorithmes aux molécules que l’on met sur le marché.

[1] Lorna Roth, scholar at Concordia University: Roth, Lorna. April, 2009.  “Looking at Shirley, the Ultimate Norm:  Colour Balance, Image Technologies, and Cognitive Equity,” in Canadian Journal of Communication.  Vol 34, No. 1, 2009:  111 – 136.

partagez cet article

Partager sur linkedin
Partager sur twitter
Partager sur facebook

Vous avez un besoin spécifique et souhaitez échanger avec notre équipe ?

Envoyez-nous un message et nous vous répondrons dans les 24h.

A bientôt !