Aller au contenu

Which Human? L’intelligence artificielle ne pense pas (encore) en noir, en femme, en Sud

Ce texte explore les biais raciaux et sociaux de l’IA, appelant à sa décolonisation par diversité, justice et imagination.

Photo by Immo Wegmann / Unsplash

Table des matières

Ce texte s’inspire librement de l’intervention percutante de Michel-Ange Joseph, prononcée lors du Panel Internacional de Mujeres Afro Políticas tenu au Mexique, le 10 avril 2025. Son analyse critique sur les angles morts technologiques et la nécessité d’une IA décoloniale et intersectionnelle a nourri cette réflexion. Qu’elle en soit chaleureusement remerciée.

À qui profite l’intelligence artificielle ?

À cette question, on répond souvent : à tout le monde. Mais ce « tout le monde » a bien souvent un visage : homme blanc, occidental, diplômé, cisgenre.

Dans les coulisses des grandes technologies, ce sont ces profils qui décident de ce qui mérite d’être modélisé, reconnu, valorisé — et de ce qui peut être ignoré. Résultat : une IA prétendument neutre, mais profondément biaisée.

Alors, quelle humanité l’intelligence artificielle reflète-t-elle vraiment ? Et surtout, qui laisse-t-elle dans l’ombre ?

Une IA WEIRD : pensée dans un monde étroit, vendue comme universelle

Le chercheur Joseph Henrich l’a bien formulé dans son article Which Human? : la majorité des recherches cognitives (et technologiques) se basent sur des populations WEIRD (Western, Educated, Industrialized, Rich, Democratic). Ce biais a glissé, sans correction, dans les bases de données qui nourrissent l’intelligence artificielle.

De la reconnaissance faciale aux chatbots, en passant par les systèmes d’évaluation sociale, les normes incorporées dans ces technologies sont blanches, masculines, occidentales.

Quand l’IA renforce les privilèges et nie les marges

La philosophe afro-brésilienne Djamila Ribeiro rappelle que les femmes noires occupent la base de la pyramide des inégalités. Pourtant, elles sont quasiment absentes des équipes qui conçoivent l’IA.

Cette absence se paie cher :

  • Des systèmes de recrutement qui écartent les CV aux prénoms « trop ethniques ».
  • Des algorithmes médicaux moins performants pour les peaux foncées.
  • Des assistants vocaux incapables de comprendre les accents non standard.

Et pendant que les grandes entreprises vantent l’« intelligence » de leurs outils, des minerais comme le cobalt ou le lithium, indispensables à leur fonctionnement, sont extraits dans des conditions inhumaines en Afrique et en Amérique latine.

Comme l’écrivait Jacques Ellul : « Plus la technologie est sophistiquée, plus les problèmes qu’elle engendre le sont aussi. »

Le racisme (et le classisme) est l’un de ces problèmes complexes aujourd’hui. Mais la romancière Toni Morrison nous avertissait déjà : « Le racisme est une distraction. Il vous empêche de faire votre travail. Il vous oblige à justifier votre existence. »

Aujourd’hui, cette distraction est algorithmique. Programmée dans le code. Reproduite à l’échelle mondiale.

Décoloniser l’IA : trois pistes pour penser autrement

Il ne suffit pas de « corriger des biais ». Il faut repenser les fondations.

Des voix critiques, venues du Sud global, des communautés queer et des milieux militants, appellent à une réinvention radicale de l’IA. Voici trois exigences fondamentales :

  1. Des données diversifiées

Pour inclure les récits minoritaires, les langues autochtones, les savoirs ancestraux, les esthétiques non occidentales.

  1. Une régulation éthique et ferme

Pour limiter l’exploitation des données personnelles, lutter contre la surveillance des populations vulnérables et protéger les droits numériques.

  1. Une présence politique des personnes racialisées

Il ne suffit pas de « consulter » les concerné·es : il faut qu’ils codent, décident, gouvernent. La souveraineté technologique passe par la représentation réelle dans les lieux de pouvoir.

Audre Lorde nous le rappelait :

« Les outils du maître ne détruiront jamais la maison du maître. »

À nous de forger d’autres outils.

Imaginer autrement : la science comme lieu de lutte

Penser une intelligence artificielle décoloniale n’est pas un rêve utopique : c’est une nécessité politique.

C’est refuser que les technologies du futur soient le prolongement des injustices du passé.

C’est dire haut et fort que la technique n’est jamais neutre : elle reflète les structures sociales de ceux qui la conçoivent.

Toni Morrison disait :

« L’imagination est un instrument de survie. »

Alors imaginons. Programmons. Rêvons. Ensemble.

À propos de l'auteur

Jackson Jean est un consultant en politiques publiques et internationales, engagé pour les droits humains, la justice sociale et les causes afrodescendantes. Il est cofondateur du programme UNIAFRO à l’Université nationale de San Martín (Argentine) et collabore avec des institutions comme le Programme alimentaire mondial, l’OEA, NYU ou encore les Nations Unies. Titulaire de plusieurs diplômes en communication stratégique, politique internationale et gestion législative, il intervient régulièrement dans des conférences universitaires et médiatiques. Son travail porte sur les migrations, la coopération internationale, les mouvements sociaux, le racisme, le genre et la justice réparatrice.

commentaires

Dernières nouvelles