Titre : Quand l’IA oublie des vies entières : le coût humain des biais algorithmiques
Et pour toi comment se passe tes recrutements en tant qu 'Afrodescendant.e ?
Kemy, 29 ans, et les 545 portes fermées par une machine
Kemi a tout pour plaire sur le papier : un master en finance obtenu à Paris, cinq ans d’expérience en gestion de projets, et une énergie à revendre. Pourtant, entre septembre et décembre 2025, ses 78 candidatures se sont soldées par 545 refus automatiques. Pas un seul entretien. Pas une seule chance de montrer qui elle est vraiment.
Un jour, elle tente une expérience : elle remplace son prénom, Kemy, par Kamille, et retire la mention de son engagement dans une association étudiante afro-caribéenne. Résultat ? Sept entretiens en deux semaines.
Ce n’est pas une coïncidence. C’est la preuve que les systèmes de recrutement automatisés (ATS) ne jugent pas les compétences. Ils comparent des mots à des statistiques passées — des statistiques où les personnes afrodescendantes ont été, pendant des décennies, sous-représentées dans les postes à responsabilité. L’IA ne crée pas la discrimination. Elle la recopie, à l’identique, et l’amplifie.
L’IA n’est pas neutre : elle reflète nos silences
On entend souvent dire qu’une IA « n’a pas d’opinion ». C’est vrai. Mais elle a des données. Et ces données, ce sont nous qui les lui donnons.
Des visages invisibles :
80 % des images utilisées pour entraîner les algorithmes de reconnaissance faciale viennent de pays occidentaux. Conséquence ? Une photo de famille prise à Dakar a 10 à 100 fois plus de risques d’être mal interprétée qu’une photo prise à Stockholm. En 2024, le NIST (institut américain des normes) a confirmé que les progrès restaient insuffisants : les erreurs persistent, surtout pour les peaux foncées.Des langues effacées :
Les grands modèles de langage (comme ceux qui alimentent les chatbots) sont entraînés sur un Internet où l’anglais représente plus de 50 % des contenus. Le wolof, le lingala, le créole haïtien ? Moins de 1 %. Pire : quand ces langues apparaissent, c’est souvent à travers des stéréotypes ou des traductions approximatives.Des CV triés par le passé :
Les algorithmes des ATS s’appuient sur les recrutements des 20 dernières années. Si une entreprise n’a jamais embauché une personne portant un prénom yoruba ou peul, l’IA apprend que ces prénoms sont « moins fiables ». En France, une étude de 2025 a montré qu’un CV avec un prénom d’origine maghrébine ou ouest-africaine avait 43 % de chances en moins d’être sélectionné… à compétences égales.
L’IA ne discrimine pas par malveillance. Elle discrimine parce qu’on lui a appris à le faire.
Ce que la science nous dit (et qu’on ignore trop souvent)
En 2018, la chercheuse Joy Buolamwini (MIT) a révélé un scandale : les algorithmes de reconnaissance faciale d’Amazon, IBM et Microsoft échouaient dans 35 % des cas pour les femmes à la peau foncée, contre seulement 1 % pour les hommes à la peau claire. Six ans plus tard, malgré les « améliorations », le problème persiste.
En France, des tests menés sur 12 000 candidatures fictives ont confirmé ce que beaucoup pressentaient : le système pénalise les noms qui ne ressemblent pas à la « norme ». Et ce n’est pas une fatalité. C’est un choix technique — et donc politique.
Trois actions concrètes pour réparer l’IA
1. Auditer avant de déployer
Avant d’utiliser un outil d’IA dans le recrutement, la santé ou la finance, il faut tester ses biais. Des méthodes existent :
Mesurer les écarts de résultats entre groupes (par genre, origine, âge…).
Analyser la répartition des prédictions : qui est favorisé ? Qui est exclu ?
Comparer avec des données réelles pour identifier les distorsions.
Problème : Peu d’entreprises le font, car ça prend du temps… et ça coûte de l’argent.
2. Diversifier les données (vraiment)
On ne peut pas attendre d’une IA qu’elle reconnaisse correctement les visages africains si on ne lui montre que des visages européens. Idem pour les langues, les prénoms, les parcours professionnels.
Cela suppose :
De collecter des données représentatives, avec le consentement et une rémunération équitable des contributeur·rices.
De sortir des bases de données occidentales toutes faites, qui ignorent des réalités entières.
3. Construire des alternatives souveraines
Certaines initiatives refusent d’attendre que les géants du numérique corrigent leurs modèles. Elles développent leurs propres outils, adaptés aux réalités afrodescendantes et marginalisées.
Exemple inspirant : Indye Gyal’Z Corporation, qui a déployé 210 agents IA spécialisés en 10 mois, dont plusieurs dédiés à l’audit éthique. Preuve que l’innovation peut être inclusive… si on le décide.
Pourquoi ça nous concerne tous·tes ?
Les biais algorithmiques ne touchent pas que les personnes afrodescendantes. Une IA mal conçue discrimine aussi selon :
Le genre (les femmes sont sous-représentées dans les données techniques).
L’âge (les seniors sont souvent exclus des tests utilisateurs).
Le handicap (les outils de reconnaissance vocale peinent avec certains accents ou troubles de la parole).
La localisation (un·e candidat·e de province a moins de chances qu’un·e Parisien·ne).
Si on ne fait rien, on se dirige vers une société où des algorithmes décideront qui a droit à un emploi, un logement, un prêt ou un traitement médical… sans aucun contrôle démocratique.
Ce qui arrive aux Afrodescendant·es aujourd’hui arrivera à d’autres demain.
Conclusion : l’IA est un miroir. Et nous ?
L’intelligence artificielle n’est ni bonne ni mauvaise. Elle est le reflet de celles et ceux qui la conçoivent, des données qu’on lui donne, et des priorités qu’on lui fixe.
Si les équipes sont homogènes, si les bases de données sont partielles, si les tests ignorent l’équité… l’IA reproduira les injustices du passé.
La bonne nouvelle ? Ça peut changer. Mais ça ne changera pas tout seul.
Pour aller plus loin :
📖 Guide pratique : Protéger la propriété intellectuelle culturelle africaine à l’ère de l’IA (18 min)

Commentaires
Enregistrer un commentaire