Que ferait Mary Wollstonecraft face au biais de genre dans l'IA et à la fracture salariale technologique

Publié le 18 January 2026 | Traduit de l'espagnol
Ilustración conceptual que muestra a una figura histórica, Mary Wollstonecraft, analizando líneas de código y algoritmos en una pantalla holográfica, con gráficos que representan datos de género y salarios en el sector tecnológico.

Que ferait Mary Wollstonecraft avec le biais de genre dans l'IA et l'écart salarial technologique

Si la philosophe et écrivaine Mary Wollstonecraft vivait à notre époque numérique, sa lutte pour l'égalité trouverait un nouveau champ de bataille : le biais de genre incrusté dans les algorithmes d'intelligence artificielle et la brecha salarial persistante dans l'industrie technologique. Sa méthode, loin d'être théorique, serait éminemment pratique et transformatrice. 🧠⚖️

Un manifeste pour l'ère algorithmique

Wollstonecraft ne perdrait pas de temps en débats abstraits. Sa première action serait de rédiger un manifeste contemporain, une « Vindicación de los Derechos del Algoritmo », pour dénoncer publiquement comment les préjugés humains se transfèrent et s'amplifient dans les systèmes de machine. Ce document poserait les bases éthiques pour exiger la responsabilité dans le développement de l'intelligence artificielle.

Piliers de son manifeste :
  • Exposer comment les ensembles de données d'entraînement historiques perpétuent les stéréotypes de genre et de race.
  • Exiger que les entreprises rendent des comptes sur la logique utilisée par leurs systèmes automatisés pour décider.
  • Proposer un cadre pour coder l'équité comme un paramètre fondamental, et non comme un ajout optionnel.
Illustration pour les machines, avant que leur logique opaque n'obscurcisse l'avenir que nous construisons.

Fonder une organisation pour auditer et corriger

Après le manifeste, Wollstonecraft passerait à organiser une fondation open source. Cette entité fonctionnerait comme un contre-poids éthique au développement de l'IA, se concentrant sur deux fronts : curer des bases de données et auditer des algorithmes d'usage critique de manière gratuite et publique.

Fonctions clés de la fondation :
  • Traitement et nettoyage d'ensembles de données massifs pour éliminer les associations nuisibles avant qu'un modèle ne les apprenne.
  • Auditer des systèmes de recrutement, d'octroi de crédits et de reconnaissance faciale, en publiant des rapports détaillés montrant les failles de discrimination.
  • Utiliser le contrôle public comme moteur pour forcer les entreprises à rectifier et adopter des pratiques plus équitables.

Attaquer l'écart salarial depuis les systèmes

Pour aborder la inégalité salariale du secteur technologique, sa stratégie serait systémique. Elle comprendrait qu'il faut attaquer les causes dans les systèmes, et non seulement dans les politiques des ressources humaines. Sa fondation créerait des outils d'IA sans biais pour évaluer les candidats et examiner les compensations, offrant une alternative objective aux entreprises.

En même temps, en éduquant sur la manière dont les biais s'incrustent dans la technologie, elle donnerait du pouvoir aux professionnelles pour exiger l'équité avec des arguments basés sur des données. Son legs évoluerait de la défense des droits de la femme à la défense de la justice dans le code qui régit de plus en plus d'aspects de notre vie. Son action démontrerait que fermer l'écart nécessite d'intervenir dans la conception même des outils que nous utilisons pour organiser le travail et la société. 🔧📊