Les as de l'info
Logo du site Les as de l'info

Personnage des As de l'info jaune
lundi 12 janvier 2026
Connecte-toi Pour les
profs
Aucun terme ne correspond à cette recherche
Connecte-toi Pour les
profs
  • Accueil
  • Toutes les nouvelles
  • Articles
  • Balados
  • Biographies
  • Quiz
  • Vidéos
  • Les As de l'entrevue
  • Dossiers spéciaux
  • Lexique
  • Qui sommes-nous?
  • Pour les profs
  • Pour les parents
  • Écris-nous
  • Connecte-toi
  • Nos règles
Techno
IMAGE LES AS DE L'INFO

L’IA est-elle juste avec tout le monde?

Publié aujourd'hui à 12h00
Techno
Avatar de l'utilisateur Marilys Beaudoin
Marilys Beaudoin

Cet article fait partie de notre nouvelle série: IA-tu pensé?, dans laquelle on t’explique tout ce que tu dois savoir sur cette nouvelle technologie: évolution, forces, limites, impact, pour que tu puisses réfléchir sur sa place dans la société!

Une machine peut-elle avoir des préférences? On dit souvent que l’intelligence artificielle (IA) est objective, parce qu’elle n’a pas d'émotion, d’opinion ou de préjugé. Pourtant, ce n’est pas si simple. Je t’explique!

 

L’IA n’invente rien toute seule: elle apprend à partir de données produites par les humains. Et si ces données ne représentent pas tout le monde de façon équitable, l’IA développe ce qu’on appelle des biais de représentativité: elle hérite des préjugés des humains qui ont produit ou sélectionné le contenu sur lequel l’algorithme est entraîné.

 

La représentatita… quoi?

Un biais de représentativité se produit lorsqu’un groupe de personnes est mal représenté dans les données utilisées pour entraîner une IA. Autrement dit, l’IA reçoit beaucoup d’exemples de certaines personnes, mais peu d’exemples d’autres. Résultat: elle devient très performante pour reconnaître ou comprendre un certain groupe, mais beaucoup moins pour les autres.

 

Par exemple, lors de l’entraînement, si 9 photos de médecins sur 10 qu’on donne à l’IA montrent des personnes blanches, l’algorithme associera le mot «médecin» à des personnes blanches. Et à l’avenir, quand on lui demandera de créer une image représentant un médecin, par exemple, l’IA risque de ne pas inclure de personne noire, arabe, asiatique.... Même si ce métier est en réalité aussi pratiqué par des gens de toutes les origines. 
 

Pourquoi est-ce un problème?

Ce biais a des conséquences bien réelles: il renforce les inégalités déjà existantes dans notre société. 

 

Par exemple, certaines entreprises utilisent l’IA pour trier rapidement les CV. Le but est de gagner du temps et de trouver plus facilement de bons candidats. C’est le cas de la compagnie Amazon, qui avait entraîné une IA avec les profils de personnes embauchées dans les 10 années précédentes. 

 

Or, la majorité de ces employés étaient des hommes. Résultat: l’IA «apprenait» qu’être un homme était un critère important, et elle pénalisait automatiquement les candidatures de femmes, même si elles avaient les mêmes compétences. Si un humain utilise l’IA sans corriger ces préjugés, cela peut désavantager gravement des personnes dans le monde réel. 

 

Je te rassure: Amazon n’utilise plus ce programme!

 

Existe-t-il des solutions?

La première étape, c’est de connaître l’existence de ce biais. Si les programmeurs savent que le problème existe, ils peuvent entraîner les IA avec des données qui prennent en compte toute la diversité.

 

En santé, par exemple, l’Organisation mondiale de la santé (OMS) recommande que les données utilisées tiennent compte du genre, de l’âge et de l’origine ethnique des personnes, afin que l’IA puisse mieux servir tout le monde.

 

Mais le plus important, c’est d’user de notre jugement: une force que nous avons, les humains! Il faut toujours remettre en question le résultat donné par une IA et avoir conscience des potentiels biais présents dans les données d’entraînement.

 

Selon toi, peut-on dire que l’IA est «injuste» si elle reproduit ce qu’elle a appris des humains?

En remerciant, pour son apport au contenu, M. Julien Besset, vulgarisateur scientifique chez

Pour ou contre

POUR OU CONTRE la construction d’écoles temporaires?

Il manque de places dans les écoles du Québec. Que faire? Une première école temporaire ouvrira bientôt ses portes. Bonne idée ou solution risquée? Voyons les POUR et les CONTRE.

Lire plus
Aujourd'hui, il y a 11 heures 70
Pour ou contre
Inspiration

La musique d’un jeune Canadien fait son entrée dans Fortnite!

Aujourd’hui, Clémence te parle d’un jeune homme du Nouveau-Brunswick qui a réussi quelque chose d’assez incroyable : faire entrer sa musique dans le célèbre jeu Fortnite!

Lire plus
Hier à 06:00 53
Inspiration
Cocasse

La semaine du 5 janvier en mèmes!

Neige en France, sièges d'avion trop serrés, Groenland convoité… Voici ce qui a attiré notre attention cette semaine!

Lire plus
10 janvier 2026 93
Cocasse
Société

États-Unis: Un drame, deux versions contradictoires

Mais que s'est-il passé à Minneapolis? On décortique cette triste nouvelle avec une experte. 

Lire plus
9 janvier 2026 199
Société
Voir tout
Nos règles Nos partenaires Politique de confidentialité Conditions d'utilisation
Logo des Coops de l'information
Retour
en haut
© 2026 Les Coops de l'information