Réponses de Lucile Ramackers, secrétaire générale de Femmes en Mouvement, senior manager chez Cap Gemini et corédactrice d’une étude sur l’IA générative au service des mobilités durables.
Ville, Rail & Transports. En se nourrissant et en agrégeant des données, les IA reproduisent certains stéréotypes de genre. Y a-t-il un risque de voir des outils IA truffés de préjugés sexistes ? Faut-il des données genrées ?
Lucile Ramackers. Dans la mobilité, et dans tous les domaines en général, on manque de données genrées. Il existe beaucoup moins de données sur les femmes, et quand on en a, elles ne sont pas toujours agrégées selon le genre. C’est le masculin par défaut. Les producteurs de données ne sont pas forcément conscients de cette réalité, mais si les données de base fournies aux IA désavantagent les femmes, les IA ne vont faire que reproduire les modèles existants. Sur certains cas d’usage, le risque, c’est même qu’elles aillent plus loin et amplifient ces stéréotypes. Cela est valable pour les femmes, comme pour d’autres catégories de populati
Le dossier complet est réservé aux abonnés ou aux détenteurs d’un porte-monnaie électronique, connectez-vous pour y accéder.
*Formule numérique sans engagement à partir d’un 1€ par mois !