Blog

Jul 24, 2023

Orlando Scarpa

Garantir l’équité dans l’IA
Garantir l’équité dans l’IA
Garantir l’équité dans l’IA

En tant que membre de notre équipe de la science des données, j’aime explorer le potentiel de l’IA tout en veillant à ce que nos modèles soient responsables. Aujourd’hui, j’aborderai les aspects cruciaux de la diversité, de la non-discrimination et de l’équité dans l’IA.

Étant donné l’utilisation croissante de l’IA dans divers domaines, il est de la plus haute importance de s’assurer que les modèles d’IA prennent des décisions qui ne sont pas teintées par divers biais liés à des facteurs sensibles comme l’appartenance ethnique, le sexe et la religion.

Comme la plupart des modèles d’IA s’appuient sur de grandes quantités de données pour apprendre les modèles et les comportements qu’ils sont censés reproduire, il existe des risques évidents liés aux préjugés humains présents dans les données d’apprentissage qui pourraient être reflétés par les modèles.

Les données d’entraînement ne sont toutefois pas la seule source de biais, car les ingénieurs qui développent les modèles peuvent aussi avoir inconsciemment des biais cognitifs qui se reflètent dans leurs produits. C’est pourquoi il est essentiel d’explorer les étapes nécessaires pour favoriser l’équité dans les modèles d’IA et pour créer un avenir plus inclusif.

Éliminer les préjugés : Au-delà des intrants non pertinents

Une approche réductrice, mais néanmoins nécessaire, pour éviter les biais consiste simplement à supprimer toutes les données non pertinentes et potentiellement discriminatoires. Dans la grande majorité des cas, un modèle n’a pas besoin de connaître le sexe, l’origine ethnique ou la religion d’un individu. La suppression de ces variables suffit-elle donc à garantir que le modèle n’entraîne aucune discrimination sur la base de ces facteurs?

Éliminer les informations sensibles des entrées est une étape nécessaire, mais ce n’est pas une solution suffisante. La raison principale provient de ce que nous appelons les « variables de substitution ». Pour faire simple, une variable de substitution est une variable qui encode indirectement une information présente dans une autre variable. Pour prendre un exemple en rapport avec le sujet de ce billet, un modèle pourrait extraire des informations de nature ethniques ou économiques des données en examinant l’adresse d’un individu, en identifiant s’il vit dans un soi-disant « bon » ou « mauvais » quartier. Inutile de vous dire qu’il faut à tout prix éviter ce genre de généralisation.

Évaluation de l’équité du modèle : Un processus en étapes successives 

 Pour évaluer l’équité de nos modèles, je conseille de suivre un processus défini :

1. Utiliser toute une gamme de méthodes statistiques différentes pour déterminer s’il existe une association entre les résultats de nos modèles et l’ensemble des informations sensibles qui ont été supprimées des données d’entrée. Il s’agit de vérifier si le modèle fonctionne de façon foncièrement injuste.

2. Si une association statistiquement significative est trouvée, l’étape suivante consiste à identifier la source de ce biais, c’est-à-dire à trouver laquelle des variables d’entrée du modèle a l’effet d’une variable de substitution.

3. Une fois les variables de substitution trouvées, elles sont retirées des entrées, le modèle est réentraîné et le processus est répété jusqu’à ce qu’aucun biais ne puisse être trouvé parmi les résultats.

Rechercher une véritable équité : identifier et éliminer les sources sous-jacentes de préjugés.

Bien que le processus susmentionné soit une bonne approche pour éviter la reproduction des données d’entraînement ou les biais des développeurs, pour parvenir à une véritable équité, les organisations doivent aller plus loin que l’analyse statistique et tenter d’éliminer les sources sous-jacentes de partialité. D’où la nécessité d’investir dans la recherche et la transparence pour comprendre l’impact sociétal des processus commerciaux et des IA qui les influencent.

Une approche collaborative, associant les diverses parties prenantes et les communautés touchées par l’IA, peut fournir des informations et des perspectives indispensables pour créer des modèles justes et équitables. Sans une telle approche, il sera impossible d’exploiter pleinement le potentiel de l’IA pour améliorer nos vies tout en respectant les valeurs de diversité, de non-discrimination et d’équité.

Réaliser le plein potentiel de l’IA

Garantir l’équité en matière d’intelligence artificielle est de la plus haute importance dans notre monde qui carbure de plus en plus à l’IA. En abordant les questions de la diversité, de la non-discrimination et de l’équité, nous pouvons atténuer les risques de biais et de discrimination dans les décisions des modèles d’IA.

Si la suppression des données non pertinentes et l’identification des variables de substitution sont des étapes nécessaires, la réalisation d’une véritable équité requiert une approche globale. Les organisations doivent investir dans la recherche, la transparence et la compréhension de l’impact sociétal de l’IA. En outre, il est essentiel de mobiliser les diverses parties prenantes et les communautés concernées par les technologies de l’IA pour créer des modèles justes et équitables.  

Ce n’est qu’en défendant les valeurs de diversité, de non-discrimination et d’équité que nous pourrons exploiter pleinement le potentiel de l’IA pour offrir une vie meilleure à tous et créer un avenir plus inclusif. Efforçons-nous de développer l’IA de manière responsable en respectant ces principes et en garantissant un écosystème technologique juste et équitable.

 

Téléchargez notre eBook « Rapport sur la fraude à l’assurance 2022 »

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.