Blog

Jul 24, 2023

Orlando Scarpa

Garantizar la equidad en la IA
Garantizar la equidad en la IA
Garantizar la equidad en la IA

Como parte de nuestro equipo de ciencia de datos, me encanta explorar el potencial de la Inteligencia Artificial (lA) y asegurarme de que nuestros modelos sean responsables. Hoy hablaré de los aspectos fundamentales de la diversidad, la no discriminación y la equidad en la IA.

Con el uso cada vez mayor de la IA en varios dominios, es de suma importancia garantizar que los modelos de IA tomen decisiones independientes de factores sensibles como el origen étnico, el género y la religión.

Como la mayoría de los modelos de IA se basan en grandes cantidades de datos para aprender los patrones y comportamientos que deben reproducir, existen riesgos obvios asociados con los sesgos humanos presentes en los datos de entrenamiento que podrían reflejarse en los modelos.

Sin embargo, los datos de entrenamiento no son la única fuente de sesgo, ya que los ingenieros que desarrollan modelos también podrían ver sus sesgos cognitivos inconscientemente reflejados en sus productos. Por eso es crucial explorar los pasos necesarios para fomentar la equidad en los modelos de IA y crear un futuro más inclusivo.

Eliminar los sesgos: Más allá de las entradas irrelevantes

Un enfoque ingenuo pero necesario para evitar el sesgo es simplemente eliminar cualquier entrada irrelevante y potencialmente discriminatoria. En la gran mayoría de los casos, un modelo no necesita conocer el género, el origen étnico o la religión de una persona, por lo tanto, ¿es suficiente eliminar estas variables para garantizar que el modelo no discrimine en función de estos factores?

Si bien es necesario eliminar información confidencial de las entradas, no es suficiente. La razón principal de esto es lo que llamamos “variables proxy”. Para decirlo de forma sencilla, una variable proxy es una variable que codifica indirectamente la información presente en otra variable. Para poner un ejemplo que sea relevante para el tema de esta publicación, un modelo podría recoger información étnica o económica de los datos mirando la dirección de un individuo, identificando si vive en un vecindario denominado “bueno” o “malo”. No hace falta decir que esto debe evitarse a toda costa.

Evaluar la equidad del modelo: Un proceso paso a paso

 Para evaluar la equidad de nuestros modelos, mi consejo es seguir un proceso establecido:

1. Use un conjunto de diferentes métodos estadísticos para determinar si existe alguna asociación entre los resultados de nuestros modelos y toda la información confidencial que se eliminó de las entradas. Esto es para verificar si el modelo se está comportando de manera injusta.

2. Si se encuentra una asociación estadísticamente significativa, el siguiente paso es identificar la fuente del sesgo, es decir, encontrar cuál de las variables de entrada del modelo se está comportando como proxy.

3. Una vez que se encuentran las proxy, se eliminan de las entradas, el modelo se vuelve a entrenar y el proceso se repite hasta que no se encuentra ningún sesgo en las salidas del modelo.

Esfuércese por la verdadera equidad: identifique y elimine las fuentes subyacentes de sesgo.

Si bien el proceso mencionado anteriormente es un buen enfoque para evitar la reproducción de datos de capacitación o el sesgo del desarrollador, para lograr una verdadera equidad, las organizaciones deben ir más allá del análisis estadístico e intentar eliminar las fuentes subyacentes de sesgo. Por esta razón, es necesario invertir en investigación y transparencia para comprender el impacto social de los procesos comerciales y de las IA que los influyen.

Un enfoque colaborativo, que involucre a diversas partes interesadas y comunidades afectadas por la IA, puede proporcionar información y perspectivas valiosas para crear modelos justos y equitativos. Solo entonces podremos aprovechar todo el potencial de la IA para mejorar nuestras vidas mientras defendemos los valores de diversidad, no discriminación y equidad.

Aprovechar todo el potencial de la IA

Garantizar la equidad en la inteligencia artificial es de suma importancia en un mundo cada vez más impulsado por la IA. Al abordar la diversidad, la no discriminación y la equidad, podemos mitigar los riesgos de sesgos y discriminación en las decisiones del modelo de IA.

Si bien la eliminación de entradas irrelevantes y la identificación de las proxy son pasos necesarios, lograr una verdadera equidad requiere un enfoque integral. Las organizaciones deben invertir en investigación, transparencia y comprensión del impacto social de la IA. Además, involucrarse con las diversas partes interesadas y comunidades afectadas por las tecnologías de IA es crucial para crear modelos justos y equitativos.  

Defendiendo los valores de la diversidad, la no discriminación y la equidad podremos aprovechar al máximo el potencial de la IA para mejorar vidas y crear un futuro más inclusivo. Esforcémonos por lograr un desarrollo de IA responsable que defienda estos principios y garantice un panorama tecnológico justo y equitativo.

 

Descargue nuestro libro electrónico “Informe de Fraude en seguros 2022"

 

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.