Jul 24, 2023

Orlando Scarpa

Garantindo a justiça com IA
Garantindo a justiça com IA
Garantindo a justiça com IA

Como integrante da nossa equipe de Ciência de Dados, eu adoro explorar o potencial da IA enquanto garanto que nossos modelos sejam responsáveis. Hoje falarei sobre os aspectos cruciais da diversidade, não discriminação e justiça da IA.

Com o uso crescente da IA em vários domínios, é de máxima importância garantir que os modelos de IA tomem decisões independentes de fatores sensíveis como etnia, gênero e religião.

Como a maioria de modelos de IA contam com grandes quantidades de dados para aprender os padrões e comportamentos que eles foram feitos para reproduzir, há riscos óbvios associados com preconceitos humanos presentes no treinamento de dados que poderiam refletir nos modelos.

O treinamento de dados não é, contudo, a única fonte de preconceito, pois os engenheiros desenvolvendo modelos também poderiam inconscientemente ter seus preconceitos cognitivos refletidos em seus produtos. É por isso que é crucial explorar os passos necessários para promover a justiça nos modelos de IA e criar um futuro mais inclusivo.

Removendo preconceitos: Além das inserções irrelevantes

 Uma abordagem ingênua, mas ainda necessária, para evitar preconceito é simplesmente remover quaisquer inserções irrelevantes e potencialmente discriminatórias. Na vasta maioria dos casos, um modelo não tem necessidade de saber o gênero, a etnia ou a religião de um indivíduo, portanto, remover essas variáveis é o suficiente para garantir que o modelo não discriminará com base nesses fatores?

Enquanto remover informações confidenciais das inserções é necessário, não é o suficiente. A principal razão para isso é o que chamamos de “variáveis representante”. Para simplificar, uma variável representante é uma variável que codifica indiretamente a informação presente em outra variável. Um exemplo desta postagem de blog  relevante ao tema seria um modelo que atribui uma etnia ou informação econômica aos dados olhando para o endereço de um indivíduo, identificando se ele vive em uma vizinhança denominada “boa” ou “ruim”. É evidente que isso precisa ser prevenido a todo custo.

Avaliação do modelo de justiça: Um processo passo a passo

 Para avaliar a justiça de nossos modelos, meu conselho é seguir um processo estabelecido:

1. Use um conjunto de métodos estatísticos diferentes para determinar se há qualquer associação entre nossos resultados dos modelos e todas as informações confidenciais que foram removidas das inserções. Isso foi para verificar se o modelo está se comportando deslealmente.

2. Se uma associação estatisticamente significativa é encontrada, o próximo passo é identificar a fonte deste preconceito, ou seja, encontrar quais das variáveis de inserção do modelo estão se comportando como um representante.

3. Assim que os representantes são encontrados, eles são removidos das inserções, o modelo é retreinado e o processo repetido até que nenhum preconceito seja encontrado nos resultados do modelo.

Esforce-se para ter justiça de verdade: identifique e elimine as fontes de preconceito subjacentes.

 Enquanto o processo acima mencionado é uma boa abordagem para evitar a reprodução de treinamento de dados ou o preconceito do desenvolvedor para alcançar justiça de verdade, as organizações devem ir além da análise estatística e tentar eliminar as fontes subjacentes de preconceito. Por esta razão, é necessário investir em pesquisa e transparência para compreender o impacto societário de processos comerciais e as IAs que os influenciam.

Uma abordagem colaborativa, engajando-se com diversos stakeholders e comunidades afetadas pela IA, pode fornecer informações e perspectivas valiosas para criar modelos justos e equitativos. Apenas assim podemos compreender o potencial completo da IA em melhorar nossas vidas enquanto protege os valores de diversidade, não discriminação e justiça.

Compreendendo o potencial completo da IA

 Garantir a justiça na inteligência artificial é da máxima importância em nosso mundo cada vez mais impulsionado por IA. Quando você aborda diversidade, não discriminação e justiça, podemos mitigar os riscos de preconceitos e discriminação nas decisões de modelo de IA.

Remover inserções irrelevantes e identificar representantes são passos necessários, alcançar a justiça verdadeira requer uma abordagem abrangente. As organizações devem investir em pesquisa, transparência e uma compreensão do impacto social da IA. Além disso, engajar-se com diversos stakeholders  e comunidades afetadas por tecnologias de IA é crucial para criar modelos justos e igualitários.  

Só quando defendemos os valores da diversidade, não discriminação e justiça podemos aproveitar completamente o potencial da IA para melhorar vidas e criar um futuro mais inclusivo. Vamos nos esforçar em direção ao desenvolvimento de uma IA responsável que defende esses princípios e garante um cenário paisagem tecnológico justo e equitativo.

 

Baixe nosso e-book “Transformação Digital De Seguros Maximizando Oportunidades Por Meio Da Mitigação De Fraudes” e saiba mais sobre o papel da IA na digitalização do mercado de seguros.

 

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.

We use cookies to give you the best online experience. Find out more on how we use cookies in our cookie policy.