Gian Luigi Chiesa , Data Scientist en FRISS, habla sobre la necesidad de inteligencia artificial (IA) explicable.
FRISS está comprometido en lograr un seguro equitativo. Nos esforzamos por proporcionar evidencia de que nuestras predicciones son sistemáticamente correctas y justas.
La IA estará en todas partes
Entre los expertos, no hay duda de que pronto la Inteligencia Artificial (IA) formará parte de la vida diaria de todos. Los vehículos totalmente autónomos viajarán por nuestras carreteras. En lugar de los humanos al volante, hay poderosas máquinas accionadas por IA que comprenden el mundo complejo y en constante cambio, lo que nos permite conducir por las carreteras de manera más segura al tomar decisiones en una fracción de segundo en las que nuestras vidas están en juego.
La IA no podrá distinguirse de los humanos
Estas innovaciones de IA también se están produciendo en otras áreas. Muchos de nosotros ya estamos interactuando con máquinas accionadas por IA en forma de asistentes inteligentes, como Siri de Apple, Dúplex de Google o Alexa de Amazon. Las interacciones que tenemos con estas máquinas se volverán indistinguibles de las interacciones humanas. Esto significa que debemos ser capaces de confiar en sus decisiones.
A veces, es necesario confiar en la IA
Tener confianza en una máquina es fácil si puede ver que sus predicciones son correctas. Por ejemplo, podemos observar directamente que un vehículo autónomo está dando un giro correcto y lo está haciendo en tiempo récord, y siempre existe la posibilidad de anular sus decisiones en condiciones más difíciles. Cuando un sistema complejo predice el clima, vemos que, por lo general, es correcto. E incluso, cuando no lo es, a menudo lo peor que puede pasar es que nos mojemos.
La equidad y precisión de la IA
La confianza es mucho más difícil cuando las predicciones no se pueden observar directamente. Por ejemplo, cuando no se acepta automáticamente una solicitud de póliza basada en un modelo accionado por IA. Tenga en cuenta que, en tales casos, es mucho más difícil juzgar si la decisión real es correcta o, incluso, está justificada. Además, es fundamental cuando sus decisiones accionadas por IA afectan la vida de las personas, como en los sistemas automatizados de elegibilidad para cupones de alimentos o beneficios de seguro médico. En tales casos, usted debe ser capaz de justificar sus decisiones.
A medida que los modelos mejoran y hay más cantidad de datos, los algoritmos que se aplican se vuelven cada vez más complejos, como en las redes neuronales profundas, que pueden constar de cientos de capas ocultas y miles de nodos. El precio que pagamos por esta complejidad es la falta de interpretabilidad, la respuesta a por qué tomamos ciertas decisiones.
Discriminación
Las máquinas accionadas por IA son muy buenas para captar tendencias en los datos y en el uso de esta información para hacer predicciones. Si se recopilan correctamente, los datos reflejan el comportamiento de una sociedad. Cada sociedad tiene sus desafíos y defectos fundamentales, que se ocultan en los datos.
Si no tiene cuidado, las máquinas de IA codificarán estos posibles prejuicios nocivos. Y esto puede dar lugar por ejemplo, al fenómeno de la «redlining», que consiste en una negación sistemática de los beneficios de cuidado de la salud y servicios financieros a las personas que viven en áreas específicas y que, a menudo, están asociadas con minorías étnicas o una raza en particular.
FRISS – Seguro equitativo = AI explicable
FRISS está comprometido a lograr un seguro equitativo. Nos esforzamos por proporcionar evidencia de que nuestras predicciones son sistemáticamente correctas y justas. Lo logramos fusionando modelos de aprendizaje automático de vanguardia con técnicas de interpretación y explicación del modelo, como, por ejemplo, LIME o modelos sustitutos globales.
Creemos que una IA equitativa significa una IA transparente, donde puede ver qué datos se utilizan en cada predicción, y puede corregirlos rápidamente si considera que hace predicciones injustas. La historia de la humanidad es una historia de automatización. Pero la confianza no debe automatizarse. La confianza se gana a través de la honestidad y la equidad. Y si no entiende el proceso, ¿cómo sabe que está actuando de manera equitativa y justa?