Si bien las poderosas herramientas de Inteligencia Artificial (IA) ya forman parte de nuestra vida cotidiana, la IA todavía aún está en ciernes. Según la investigación de PWC, la IA podría aportar hasta 15,7 billones de dólares a la economía mundial en 2030, y no es de extrañar que la regulación esté rezagada respecto del mercado en este sector en rápida evolución. En respuesta a una mayor conciencia de los posibles peligros que conlleva esta tecnología, la Unión Europea (UE) ha aprobado una propuesta en un primer esfuerzo internacional por regular la IA.
El marco legal propuesto, denominado Ley de Inteligencia Artificial, es un paso positivo hacia la limitación de los impactos potencialmente negativos de la IA en las personas y en la sociedad en su conjunto. Dentro de su ámbito de aplicación, se mencionan algunas de las tecnologías más emocionantes y controvertidas de la historia reciente, como la conducción autónoma, el reconocimiento facial y los algoritmos que impulsan el marketing en línea. La ley tiene pretende lograr su objetivo acercándose a la IA de forma similar al reglamento de seguridad de los productos de la UE, que sirve para dar a conocer el proceso de desarrollo y aumentar la transparencia para las personas afectadas.
La Ley de Inteligencia Artificial introducirá importantes obligaciones relacionadas con la transparencia, la gestión del riesgo y la gobernanza de datos, y es probable que se aplique a proveedores de IA como FRISS y a sus clientes como “usuarios” de nuestra IA. Al igual que el Registro General de Protección de Datos (RGPD), un marco jurídico para proteger la información personal en la UE, las multas que las autoridades podrán aplicar se clasifican por niveles según la gravedad. Sin embargo, una multa de nivel superior en virtud de la Ley de IA supera la del RGPD, alcanzando los 30 millones de euros (unos 35,5 millones de USD) o un 6% de la facturación mundial anual, la que sea la más alta.
¿Cómo aborda esta propuesta a la IA?
La Comisión ha adoptado una interpretación amplia de la IA, sin duda de manera intencional para maximizar el alcance y la eficacia de la legislación.
La IA se ha definido en términos generales en el artículo 3 de la propuesta como:
“Software desarrollado con uno o más de [ciertos] enfoques y técnicas…
Estos enfoques se encuentran enumerados en el Anexo I e incluyen enfoques de aprendizaje automático, enfoques lógicos y basados en el conocimiento y/o enfoques estadísticos.
«… y pueden, para un conjunto determinado de objetivos definidos por el hombre, generar resultados tales como contenidos, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan”.
El enfoque de la Comisión ha sido separar la IA y los requisitos correspondientes, según el nivel de riesgo. Comienza con la “IA prohibida”, que la Comisión ha clasificado como prohibida debido al riesgo excepcional inherente que conlleva. Es lo que muchos de nosotros consideraríamos como un nivel de IA “demasiado lejano”, que incluye tecnología como el reconocimiento facial biométrico en los espacios públicos o la puntuación social por parte de las autoridades.
La Comisión identifica a cierta IA como de “bajo riesgo” y “riesgo mínimo”, que solo necesitan cumplir las obligaciones básicas de transparencia para cumplir con la propuesta. Por ejemplo, bots de chat, los filtros de spam o los videojuegos que utilizan IA para emular el comportamiento realista de los jugadores humanos.
El objetivo principal de la propuesta es la “IA de alto riesgo”, cuyos ejemplos se han proporcionado en el Anexo III de la propuesta como:
- la IA relacionada con la identificación biométrica y la categorización de personas físicas;
- la gestión y explotación de infraestructuras críticas; educación y formación profesional;
- el empleo, la gestión de obras y el acceso al empleo por cuenta propia;
- el acceso y disfrute de los servicios privados esenciales ,y los servicios y las prestaciones públicas;
- la aplicación de la ley; gestión de migración, asilo y control fronterizo;
- la administración de justicia y procesos democráticos.
Si bien depende de la forma en que las pautas adicionales definan el Anexo III, es posible que el Anexo III 5 (b) tenga por objeto incluir determinados productos Insurtech. También es importante señalar que esta lista no es estática y puede ser actualizada por la Comisión para abarcar sistemas futuros o recién identificados que se determinen que son de alto riesgo, razón por la cual FRISS revisará periódicamente las novedades.
Entonces, ¿cuáles son los requisitos?
Los proveedores de sistemas de IA de alto riesgo enmarcados en esta propuesta deben implementar una serie de requisitos, tales como: contar con un sistema de gestión de riesgos, realizar prácticas de gobernanza de datos, mantener documentación técnica y gestión de archivos, así como garantizar el suministro de información transparente a los usuarios de sus sistemas (Artículo 16). Además de los requisitos centrados en el producto, los proveedores de IA también deben asegurarse de que cuentan con un sistema de gestión de calidad establecido, que realizan “evaluaciones de cumplimiento” y mantienen registros generados automáticamente. Los proveedores también deben marcar con las siglas CE los sistemas de IA de alto riesgo (o documentación) para indicar su conformidad. Si se detecta el incumplimiento de alguno de los requisitos, los proveedores deben informar a las autoridades designadas y adoptar las medidas correctivas necesarias.
Los usuarios de sistemas de IA de alto riesgo están obligados a: seguir las instrucciones emitidas que acompañan a los sistemas de IA, garantizar que los datos de entrada sean relevantes para el propósito previsto de la IA, supervisar el funcionamiento de la IA y suspender el sistema en caso de que se presente algún riesgo, y mantener y conservar los registros generados durante un plazo adecuado (Artículo 29).
El enfoque FRISS sobre esta nueva regulación
FRISS toma en serio las normas regulatorias porque referirnos a nosotros mismos como asesores de confianza no es solo un título. Celebramos poder hacer uso de la IA porque nunca duerme, es más rápida, genera menos errores y funciona con el poder colectivo de todo un departamento antifraude. Y en FRISS, la IA se utiliza para que podamos proporcionar vistas holísticas y en tiempo real de los riesgos durante la solicitud o renovaciones de pólizas y en el manejo de siniestros, para aumentar la eficiencia de nuestros clientes. Sin embargo, la transparencia también es crucial para nosotros.
Si bien esta propuesta marca el comienzo del proceso legislativo, habrá que tomar otras medidas antes de que veamos la versión final. El próximo paso de la propuesta será la revisión por parte del Parlamento Europeo y el Consejo de Ministros y, mientras tanto, los equipos de Cumplimiento Normativo y Datos de FRISS seguirán supervisando de cerca cualquier novedad al respecto, identificando cualquier cambio dentro de los requisitos básicos y garantizando su cumplimiento lo antes posible.
Desde el principio, FRISS se ha comprometido a incorporar los principios clave de IA responsable, como la reducción del sesgo, la transparencia y la gestión del riesgo, centrándose en los siguientes aspectos:
- Reducción del sesgo: Excluimos puntos de datos obvios sobre género, estado civil, nacionalidad, etnia, etc. en nuestros modelos, y nuestros científicos de datos están capacitados para reconocer también posibles equivalencias o sustitutos.
- Transparencia: Aplicamos IA explicable a todos nuestros modelos, lo que significa que los usuarios finales verán exactamente por qué un siniestro determinado se ha señalado como de alto riesgo.
- Gestión del riesgo: Hemos implementado evaluaciones de impacto en la protección de datos (DPIA, por sus siglas en inglés) en nuestro proceso de desarrollo y adoptamos un enfoque de privacidad desde el diseño, de conformidad con el RGPD.
Lo que debería saber
La Ley de Inteligencia Artificial es un paso positivo hacia el uso ético y responsable de la IA. Felicitamos el énfasis de la UE en la transparencia y la gestión del riesgo porque también creemos que debería ser un estándar del mercado para los productos accionados con IA. Nos tomamos el tiempo de analizar y observar las novedades de la propuesta para asegurarnos de entender lo que significarán estos requisitos para nuestros productos y nuestros clientes a nivel mundial. Dado que reconocemos que cumplir las normas será esencial para mantener “el funcionamiento del negocio”, estamos al tanto de estos cambios. Seguiremos monitoreando qué requisitos de cumplimiento normativo se aproximan y adoptaremos medidas necesarias hacia el cumplimiento lo antes posible.
Si desea obtener más información sobre los pasos que FRISS está adoptando para garantizar la transparencia de nuestros productos, solicite una demostración con un miembro de nuestro equipo o haga clic aquí para obtener información sobre cómo cumplimos ciertas normas de seguridad en el resto del mundo.