Embora ferramentas poderosas de Inteligência Artificial (I.A.) já estejam presentes em nosso dia a dia, a I.A. ainda está gatinhando (é ainda relativamente recente). De acordo com a pesquisa realizada pela PWC ( PWC research ), ela poderia contribuir com até US$ 15,7 trilhões para a economia global em 2030, e não é surpresa que sua regulamentação esteja aquém do desejado, haja vista, o mercado neste segmento estar em rápida evolução. Em resposta a uma maior conscientização sobre os possíveis perigos que essa tecnologia acarreta, a União Europeia (UE) aprovou uma proposta no primeiro esforço internacional para regulamentar a I.A.
A estrutura legal proposta, chamada Lei de Inteligência Artificial (Artificial Intelligence Act ), é um passo positivo para reduzir os impactos potencialmente negativos da I.A. nos indivíduos e na sociedade como um todo. Dentro de seu escopo, existem algumas das tecnologias mais interessantes e controversas da história recente, como direção autônoma, reconhecimento facial e algoritmos que impulsionam o marketing online. A lei visa alcançar isso abordando a I.A. de uma forma semelhante ao regulamento de segurança de produtos da U.E., que serve para lançar luz sobre o processo de desenvolvimento e aumentar a transparência para as pessoas afetadas.
A Lei de Inteligência Artificial irá introduzir importantes obrigações em torno da transparência, gestão de riscos e governança de dados, e é provável que se aplique a fornecedores de I.A. tais como a FRISS e os seus clientes como “utilizadores” da nossa I.A. Tal como o Regulamento Geral de Proteção de Dados (GDPR), um quadro legal para proteger a informação pessoal na U.E., as multas que as autoridades poderão emitir são escalonadas de acordo com a severidade. No entanto, uma multa de nível superior ao abrigo da lei A.I. ultrapassa as da GDPR, atingindo 30 milhões de euros (cerca de 35,5 milhões de USD) ou 6% de volume de negócios anual a nível mundial, o que for o mais elevado.
De que forma a proposta aborda a I.A.?
A Comissão adotou uma interpretação ampla da I.A., sem dúvida um ato intencional para maximizar o âmbito e a eficácia da legislação.
A.I. foi amplamente definida no Artigo 3 de referida proposta, sendo definida da seguinte forma:
“Software que é desenvolvido com uma ou mais de [certas] abordagens e técnicas …
Essas abordagens podem ser encontradas listadas no Anexo I e incluem abordagens de aprendizado de máquina, abordagens lógicas e baseadas em conhecimento e/ou abordagens estatísticas.
“… e pode, para um determinado conjunto de objetivos definidos por humanos, gerar resultados, como conteúdo, previsões, recomendações ou decisões que influenciam os ambientes com os quais eles interagem.”
A abordagem da Comissão tem sido separar a I.A. e os requisitos correspondentes, de acordo com o nível de risco. Começa com “I.A. proibida”, que foi classificada pela Comissão como fora dos limites devido ao seu risco excepcional inerente. É o que muitos de nós considerariam o nível “longe demais”, que inclui tecnologia como reconhecimento facial biométrico em espaços públicos ou pontuação social por autoridades.
A Comissão identifica certas Inteligências Artificiais como sendo de “baixo risco” e “risco mínimo”, que só precisam cumprir as obrigações básicas de transparência para estarem em conformidade com a proposta. São coisas como bots de chats, filtros de spam ou videogames que usam a I.A. para emular o comportamento realista do jogador humano.
O foco principal da proposta é “I.A. de alto risco”, exemplos dos quais foram fornecidos no Anexo III da proposta como sendo:
– IA relacionada à identificação biométrica e categorização de pessoas físicas;
– Gerenciamento e operação de infraestrutura crítica; educação e formação profissional;
– Emprego, gestão de obras e acesso ao trabalho autônomo;
– Acesso e gozo de serviços privados essenciais e serviços e benefícios públicos;
– Aplicação da lei; migração, asilo e gestão de controle de fronteiras; e,
– Administração da justiça e processos democráticos.
Embora dependa da forma como as orientações adicionais definem o Anexo III, é possível que o Anexo III 5 (b) se destine a incluir determinados produtos Insurtech. É também importante notar que esta lista não é estática e pode ser atualizada pela Comissão para incluir sistemas futuros ou recentemente identificados considerados de alto risco, razão pela qual a FRISS acompanhará regularmente os desenvolvimentos desta Lei.
Quais são então os requisitos?
Os fornecedores de sistemas de I.A. de alto risco ao abrigo da proposta devem implementar uma série de requisitos, tais como: ter um sistema de gestão de risco, realizar práticas de governança de dados, manter documentação técnica e manutenção de registos, bem como assegurar o fornecimento de informação transparente aos utilizadores dos seus sistemas (artigo 16º). Para além dos requisitos centrados no produto, os fornecedores de I.A. devem também assegurar-se de que dispõem de um sistema de gestão da qualidade, que realizam “avaliações de conformidade” e que mantêm registos gerados automaticamente. Os fornecedores devem também afixar uma marcação CE em sistemas de I.A. de alto risco (ou documentação) para indicar a sua conformidade. Se for identificada a não conformidade com algum dos requisitos, os fornecedores devem informar as autoridades nomeadas e tomar as medidas corretivas necessárias.
Os usuários de sistemas de I.A. de alto risco são obrigados a: seguir as instruções emitidas que acompanham tais sistemas, assegurar que os dados introduzidos são relevantes para o objetivo pretendido da I.A., monitorizar o funcionamento da I.A. e suspender o sistema caso seja apresentado qualquer risco, e manter e reter os registos gerados durante um período apropriado (Artigo 29).
A abordagem da FRISS em relação a este novo regulamento
A FRISS leva os padrões regulatórios a sério porque nos referimos como consultores confiáveis, e isso não é um mero título. Congratulamo-nos com o uso de I.A. porque ela nunca dorme, é mais rápida, tem menos erros e opera com o poder do cérebro coletivo de todo o departamento antifraude. E na FRISS, a A.I. é utilizada para que possamos fornecer visualizações holísticas e em tempo real dos riscos durante os processos de solicitações de apólices, renovações e sinistros, a fim de aumentar a eficiência para nossos clientes. No entanto, a transparência é igualmente crucial para nós.
Embora esta proposta marque o início do processo legislativo, há outras ações que terão de ser tomadas antes de vermos a versão finalizada. O próximo passo da proposta será a revisão pelo Parlamento Europeu e Conselho de Ministros, e nesse meio tempo, as equipes de Compliance e Dados da FRISS continuarão a acompanhar de perto esses desenvolvimentos, identificando quaisquer alterações dentro dos requisitos essenciais e alinhando-se com estes o mais breve possível.
Desde o início, a FRISS tem estado empenhada em incorporar princípios-chave de I.A. responsável, com redução de preconceito, transparência, e gestão de risco, concentrando-se nos seguintes aspectos de cada um:
- Redução de preconceito: Excluímos pontos de dados óbvios sobre gênero, estado civil, nacionalidade, etnia, etc. Nossos modelos, e os nossos cientistas de dados são também treinados para reconhecer possíveis proxies.
- Transparência: Aplicamos I.A. explicável a todos os nossos modelos, o que significa que os usuários finais verão exatamente por que razão um determinado sinistro foi sinalizado como de alto risco.
- Gestão do risco: Implementamos Avaliações do Impacto da Proteção de Dados (DPIAs) em nosso processo de desenvolvimento e adotamos uma abordagem de privacidade em cada projeto, em conformidade com o GDPR.
O que queremos que saiba
A Lei de Inteligência Artificial representa um passo positivo para o uso ético e responsável da Inteligência Artificial. Louvamos o maior enfoque dado pela U.E. em relação `a transparência e gestão de riscos, porque também acreditamos que este deve ser um padrão de mercado para produtos alimentados por I.A. Estamos dedicando um tempo para analisar e observar os desenvolvimentos na proposta para ter certeza de que entendemos o que esses requisitos significarão para nossos produtos e clientes em todo o mundo. Como reconhecemos que estar em compliance será essencial para manter o “business as usual”, estamos atentos a essas mudanças. Continuaremos monitorando quais requisitos regulamentares estão no horizonte e tomaremos medidas responsáveis em direção à conformidade o mais cedo possível.
Se desejar saber mais sobre as etapas que a FRISS está realizando para garantir a transparência de nossos produtos, agende uma demonstração com um membro de nossa equipe ou clique aqui (here) para se inteirar sobre como cumprimos certos regulamentos de segurança em outras partes do mundo.