Jun 26, 2023
Richard Bakker
O ChatGPT se tornou rapidamente um nome conhecido por todos, mas outros excelentes aplicativos à base de inteligência artificial (IA) têm ganhado força nos últimos meses, geralmente com menos atenção que o mais famoso deles. Como entusiasta da fotografia e da edição, fiquei impressionado com o que vi no Adobe Firefly, que gera imagens de fundo a partir de inserções do usuário, e no DragGAN, que permite alterações em roupas, expressões faciais e outros elementos de uma imagem. Esses avanços me fizeram pensar em como será o futuro da tecnologia de IA e, como acontece com qualquer inovação, que a necessidade de regulação é cada vez mais evidente.
Avanços na regulação da IA
Foram feitos avanços consideráveis no campo de regulação da IA recentemente. Em uma postagem anterior no blog, abordei os requisitos iniciais definidos na Lei sobre Inteligência Artificial da União Europeia. Contudo, vale notar que a versão preliminar dessa lei foi aprovada no mês passado, e isso representa um passo importante rumo a um campo de atuação mais regulado. A lei proíbe determinados sistemas de IA, como a identificação biométrica em tempo real, e deve ser plenamente aprovada em 2024 após dois anos de implementação.
Além dos esforços da União Europeia, o Senado dos Estados Unidos realizou sua primeira audiência sobre IA para debater a regulação desse campo. Falaram durante a audiência figuras importantes como Sam Altman (OpenAI), Gary Marcus (Geometric Intelligence) e Christina Montgomery (IBM). Ainda que se tenha tentado fazer analogias entre IA e tecnologias transformadoras anteriores como a máquina de imprensa, a internet e as mídias sociais, foi interessante perceber um senso de urgência relativo a controle e mitigação de riscos. Greg Brockman e Ilya Sutskever, cofundadores da OpenAI, enfatizaram a necessidade de regulação e propuseram o estabelecimento de um órgão regulatório internacional semelhante à Agência de Energia Atômica Internacional (AEAI) para supervisionar o desenvolvimento da IA. Além disso, especialistas do campo e figuras públicas expressaram preocupação quanto aos riscos da IA em uma declaração pública.
O compromisso da FRISS com a IA responsável
A FRISS defende práticas de IA responsáveis há muito tempo. Isso está incorporado em nossos valores fundamentais para assegurar transparência, justiça e modelos de IA não discriminatórios. Temos a convicção de que a IA deve ser utilizada como uma ferramenta de apoio em processos já existentes para promover eficiência e precisão, mas se resguardando de vieses. Dessa forma, aplicamos os sete princípios para a IA confiável em nossa plataforma, que se fundamentam nas “Diretrizes éticas para a inteligência artificial confiável” desenvolvidas pelo grupo de especialistas em IA da Comissão Europeia. São esses sete princípios:
Transparência
Solidez e segurança técnica
Intervenção e supervisão humanas
Governança de privacidade e dados
Bem-estar social e ambiental
Responsabilidade e prestação de contas
Nos próximos meses, vamos nos aprofundar em alguns desses aspectos fundamentais da IA responsável e oferecer nossas percepções e pontos de vista.
O futuro da IA responsável
O futuro da IA responsável reside em alcançar um equilíbrio entre inovação e regulação. A IA segue evoluindo a um ritmo acelerado, e é essencial monitorar e regular sua implementação para evitar potenciais danos.
A aprovação da versão preliminar da Lei sobre Inteligência Artificial da União Europeia e as audiências no Senado norte-americano representam marcos importantes no caminho rumo à IA responsável. Ao adotarmos a IA responsável, podemos desencadear todo o potencial dessa tecnologia transformadora, mitigando riscos e criando um futuro melhor para todos.