Leia o texto a seguir para responder à questão.
OS DILEMAS REGULATÓRIOS DA INTELIGÊNCIA
ARTIFICIAL
Conferência global conclui haver “potencial para danos graves”.
Desafio é garantir avanço reduzindo riscos.
A opinião do Globo (Em 06/11/2023)
Reunidos no Reino Unido, na última semana, representantes de 28
países, entre eles Estados Unidos, China, Japão, Alemanha, Brasil
e Índia, chegaram a um acordo para tentar entender e gerenciar os
riscos trazidos pela tecnologia conhecida como inteligência
artificial (IA), a habilidade de computadores processarem
linguagens de modo praticamente indistinto dos humanos. “Há
potencial para danos graves, até mesmo catastróficos, deliberados
ou não intencionais”, diz o texto da Declaração de Bletchley, local
da cúpula sediada pelo governo britânico, onde Alan Turing, um
dos fundadores da ciência da computação, trabalhou na Segunda
Guerra Mundial.
Nas últimas duas décadas, uma técnica chamada “aprendizado de
máquina” permitiu que softwares pudessem interpretar, com
extrema rapidez, quantidades enormes de exemplos e
aperfeiçoassem respostas a desafios complexos sem ser
programados especificamente para enfrentá-los. Computadores se
tornaram imbatíveis em jogos de estratégia e noutras atividades
sofisticadas.
Embora não sejam autônomos, racionais nem independentes de
trabalho humano, esses programas impõem novos riscos,
principalmente nos campos da segurança cibernética,
biotecnologia e desinformação, como destaca a Declaração de
Bletchley. Alguns imaginam que ferramentas como o ChatGPT
possam um dia informar a qualquer um como criar armas potentes
ou espalhar doenças contagiosas.
Antes da reunião em Bletchley, o presidente americano, Joe
Biden, assinou decreto para que regulem o uso de IA. Mostrou
preocupação com o poder de desinformação e contou que sua
equipe preparara, a título de ilustração, um vídeo fraudulento
(deep fake) com Biden falando algo que nunca disse. O perigo
desses vídeos é evidente, em especial quando o alvo são
autoridades. Entre as novas regras divulgadas na Casa Branca,
desenvolvedores de sistemas de IA terão de compartilhar
resultados de testes de segurança e informações críticas com o
governo.
O tema é considerado urgente no mundo todo. Até o final do ano,
o Parlamento Europeu deverá aprovar a Lei da Inteligência
Artificial. A China já adotou várias regras. O assunto vem sendo
debatido também no Brasil. A questão é como proceder. Não há
consenso sobre o que fazer para evitar os riscos sem que a
regulação acabe estrangulando a inovação ou concentrando o
poder nas mãos de poucas empresas financeiramente capazes de
seguir as regras que vierem a ser impostas. Outra dúvida é se os
governos precisarão criar novos organismos regulatórios ou se os
existentes se adaptarão. O desafio diante do mundo é garantir a
evolução da tecnologia, sem dúvida fonte de avanços, com o
mínimo de riscos para os usuários, para a sociedade e para as
instituições. A cúpula de Bletchley certamente não será a última a
explorar os dilemas trazidos pela IA.