ArtigosInteligência Artificial

A regulação da inteligência artificial, uma tarefa complexa que pode definir os rumos de um país

A regulação da inteligência artificial, uma tarefa complexa que pode definir os rumos de um país

A regulação da inteligência artificial, uma tarefa complexa que pode definir os rumos de um país

No Brasil, busca-se o ponto ideal entre a inovação e a norma dessa tecnologia

Nos últimos anos, esforços têm sido empreendidos para encontrar um equilíbrio adequado entre a inovação tecnológica e a proteção dos interesses públicos e direitos individuais, o que se manifesta por meio de abordagens regulatórias variadas. O respeito à privacidade e proteção dos dados pessoais, a necessidade de um regime de responsabilidade, e requisitos de segurança, transparência, explicabilidade e não discriminação parecem representar um denominador comum nos mais diversos instrumentos regulatórios da inteligência artificial.

“O ponto é que, por mais que simbolizem a boa-vontade global para a regulação da IA, esses documentos trazem princípios e compromissos gerais e voluntários, deixando à margem algumas vezes os interesses econômicos e políticos subjacentes à corrida do ouro contemporânea. É diante disso que Estados também buscam organizar estruturas e padrões internos próprios, em conformidade com suas características sociais, econômicas e políticas específicas, seja estabelecendo “meros” princípios éticos que guiem o desenvolvimento da IA, seja definindo regras mais robustas e rígidas”, esclarece Ricardo Campos, diretor do Legal Grounds Institute e docente na Goethe Universidade Frankfurt am Main. 

O AI Act europeu apresenta um desenho rígido, focado estritamente nos direitos fundamentais dos usuários, a abordagem estadunidense tem como premissa principal uma agenda pró-inovação, que se volta à eliminação de potenciais barreiras ao avanço tecnológico. De um lado, o modelo europeu implica alguns problemas, especialmente em razão de sua inflexibilidade quanto às classificações e limitações do uso da IA, além de sanções que podem impedir o investimento em tecnologia; do outro, um modelo autorregulatório, com normas baseadas em consensos, mas que pode acabar por descuidar de determinados direitos e garantias.

No contexto brasileiro, o atual PL 2338/23, é louvável pela instituição de uma comissão de juristas extremamente qualificados para debater o assunto, contando com o entusiasmo salutar do ilustre Presidente Senador Rodrigo Pacheco, tendo produzido uma norma moderna e muito bem estruturada. Se não bastasse, a norma vem sendo objeto de grande debate em Comissão Especial no Senado Federal, demonstrando a maturidade do parlamento e preocupação quanto a matéria tão importante. Com efeito, dentro de algumas preocupações, estão aquelas desenvolvimentistas dentro do dilema secular de inovação e regulação, buscando-se o ponto ideal que não alije o Brasil, que tem enorme potencial na criação de novas tecnologias e ideias da corrida internacional, e preserve a mitigação de riscos, que são sempre potencializados em um país continental, com muitas diferenças raciais e sociais, dentre outras. Assim, na busca de se contribuir para o debate, é imprescindível que o Congresso se debruce na verificação de categorizações e particularidades setoriais, e no contexto sociopolítico econômico, preservando-se o estimulo à inovação e desenvolvimento tecnológico no Brasil. Nesse sentido, a autorregulação regulada (i.e., com participação de entes privados no processo regulatório, sob supervisão do Estado) representa uma via promissora para fomentar o desenvolvimento ético e responsável da IA, ao mesmo tempo em que haja flexibilidade e adaptabilidade necessárias para a inovação. “A utilização de ferramentas de autorregulação, adaptadas a contextos e casos de uso específicos, incentiva a adoção voluntária dessas ferramentas. Ao fim e ao cabo, isso permite a adaptação das normas às necessidades singulares das diversas aplicações da IA, estabelecendo um ambiente regulatório que respeita e promove direitos fundamentais e, ao mesmo tempo,