No mundo atual, a percepção das dificuldades não pode mais se dissociar do remanejamento dos quadros funcionais.
Pensando mais a longo prazo, a percepção das dificuldades possibilita uma melhor visão global dos métodos utilizados na avaliação de resultados.

pensamento do dia

Assim mesmo, a complexidade dos estudos efetuados ainda não demonstrou convincentemente que vai participar na mudança dos métodos utilizados na avaliação de resultados.

Regulação da IA é regulação da própria vida na Terra, adverte ministro

Spread the love

O ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva afirma não haver uma fórmula para a regulamentação da inteligência artificial. Mas enfatiza a necessidade de níveis mínimos de segurança, pois o “custo de não fazer nada é maior que o custo de fazer”.

Ricardo Villas Bôas Cueva mergulhou no desconhecido. Encarou o desafio de presidir uma comissão de juristas responsável por subsidiar a elaboração de um projeto de lei para regulamentar a inteligência artificial no Brasil. O trabalho do grupo serviu de base para o PL 2.338/2023, que tramita no Senado Federal.

Quer saber os principais fatos ligados ao serviço público? Clique aqui e se inscreva gratuitamente para receber a newsletter Por Dentro da Máquina

Na percepção do ministro, com o avanço da tecnologia, e a sua incorporação ao cotidiano, as pessoas já clamam por uma regulação. Sem isso, diz, a inteligência artificial está sujeita a todo tipo de distorções e vieses cognitivos. “A depender da base de dados que ela precisa para treinar, vai gerar problemas sérios”.

A conclusão é a de que “a regulação de inteligência artificial é a regulação da própria vida no planeta Terra, em condições minimamente seguras”. Isso não significa que as novas regras devam estrangular tecnologias nascentes. Mas, sim, permitam que o tema seja acompanhado de perto nos mais diferentes segmentos da sociedade e da economia.

O ministro Ricardo Villas Bôas Cueva recebeu a reportagem do JOTA em seu gabinete, em Brasília, no último dia 4 de março. A seguir, os principais trechos da entrevista.

Na opinião do senhor, em um contexto geral, quais são os riscos de uma inteligência artificial desregulamentada?

A inteligência artificial já se incorporou ao nosso dia a dia de maneira nem sempre perceptiva. Sem um mínimo de regulação, ela está sujeita a todo tipo de distorções, vieses cognitivos. A depender da base de dados que ela precisa para treinar, a inteligência artificial vai gerar problemas sérios. São questões delicadas que exigem uma norma estatal de caráter geral. Daí, esse debate, que na Europa já é muito acentuado há vários anos, de editar uma norma regulatória que crie um modelo de governança, uma análise de riscos. O Brasil se inspirou nisso, em uma regulação que vai além dos princípios.

Como o senhor responderia à crítica de que o projeto de lei que regulamenta a inteligência artificial no Brasil é muito mais prescritivo do que principiológico?

Uma norma meramente principiológica equivale a uma desregulação. A crítica que se faz a modelos mais efetivos é a de que isso pode inibir a evolução tecnológica, favorecer os grandes players e diminuir a possibilidade de novos entrantes. Tudo isso foi considerado. Não vivemos no mundo do Vale do Silício dos anos 1970. As empresas gastam centenas de milhões de dólares para construir um modelo novo. Claro, é fundamental impedir que a regulação sufoque no nascedouro uma tecnologia que tem tantos benefícios, mas tudo tem que ser feito com cuidado. O custo de não fazer nada é maior que o custo de fazer.

A tecnologia avança a despeito de qualquer tentativa de regulamentação. Esse é um fenômeno inerente ao desenvolvimento da sociedade. O que é possível regular dentro desse ambiente?

Os aviões também eram um elemento inerente ao desenvolvimento da sociedade. Hoje, a chance de você ter um acidente e morrer é menor do que de carro. Isso se deve a uma regulação que aconteceu pari passu com o desenvolvimento da máquina e da indústria. Quando nossa comissão foi criada, em 2022, havia até uma gozação. ‘Como vai regular isso? Nem existe. Vai impedir que a inteligência artificial crie o melhor sorvete de chocolate?’ Com a emergência da inteligência artificial generativa, o jogo muda completamente. Começam a clamar por regulação. Como fazer isso? Ninguém tem receita de bolo.

Como pôr essa tecnologia em um sistema que possa ser acompanhado da mesma forma que o setor de aviação?

A primeira exigência é a transparência. Qual o dataset usado? Segundo, deixar migalhas de pão, como na história de João e Maria. Uma das dificuldades dos modelos fundacionais é que nem os desenvolvedores conhecem o output final. Em tese, se você deixar migalhas de pão, vai conseguir retraçar esse caminho. É um desafio permanente. Quanto mais a tecnologia se desenvolver, mais difícil será regulá-la. Haverá sempre um descompasso, mas você vai procurar garantir níveis de segurança mínimos. A regulação de inteligência artificial é a regulação da própria vida no planeta Terra em condições minimamente seguras.

O senhor citou o setor aéreo, que é altamente regulamentado. A inteligência artificial teria de ser regulamentada nesse nível ou seria algo mais flexível?

Será regulamentada nesse nível setorialmente. A inteligência artificial no setor aéreo será alvo de uma regulação densa, profunda e complexa. A inteligência artificial na saúde também será objeto de uma regulação setorial muito forte. Veículos autônomos e por aí vai… Teremos várias camadas de regulação setorial. Quanto mais arriscado o uso, maior será a regulação. Mais densa, mais específica, mais invasiva. Mas a regulação geral também vai existir, por exemplo, para definir como se dará a responsabilidade civil pelo mau uso da inteligência artificial, os modelos de governança e se vai existir uma autoridade.

Na sua avaliação, são os próprios provedores que terão de pagar pelo controle das suas atividades ou o governo tem de estar preparado para acompanhar o desenvolvimento da tecnologia, seu uso e, potencialmente, seus prejuízos?

A autorregulação vai conviver com a heterorregulação. Autorregulação só é eficiente se houver algum órgão estatal que a acompanha. São ideias que convivem bem. Uma não exclui a outra. E haverá, sem dúvida, um dispêndio público para exercer esse controle, ainda que seja mínimo. A comissão defende uma intervenção menos invasiva que a europeia, mas que garanta um mínimo de transparência, auditabilidade e capacidade de correção de rumos. O papel de uma autoridade seria esse. Você estimula a inovação, permite, como regra, que as empresas criem tudo, mas procura classificar os riscos.

Em que medida, do ponto de vista jurídico, é possível existir uma Câmara que acompanhe os grandes saltos da tecnologia?

Na Europa, imagina-se que as autoridades de proteção de dados teriam uma afinidade maior com o tema e poderiam ter esse papel. Na prática, tudo é mais difícil. A autoridade de proteção de dados no Brasil padece de dificuldades. Então, seria difícil fazer isso. É uma questão de desenho institucional. A ANPD (Autoridade Nacional de Proteção de Dados), com as condições precárias que tem de funcionamento, não seria a candidata ideal. Teria que se imaginar uma alternativa. No projeto, isso ficou em aberto. É uma questão que vai além da norma geral e abstrata. Fica com a vontade política, com o orçamento, alguém que vá botar a mão na massa e dedicar recursos para essa autoridade.

O senhor acredita que o projeto de lei que visa estabelecer o marco da inteligência artificial no Brasil sobreviveu ao tempo?

Sobreviveu e está sendo objeto de uma nova discussão no Senado, com outra comissão, que procura levar em consideração esses modelos de inteligência artificial generativa. A ideia jamais foi a de criar uma norma que resolvesse todos os problemas. Você tem um embrião de regulação, procurando causar o menor dano possível; permitir que haja o desenvolvimento livre da inteligência artificial; e impedir a criação de barreiras artificiais à inovação tecnológica. Que se crie mesmo um ambiente de estímulo à inovação, ao debate. 

Conte um pouco mais sobre a visão do senhor no que diz respeito à responsabilização de plataformas por eventuais delitos, más práticas e abusos.

As plataformas não são participantes inocentes, bystanders, como se colocam. Elas têm, sim, responsabilidade por aquilo que podem causar — e causam — de danos concretos a pessoas identificáveis, a processos eleitorais, à democracia. O artigo 19 (do Marco Civil da Internet) as exime do controle editorial, como se elas não fossem de maneira nenhuma responsáveis por aquilo que veiculam. A exceção é o artigo 21, que fala de nudez e pornografia. O artigo 19 está em debate no Supremo Tribunal Federal. É um debate que existe há muitos anos e que, certamente, merece ser travado: a adequação aos preceitos constitucionais desse dispositivo do Marco Civil, que é muito antiquado.

Sobre a proteção de dados no Brasil, já temos alguns anos de vigência completa da lei. Quais são os maiores gargalos e onde poderíamos avançar?

Há um bom caminho a percorrer. A autoridade deveria ter um papel maior de orientação dos destinatários das normas, de maneira a deixar claro quando e em qual intensidade que a lei se aplica. Teremos que ter cartilhas, modelos de orientação de vários setores, que pudessem se adequar às novas regras e evitar riscos de proteção excessiva de dados, de proteção errônea de dados. O Judiciário ainda olha com muita curiosidade esse tema porque as grandes questões de proteção de dados ainda não chegaram aos tribunais superiores. Vai demorar um tempo ainda para amadurecer a questão.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *