A corda bamba da regulação da IA no Brasil



COMECE HOJE MESMO




ABRIR O CATÁLOGO DE MÁQUINAS




TUDO SOBRE SEGURO DE VIDAS




ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES


O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$


NÚMERO DE DIÁRIAS MINIMO 3



QUERO SABER + / CONTATO DO IMÓVEL




QUERO SABER SOBRE O CAVALO COMO COMPRAR




O melhor da web






GANHE DINHEIRO NO AIRBNB




DRA LARISSA





CONFIRA O CANAL


CONFERIR PERFIL NO LinkedIn










CONFERIR





Spread the love

A crescente proliferação da inteligência artificial (IA) em diversas esferas sociais e econômicas acelerou a necessidade de regulamentação adequada que possa abordar tanto os benefícios quanto os riscos associados a essa tecnologia disruptiva. A internacionalização dessa corrida regulatória reflete um anseio global por estabelecer normas que não apenas protejam os indivíduos e a sociedade, mas também promovam a inovação e o desenvolvimento tecnológico.

A regulação da inteligência artificial, que é um tema ardente e complexo, ganha contornos especiais em um país tão diversificado como o Brasil. O Tribunal de Contas da União (TCU) em seu acórdão 616-24 destaca a delicadeza desse equilíbrio, elencando nove riscos cruciais que podem comprometer não apenas o desenvolvimento tecnológico, mas também o econômico do país. Este artigo busca discutir esses riscos, compará-los com abordagens internacionais e sugerir formas de mitigação.

Abordagens internacionais na regulação de IA

Segundo o TCU, os modelos regulatórios predominantes na governança da IA são categorizados em abordagens principiológicas, baseadas em riscos e baseadas em direitos, cada uma impactando de maneira significativa o desenvolvimento e uso da IA.

Abordagem Principiológica: Esta estratégia é guiada por valores éticos, como justiça, transparência, responsabilidade e privacidade. Proporciona um quadro extremamente flexível que se ajusta às mudanças nas necessidades e contextos, embora possa carecer da rigidez necessária para enfrentar de forma eficaz riscos específicos.
Regulação Baseada em Riscos: Esta abordagem classifica os riscos associados à IA de forma mais precisa e estabelece diretrizes específicas para diferentes categorias de sistemas de IA. Um exemplo é a União Europeia, que implementou esta metodologia no AI Act, categorizando os riscos em inaceitáveis, altos e baixos, e definindo obrigações regulatórias específicas para cada nível.
Abordagem Baseada em Direitos: Concentra-se na proteção dos direitos humanos e fundamentais, garantindo que as aplicações de IA não violem-os. Embora seja eficaz na salvaguarda desses direitos, esta abordagem pode limitar a necessária flexibilidade para acompanhar a rápida evolução tecnológica.

Nesse contexto, diversos países já avançaram em propostas legislativas e regulamentares, cada qual com suas peculiaridades. Pioneira, a União Europeia (UE) propôs uma abordagem regulatória baseada em riscos, categorizando aplicações de IA em quatro níveis de risco. Essa estratégia visa proteger os cidadãos enquanto fomenta a inovação dentro de um quadro ético robusto. Os EUA têm adotado uma abordagem mais descentralizada e setorial, focando em diretrizes éticas e deixando a maior parte da regulamentação a cargo dos Estados e da iniciativa privada. Em contrapartida, a China implementa uma regulação estatal mais rígida, com foco em segurança nacional e controle de dados, mas também com fortes investimentos em IA como motor de crescimento econômico.

Cenário brasileiro: Projetos de Lei e desafios

No Brasil, vários projetos de lei buscam estabelecer a estrutura regulatória da IA. Destacam-se o PL 21/2020 e o PL 2338/2023, que propõem desde a criação de fundamentos e princípios até a imposição de restrições baseadas no nível de risco das aplicações de IA. Contudo, à medida que o Brasil se aventura tentando avançar na criação de um marco regulatório para a inteligência artificial, o TCU apresenta uma série de riscos que poderiam não só moldar, mas também potencialmente limitar, o futuro tecnológico do país.

Essas preocupações surgem no contexto de uma rápida evolução tecnológica global, onde a capacidade de uma nação de se manter competitiva está intrinsecamente ligada à sua abordagem regulatória. O Acórdão 616/2021 traz desafios específicos que surgem a partir da regulamentação proposta, desde a dependência tecnológica até barreiras que podem obstruir inovações emergentes, cada um deles com implicações profundas para o desenvolvimento econômico, social e tecnológico do Brasil. Os riscos apresentados pela Corte de Contas, seriam:

Dependência de Importação de Tecnologia: A regulação excessiva pode inibir o desenvolvimento local, aumentando a dependência tecnológica externa.
Barreiras para Startups e Empresas Menores: Regulações desproporcionais podem impedir a entrada de novos players, essenciais para a inovação no mercado de IA.
Perda de Competitividade Internacional: Restrições mais severas podem tornar produtos e serviços brasileiros menos atrativos internacionalmente.
Monopólio e Oligopólio: Regulações podem favorecer empresas maiores em detrimento da competição justa.
Fuga de Talentos: Um ambiente regulatório hostil pode desencorajar a retenção e atração de talentos em IA.
Impacto em Setores Menos Intensivos em IA: Regulações genéricas podem afetar negativamente setores que utilizam IA de forma menos crítica.
Direitos Autorais e Desenvolvimento de IA: Restrições rígidas em direitos autorais podem limitar a inovação em IA.
Inovação no Setor Público e Privado: Regulações inflexíveis podem estagnar a inovação tecnológica nos setores público e privado.
Transformação Digital do Estado: Regulações inadequadas podem retardar a digitalização dos serviços públicos, prejudicando a oferta e a qualidade dos mesmos.

Implicações para a inovação

A forma como a IA é regulamentada pode ter um impacto significativo na capacidade de um país de permanecer competitivo no cenário tecnológico global. Regulamentações demasiadamente rígidas podem estagnar a inovação e desencorajar investimentos, enquanto políticas demasiadamente flexíveis podem falhar em proteger contra os riscos potenciais. A escolha do modelo regulatório adequado deve, portanto, encontrar um equilíbrio entre proteção e liberdade, permitindo que a inovação floresça ao mesmo tempo em que garante a segurança e o respeito pelos direitos fundamentais.

À medida que a IA continua a se desenvolver em um ritmo acelerado, a necessidade de uma regulamentação adequada se torna cada vez mais crítica. As estratégias adotadas por diferentes nações ou blocos econômicos podem servir como modelos para outros países, e o diálogo e a cooperação internacionais serão essenciais para garantir que a governança global da IA seja tanto eficaz quanto propícia à inovação.

A balança entre proteger direitos e privacidade versus fomentar a inovação tecnológica está em um ponto crítico. O Brasil está diante de um desafio monumental: moldar um futuro em que a tecnologia não apenas avança, mas avança de forma justa e inclusiva. As regulações não devem apenas impor limites, mas também pavimentar caminhos para novas possibilidades, garantindo que a evolução tecnológica beneficie todos, sem sacrificar a ética ou a competitividade global.

Portanto, a questão que se impõe é: vamos permitir que a regulamentação seja um entrave à inovação, ou vamos transformá-la em uma alavanca para um desenvolvimento equilibrado e sustentável? A escolha que fizermos agora definirá o papel do Brasil no palco tecnológico mundial por décadas. É hora de regular com visão de futuro, não com medo do novo.

*

As opiniões contidas no texto são pessoais e não expressam o posicionamento institucional do Tribunal de Contas do Estado de São Paulo

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *