Alguns apontamentos sobre o AI Act da União Europeia



COMECE HOJE MESMO




ABRIR O CATÁLOGO DE MÁQUINAS




TUDO SOBRE SEGURO DE VIDAS




ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES


O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$


NÚMERO DE DIÁRIAS MINIMO 3



QUERO SABER + / CONTATO DO IMÓVEL




QUERO SABER SOBRE O CAVALO COMO COMPRAR




O melhor da web






GANHE DINHEIRO NO AIRBNB




DRA LARISSA





CONFIRA O CANAL


CONFERIR PERFIL NO LinkedIn










CONFERIR





Spread the love

O desenvolvimento do uso da inteligência artificial (IA) tem sido marcado por uma série de incidentes que evidenciam a complexidade do uso dessa tecnologia. Desde a perda de milhões de dólares por multinacional em Hong Kong – que teve seu funcionário enganado por golpistas habilmente assistidos por IA –, o lamentável uso para criar conteúdo explícito envolvendo figuras públicas (como o caso da popstar Taylor Swift), até a marcante presença na recente campanha eleitoral argentina e a disseminação de fake news, os exemplos são muitos e destacam os múltiplos desafios éticos, legais e sociais que permeiam o universo da IA.

Com uma perspectiva de precaução diante da tecnologia, os representantes dos Estados-membros da União Europeia deram um passo significativo ao aprovar, por unanimidade, o EU AI Act em 2 de fevereiro de 2024. Com o texto da norma oficialmente divulgado, agora aguarda-se a votação pelo Parlamento Europeu, programada para abril deste ano. Ainda que possam ocorrer ajustes no texto, há uma expectativa de que ele seja aprovado. O objetivo deste breve artigo é trazer alguns destaques da norma, já que o Brasil, influenciado pelo “Efeito Bruxelas”, tende a seguir a União Europeia em suas iniciativas de regulação de tecnologia.

O artigo 2 (3) do AI Act teve sua redação aprimorada, de modo a enfatizar a não aplicação do Regulamento em áreas fora do escopo do direito da União Europeia e em sistemas de IA destinados exclusivamente a fins militares, de defesa ou segurança nacional.

Na sequência, no artigo 3 (1), foi alterada a definição de “sistema de IA”, ponto central do Regulamento, a fim de alinhá-la com o trabalho de organizações internacionais, especialmente a Organização para a Cooperação e o Desenvolvimento Econômico (OCDE).

De acordo com o texto, o “sistema de IA” é um sistema baseado em máquina, projetado para operar com níveis variados de autonomia e que pode exibir adaptabilidade após o lançamento, e que, para objetivos explícitos ou implícitos, infere, a partir dos inputs recebidos, como gerar outputs, previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.

Por sua vez, o Considerando 6 traz esclarecimentos sobre essa alteração, apontando que a nova definição visa garantir segurança jurídica e convergência internacional, além de excluir sistemas simples de softwares ou abordagens de programação, que seriam baseados nas regras definidas exclusivamente por pessoas naturais para executar automaticamente operações.

No conjunto de práticas proibidas delineadas no artigo 5, destacam-se certos sistemas de IA relacionados a:

identificação biométrica em tempo real por autoridades policiais em espaços públicos, embora com exceções expressamente definidas;
exploração de vulnerabilidades relacionadas à idade, deficiência ou condição socioeconômica de indivíduos ou grupos específicos;
coleta indiscriminada de imagens faciais da internet ou de sistemas de CCTV para criar ou expandir bancos de dados de reconhecimento facial; e
inferência de emoções de pessoas em ambientes de trabalho e instituições educacionais, exceto por razões médicas ou de segurança.

Ainda que tenha havido ajustes nos sistemas de IA proibidos, dada a natureza detalhada da regulamentação e seu potencial para engessar e burocratizar o desenvolvimento da tecnologia no continente, perdeu-se a oportunidade de aprimorar a redação das atividades proibidas e de trazer mais exemplos concretos nos Considerandos.

Ademais, a inclusão de várias exceções às proibições, inevitavelmente sugere uma redação que carece de precisão e concisão, o que gera insegurança jurídica para os atores diante da falta de clareza sobre quais práticas se enquadram entre as proibidas.

O texto consolidado adotou um mecanismo de classificação modificado para os sistemas de IA de alto risco, fruto de uma combinação das versões anteriores de definição abstrata de sistemas de IA listados nos Anexos II e III, juntamente com uma recém-adicionada exceção.

A exceção não considera como de alto risco os sistemas quando “não houver risco significativo de dano à saúde, segurança ou direitos fundamentais das pessoas naturais, incluindo não influenciar materialmente o resultado da tomada de decisão”, que se configura quando o sistema for destinado a realizar tarefas específicas, aprimorar resultados de atividades humanas anteriores, detectar padrões de decisão sem substituir avaliações humanas ou realizar tarefas preparatórias para uma avaliação relevante nos casos de uso listados no Anexo III.

O texto aprovado pelos Estados-Membros da UE confirma que o AI Act também se aplica aos provedores de modelos de IA de Uso Geral (GPAI) — sistema do ChatGPT, Bard, Gemini, etc —, contendo uma nova seção direcionada ao tema (artigos 52a até 52e).

Essas novas regras introduzem obrigações para os modelos de GPAI que incluem a manutenção atualizada e disponibilização, mediante solicitação, de documentação técnica para autoridades competentes nacionais e para o AI Office, comissão de monitoramento e supervisão de sistemas de IA. Entre os modelos GPAI, podem vir a ser considerados como de risco sistêmico, com obrigações adicionais, aqueles que tenham capacidades de alto impacto ou após decisão individual do AI Office.

Seguindo o proposto anteriormente pelo Conselho Europeu, o regulamento traz a possibilidade de testes de sistemas de IA de alto risco em condições do mundo real, em ambientes fora de sandboxes regulatórios, desde que obtido o consentimento livre e informado dos titulares envolvidos.

Há diversas salvaguardas elencadas nos artigos 54a e 54b do EU AI Act para esses testes em mundo real, entre elas, a aprovação prévia do plano de teste apresentado pela autoridade reguladora do mercado, prazos estipulados, garantia de exclusão de dados para os titulares, inspeções e monitoramento dos testes.

Os valores das multas previstas na IA também passaram por ajustes em relação às versões anteriores. Conforme delineado no artigo 71, as penalidades variam entre 35 milhões de euros ou 7% do volume de negócios anual por violações relativas a sistemas de IA proibidos do artigo 5º do EU AI Act, ligeiramente acima do limite estabelecido no texto revisado pelo Conselho.

Por outro lado, as quantias das penalidades acordadas para os demais casos são um pouco inferiores à posição do Conselho, entre elas, a multa de 15 milhões de euros ou 3% do volume de negócios global anual para outras violações não relacionadas ao artigo 5º e 7,5 milhões de euros ou 1% do volume de negócios global anual pelo fornecimento de informações incorretas aos entes reguladores. Entre os limites apresentados, será aplicado o montante que representar a maior penalidade.

Após a publicação no Diário Oficial da UE, o EU AI Act entrará em vigor 20 dias depois e, semelhante ao procedimento da LGPD, está previsto um período de transição para a eficácia das normas (vacatio legis), de acordo com a classificação da atividade. Em 6 meses da publicação, entram em vigor as obrigações para os sistemas de IA proibidos; em 12 meses as relacionadas a obrigações de sistemas GPAI; em 24 meses para a maioria das obrigações, incluídas as regras para sistemas de IA de alto risco do Anexo III; e 36 meses para obrigações relacionadas a sistemas de alto risco incluídos no Anexo II.

Por ser uma regulamentação densa e extensa, o próximo passo é, portanto, compreender a classificação das atividades para determinar as obrigações a serem cumpridas e os prazos, estabelecendo um plano de ação para garantir a conformidade com o AI Act após sua promulgação.

Enquanto o caminho para a aprovação do texto final pelo Parlamento parece bastante provável, permanece a incerteza sobre a capacidade das empresas que utilizam essa tecnologia complexa de se adaptarem aos requisitos regulatórios, enfrentando custos substanciais e uma carga burocrática que podem desencorajar investimentos.

Embora não seja possível prever o futuro e os impactos, mostra-se fundamental que as autoridades europeias busquem tomar medidas para garantir que a regulamentação não prejudique a competitividade e a inovação no setor de inteligência artificial na região. Mas não é só. Nós, aqui no Brasil, diferentemente do que foi feito com a LGPD, temos uma oportunidade para observar a vigência gradual do EU AI Act e, a partir daí, extrairmos aprendizados.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *