IA e o ‘risco do medo’

Spread the love

Dentre os diferentes riscos trazidos pela inteligência artificial, talvez o maior seja o de subutilização, desprovendo pacientes de diagnósticos precoces de doenças graves, permitindo o desperdício de alimentos em logísticas ineficientes, perdendo melhores oportunidades para plantio e colheita, perpetuando o acúmulo de processos nos tribunais, reduzindo a disponibilidade ou o custo do crédito etc.

Esse risco parece inadvertido quando impulsos de autoridades reagem a alarmes contra a tecnologia. Vou chamar de risco do medo tais impulsos de intervenção, que podem limitar o desenvolvimento da IA, e dar três exemplos.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

Recentemente, a ANPD reverteu medida preventiva que determinara a suspensão do treinamento do Meta AI, a partir de dados de usuários das redes sociais operadas por aquela companhia. A justificativa estaria na ameaça de “dano irreparável” à proteção de dados daqueles usuários.

Mas qual seria o dano à personalidade individual em jogo, quando os dados são empregados para desenvolver modelo computacional de larga escala, que, por sua natureza, a partir de conversões matemáticas de textos usados no treinamento, extrai padrões de escrita absolutamente gerais e despersonalizados?

A proteção de dados pessoais nasceu para assegurar a proteção individual da personalidade na esfera pública, que poderia ser ameaçada pela extração de informações personalizadas de dados processados por terceiros. No famoso caso do censo, a Corte Constitucional alemã considerou legítima a coleta e processamento dados pessoais, inclusive sensíveis, dos cidadãos alemães para elaborar políticas públicas despersonalizadas.

O problema residiu em apenas um artigo da legislação do censo, que previa o uso dos dados pelas municipalidades para alocar crianças nas escolas.[1] Desde aquele marco fundacional, a proteção de dados caminhou para uma legislação que exige justificação para cada etapa de tratamento desde a coleta, mesmo que em etapas subsequentes os dados sejam anonimizados, podendo-se perder de vista a finalidade da aplicação final.

Por isso, a ANPD exigiu base legal para as etapas de coleta, armazenamento e processamento dos textos dos usuários nas redes, mas sem focar o propósito de desenvolvimento de um modelo de linguagem que, ao cabo, seria despersonalizado. Nada contra cuidar da adequação das etapas precedentes de tratamento, mas não a ponto de se suspender o desenvolvimento daquela aplicação, fundada numa ameaça inexistente à personalidade individual de usuários das redes sociais.

Afinal, empregar grandes volumes de escritos locais no treinamento da IA traz não só mais eficiência ao usuário da ferramenta, mas permite sua adequação à cultura local, mitigando o risco de  “colonialismo digital” (imersão da tecnologia digital ou IA em dados e valores da cultura ocidental dominante)[2]. O ponto não se reduz à caracterização de “legítimo interesse”, mas questiona a própria aplicabilidade da LGPD sobre a implementação de IAs que tenham os dados despersonalizados em determinado elo da cadeia de desenvolvimento.

A proteção de dados pessoais pode limitar o avanço da inteligência artificial? Essa questão, feita pelo Parlamento Europeu à academia, obteve a seguinte resposta: não, desde que a sua interpretação se volte para a finalidade das reutilizações e inferências a serem produzidas pela ferramenta.[3]  Tal preocupação tornou-se urgente, por exemplo, pelos limites que a legislação impunha ao desenvolvimento e emprego de ferramentas de IA para combate à pandemia de Covid-19, a partir do processamento de dados pessoais de saúde ou geolocalização.

Em vez da privacidade ser um condicionante para a IA, ela deve ser lida como apenas mais um dos valores, ao lado do benefício social, não maleficência, não-discriminação, transparência, confiabilidade, que compõe a ética no tratamento de dados para o desenvolvimento responsável de IA. A intervenção da ANPD decorreu de leitura da IA responsável pelos óculos da proteção de dados, e não, como se deveria fazer, uma leitura da proteção de dados à luz da IA responsável.

Outra manifestação do risco do medo está no alarme quanto à concentração nos mercados de IAs generativas. Em julho de 2024, seguindo-se a relatórios da OCDE e de autoridades antitruste internacionais, a Comissão Europeia, a Competition Markets Authority britânica e a Federal Trade Comission dos EUA publicaram um joint statement, alertando para o risco de plataformização dos mercados de IA pelas big techs, à semelhança do que ocorreu nos mercados digitais.

Tal alerta motivou o Cade, no Brasil, a notificar big techs para coletar informações sobre parcerias recentes com startups desenvolvedoras de IA, independentemente de seu enquadramento nos critérios de notificação de atos de concentração. Tais inciativas parecem buscar prevenir, para os mercados de IA, algo semelhante às chamadas killer acquisitions (aquisições que levaram à concentração em mercados digitais, como a compra do WhatsApp pelo Facebook, não antecipadas pelas autoridades antitruste).

O receio de concentração deve-se às exigências para o desenvolvimento de IAs generativas, que incluem enormes quantidades de dados, escassos peritos qualificados e recursos computacionais em larga escala, cuja implementação é custosa.

No entanto, os paralelos com a plataformização dos mercados digitais podem estar sendo superestimados,[4] pois alguns fatores chave considerados responsáveis pela concentração em serviços digitais não estão presentes. Por exemplo, as economias de escala nos mercados de IA podem não conduzir a custos marginais mínimos ou nulos, como nos mercados digitais, uma vez que cada usuário de sistemas de IA aumenta a necessidade de capacidade computacional.

Do mesmo modo, parece não haver efeitos de rede significativos entre os usuários de sistemas (diferentemente de redes sociais, a adição de novos usuários do ChatGPT não traz valor adicional à ferramenta para quem a utiliza). Também o desenvolvimento de modelos de IA em regime aberto pode trazer impactos à dinâmica de concorrência.

Nada contra estudar potenciais impactos concorrenciais de aquisições de startups por big techs, mas considerá-las killer applications num perigoso movimento de plataformização pode precipitar intervenções.

O terceiro risco está na revisão do AI Act europeu, diante da explosão das IAs generativas. Em versões anteriores, a avaliação de IAs como de alto risco considerava impactos específicos das aplicações de IA sobre direitos individuais e coletivos em setores de atividade, como a medicina.

Mas como avaliar o risco de IAs de propósito geral? A solução do AI Act foi introduzir o conceito de risco sistêmico medido pelo volume de dados e processamento computacional envolvido no treinamento da IA. De novo, olha-se para o procedimento de tratamento e não para a finalidade da aplicação.

Avalia-se as IAs generativas como de alto risco pelo medo do seu tamanho, mesmo sem uma visão clara do seu impacto específico. Por exemplo, um dos maiores fatores de burnout de médicos(as) está no tempo excessivo gasto com preenchimento de formulários e prontuários.

O uso de IAs generativas pode reduzir significativamente esse fardo.[5] E o preenchimento automatizado, revisado pelo profissional de saúde, não parece trazer risco significativo. Entretanto, por se tratar de uso de IA generativa no campo da medicina, teríamos aqui alto risco, o que exigiria medidas de governança rigorosas para sua disponibilização.

A regulação da IA e a intervenção por autoridades deve sempre olhar para a finalidade da aplicação, seus benefícios e efetivos riscos, sob pena de concretizar o maior risco: o medo paralisante da tecnologia.

1] MARANHÃO, JULIANO ; CAMPOS, R. ; ABRUSIO, J. . A proteção de dados pessoais no STF e o papel do IBGE. Conjur, 29 maio 2020.

[2] MOLLEMA, Warmhold Jan Thomas. Decolonial AI as Disenclosure. Open Journal of Social Sciences, v. 12, n. 2, p. 574-603, 2024.

[3] SARTOR, Giovanni; LAGIOIA, Francesca. The impact of the General Data Protection Regulation (GDPR) on artificial intelligence. Brussels: European Parliament, 2020. DOI: 10.2861/293.

[4] MARANHÃO, JULIANO ; BARROS, J. M. ; ALMADA, M. . Inteligência artificial e concorrência: navegando em mar aberto. Conjur, 19 out. 2023.

[5] Transforming health care with artificial intelligence: Redefining Medical Documentation. Mayo Clinic Digital Health Proceedings, v.2, issue3, 2024. www.mcpdigitalhealth.org/article/S2949-7612(24)00041-5/fulltext.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *