O que regulamos quando regulamos a IA?

Spread the love

Como o conceito de inteligência artificial passou a ser visto como algo incontestável, apesar das muitas controvérsias que pode gerar? Essa pergunta conduz o ensaio The uncontroversial thingness of AI, em que Lucy Suchman desafia a ideia de uma inteligência artificial estável e uníssona. Dentre outros, o rótulo inteligência artificial (IA) é frequentemente associado a um campo do conhecimento; um estágio concreto de desenvolvimento tecnológico; e reflete projeções contextuais de imaginários presentes e futuros. 

Suchman desenvolve que em todas essas dimensões encontramos controvérsias que definem a substância do termo. Por exemplo, ao olhar para IA como técnica de estatística computacional, normalizamos a ideia de que práticas sociais podem ser reduzidas a dados objetivos, muitas vezes ignorando que isso implica a interpretação subjetiva de um determinado agente (que irá “quantificar” essa prática para expressá-la em um dado).

Conheça o JOTA PRO Poder, uma plataforma de monitoramento político e regulatório que oferece mais transparência e previsibilidade para empresas

O alerta da autora não nega a existência ou relevância das técnicas associadas à inteligência artificial. O que faz é destacar a importância dos debates atuais reconhecerem as contingências que o termo carrega, ao invés de reproduzi-las acriticamente. 

Nesse texto, proponho conciliar críticas conceituais com a abordagem da inteligência artificial como um objeto regulatório que acarreta obrigações e responsabilidades para os que a desenvolvem e operam, essa pauta fundamental nas democracias atuais. Meu objetivo é destacar os desequilíbrios de poder que moldam também o debate regulatório sobre IA, e provocar uma conversa sobre como a regulação pode enfrentá-los.

Como falamos de IA?

De forma geral, a inteligência artificial é associada a sistemas computacionais distintos entre si, que têm em comum a mimetização da inteligência humana. Dentro desse espectro encontramos conceitos diversos, de forma que academia, sociedade civil e reguladores buscam não apenas definições regulatórias possíveis, mas também analisar as dinâmicas de poder que o termo esconde. 

No âmbito da ciência política, Hofmann identifica análises como a de Natale e Ballatore, que associam a IA ao “mito da máquina pensante”. Como nos mitos, a veracidade da IA importaria menos do que suas qualidades narrativas – no caso, uma suposta indefinição de limites entre a compreensão humana e a análise estatística, resultante de um exagero das capacidades atuais dessa tecnologia.

Nessa linha, a autora também menciona o uso do conceito de “imaginários”, que na conversa sobre IA é usado para identificar ideais, e até lógicas, por trás de políticas públicas em diferentes experiências. Simplificando a contribuição de Bareis e Katzenback, por exemplo, seria possível dizer que as propostas chinesas refletem uma perspectiva sobre a IA como ferramenta de controle populacional, enquanto a norte-americana seria marcada por promessas de desenvolvimento industrial.

Na Estratégia Brasileira de Inteligência Artificial, Filgueiras e Junquilho identificam um imaginário que reproduz dependência tecnológica, sem promover mudanças significativas nas políticas para o desenvolvimento e a aplicação dessas tecnologias no país.

Há, ainda, autores que questionam a atribuição metafórica de características essencialmente humanas a sistemas computacionais. Segundo Rehak, dizer que eles são autônomos ou agentes confere aos sistemas uma imagem de independência, quando são ferramentas que cumprem um propósito pré-estabelecido por alguém. Do mesmo modo, Silva destaca a subestimação da inteligência humana que atravessa os conceitos de IA, apagando não só a complexidade da nossa racionalidade, como também a “apropriação do trabalho incorporada em sistemas algorítmicos”.  

Nessa toada, a crítica também passa pela comunicação de uma consolidação tecnológica que não se justifica empiricamente. Pesquisas recentes dão conta da cadeia de trabalhadores qualificados e precarizados engajados no que se chama “trabalho de dados” (data work). Williams, Miceli e Gebru mostram que o desempenho de ferramentas populares de inteligência artificial, como o ChatGPT, é menos um estado avançado da arte, e mais dependente de trabalhadores que executam tarefas repetitivas para treinar e testar esses modelos. Sem surpresa, esses trabalhadores estão, na maioria dos casos, fora do eixo Europa-EUA, refletindo os mesmos desequilíbrios de poder que marcam a economia global desde sempre. 

O que regulamos quando regulamos IA?

Apesar da sua crescente relevância, essas considerações críticas, em sua maioria, não são incorporadas aos debates regulatórios. Em estudo com 45 documentos de política pública, Krafft et al identificaram a prevalência de conceitos que definem a IA pela sua semelhança com o pensamento humano, com maior foco em formas futuras e deixando de lado sistemas já operantes. Para Schuett, o escopo da regulação não deve se ancorar no conceito de IA, mas sim na estratégia regulatória baseada em risco (já tratada nessa coluna por Frazão). Essa solução, contudo, não prescinde de um conceito que defina os sistemas que irão se submeter às avaliações de risco e consequentes medidas de governança aplicáveis. 

Assine a newsletter Últimas Notícias para receber os episódios do podcast Paredes São de Vidro em primeira mão e o roteiro ao final da temporada

Tanto no Regulamento Europeu, quanto no atual PL 2338/2023, optou-se por definições que combinam a ideia de autonomia – reforçando a projeção de humanidade – com a lógica estatística de inferências e a produção de determinados resultados: decisões, recomendações, predições, conteúdo e influência em ambientes físicos ou virtuais. Ao contrário de versões anteriores, abandonou-se a referência engessante a técnicas específicas, para abarcar tanto formas presentes quanto futuras, ao mesmo tempo em que há alguma previsibilidade, garantindo a segurança jurídica. 

Não há como neutralizar o risco de evasão regulatória por parte dos agentes regulados que irão interpretar e aplicar essas leis. Sempre será possível que se justifique que um sistema não se encontra dentro do escopo por ter essa ou aquela característica reconfigurada. Aqui, os sistemas de aplicação e monitoramento da lei têm papel importante. Contudo, a regulação pode reconhecer controvérsias por vias diferentes, sem aceitar a IA como uma realidade consolidada, mas sim uma tecnologia ainda em aberto para a disputa política – que como sabemos, se dá em termos desiguais. 

Possíveis respostas da regulação 

Como já mencionei, a ideia de regular os riscos e não os sistemas aparece como alternativa. De fato, é uma referência de estratégia regulatória que permite a modulação de obrigações observando o potencial nocivo de cada aplicação – não custa lembrar que tratamos aqui de funções muito distintas entre si. Mas além dos riscos, é fundamental que também se garanta direitos a todas as pessoas afetadas por sistemas de IA. 

Os direitos conectam a regulação com possíveis efeitos sociopolíticos da implementação e expansão dessas tecnologias. Prevendo um direito à não discriminação e à correção de vieses, por exemplo, estamos anuindo uma controvérsia e prevendo base jurídica para que as pessoas afetadas possam, individual ou coletivamente, contestá-las. Ainda, direitos estão em constante negociação e renegociação nos sistemas democráticos.

Seu escopo está sujeito a transformações inerentes às formas como as sociedades evoluem, e prevendo seu conteúdo, garantimos uma base epistêmica para que eles sejam interpretados por desenvolvedores, autoridades reguladoras, Poder Judiciário e sociedade civil. A versão atual da proposta brasileira prevê direitos na forma dos atuais artigos 5º e 6º, numa versão reduzida em relação a textos anteriores. 

Por sua vez, o reconhecimento da mão de obra humana e suas consequências para a configuração dos sistemas de IA ainda passa longe das propostas atuais, uma negligência que também se reflete na regulação de plataformas digitais. A abordagem da IA como uma coisa incontestável favorece a ideia de que a IA é um produto a ser certificado, e não um dos elementos que influencia(rá) relações sociais e até nossa ideia de mundo.

Assim, recebem menos atenção não apenas a pauta trabalhista, mas as medidas de concentração econômica, uso de dados e os modelos participativos de governança tecnológica (que teriam potencial para inserir mais sociedade na negociação dessas tecnologias que também estão em constante metamorfose). 

Diante da reprodução desses sistemas marcados por controvérsias essencialmente políticas, é preciso desenvolver instrumentos regulatórios que permitam que se desafie a drástica concentração de poderes que marca o mercado de tecnologias. 

Além dos significados da IA, e por conseguinte, do que é ser humano, está em jogo o desenvolvimento democrático de infraestruturas tecnológicas que, apesar de infiltrarem o tecido social em suas diferentes dimensões, hoje são determinadas pelo seleto grupo de interesses políticos e econômicos que representam.  

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *