Open Source AI: um conceito à procura da sua definição

Spread the love

Em 2023, o AI Now Institute lançou um relatório destacando um desafio de tendência a uma concentração significativa de poder no desenvolvimento de IA. Conclusões semelhantes podem ser encontradas em outros relatórios produzidos ainda em 2023 pela autoridade de concorrência do Reino Unido, e em 2024 pelas autoridades equivalentes de França, Hungria, Estados Unidos e União Europeia[1].

Face a esse cenário, uma solução frequentemente promovida objetivando estimular um ambiente com maior capacidade de entrada e competição é a disponibilização do código-fonte em licença gratuita e acesso aberto. Contudo, de um ponto de vista prático, o grande problema é a falta de um entendimento comum do significado de open source no contexto da inteligência artificial.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

Ao abordar o contexto específico de software, o significado do termo open source é claro, e inclui os seguintes requisitos:

redistribuição gratuita;
distribuição do código-fonte;
permissão de obras derivadas;
integridade do código-fonte dos autores;
nenhuma discriminação contra pessoas ou grupos;
nenhuma discriminação contra campos de atuação;
distribuição de licença;
a licença não deve ser especifica para um produto;
a licença não deve restringir outro software; e
a licença deve ser tecnologicamente neutra. Desses requisitos, é evidente o intuito de abrir o conhecimento para terceiros e prevenir a criação de gargalos à inovação. Assim, fomenta-se um ecossistema para o desenvolvimento de produtos e serviços baseados em padrões abertos e colaboração.

Para além do código: elementos de uma IA verdadeiramente open

Transpondo essa ideologia para o contexto da inteligência artificial, nota-se que a simples disponibilização e autorização à reutilização do código-fonte de um software não é suficiente para gerar esse efeito, sendo que outros insumos são essenciais para permitir o surgimento de soluções alternativas.

Em primeiro lugar, para a fase chamada de pré-treinamento desses modelos, é indispensável o acesso a grandes volumes de dados. Embora existam bancos de dados públicos que são frequentemente utilizados para tal fim, a qualidade dos dados é um diferencial importante, podendo impedir a efetiva competição entre empresas de tecnologia, já que poucas contam com um ecossistema que produz constantemente dados valiosos sobre os seus usuários.

Além disso, mesmo que os dados para o treinamento de um modelo fossem compartilhados, não se pode simplesmente presumir que tais dados sejam livremente reutilizáveis: seja por questões de direito de autor, proteção de dados, ou contratuais.

Em segundo lugar, para o treinamento de um modelo (e, em certa medida, para o seu fine-tuning e a sua inferência[2]), é necessária uma grande capacidade computacional. Esse recurso está claramente fora do alcance de pequenas, médias e, inclusive, de muitas grandes empresas, considerando por exemplo o custo estimado por alguns como em mais de US$ 100 milhões.

Para executar o treinamento eficientemente, existe atualmente uma grande dependência de microprocessadores especializados em acelerar o processo de aprendizagem, os chamados GPUs (Graphic Processing Units) e TPUs (Tensor Processing Units) (CMA). Outra forma de expandir a própria capacidade computacional é através do armazenamento em nuvem, serviço que é oferecido em mais um mercado caracterizado por uma forte concentração.

Em terceiro lugar, para a compreensão de um modelo, é imprescindível a colaboração do desenvolvedor, em particular por meio de compartilhamento das respectivas inferências, bem como dos pesos (ou seja, os parâmetros que podem ser utilizados para enfatizar a conexão entre elementos que existem na rede neural) e dos vieses (ou seja, aqueles parâmetros adicionais que permitem o ajuste das previsões).

E até mesmo quando esses elementos forem compartilhados, a adequada compreensão do modelo (particularmente na fase de pré-treinamento) pode ser inviável sem uma equipe de engenheiros adequada, cuja disponibilidade no mercado é normalmente escassa (CMA).

Open como modelo de negócio

Considerando os impedimentos apontados acima, a existência de modelos autoclassificados como open source não é e não pode ser uma salvaguarda suficiente contra uma crescente concentração do mercado. Enquanto as definições de open source não capturarem a complexidade do ecossistema de IA, a utilização desse termo seguirá englobando diversas posições relativas à autorização concedida para reutilização de terceiros.

Por exemplo, ainda não está claro se seria permitido incluir restrições em códigos open source voltadas à prevenção de usos irresponsáveis ou que gerem danos para a sociedade, como é proposto no marco OpenRAIL (Responsible AI Licenses). Inclusive, empresas podem usar essa incerteza para proteger seus próprios interesses comerciais, proibindo usos que competem com o modelo originário (como, por exemplo, no caso de Llama 3).

Contudo, as limitações de uso podem ser ferramentas legítimas para prevenir problemas que podem surgir a partir da disponibilização dos modelos fundacionais, já que eles são, por definição, utilizáveis para um amplo leque de finalidades, algumas nem imagináveis pelo próprio desenvolvedor.

Portanto, é importante saber distinguir entre empresas que abraçam a filosofia de ciência colaborativa e impõem tais restrições estritamente para endereçar falhas de mercado, daquelas que usam esse rótulo como estratégia para impulsionar a adoção no mercado sem oferecer garantias adequadas para a criação de um ecossistema colaborativo e responsável de inovação.

Pela mesma razão, é fundamental monitorar e acompanhar a evolução da postura dos provedores desses modelos para evitar cenários de open-washing ou simplesmente open for business, onde, por exemplo, um grau mínimo de abertura é concedido em troca da contratação de outros serviços ou da coleta e uso de dados para fins de exploração comercial.

A OpenAI é um exemplo instrutivo de como a autoclassificação como open source pode ser parte de estratégias comerciais de empresas de tecnologia. A escolha inicial da startup foi a liberação do código-fonte do seu modelo fundacional. A empresa foi lançada em 2015 com o compromisso de pesquisar “para promover a inteligência digital da maneira que mais provavelmente beneficiará a humanidade como um todo, sem ser limitada pela necessidade de gerar retorno financeiro”.

Nesse espírito, anunciou que seus investigadores seriam encorajados a partilhar “artigos, publicações em blogs ou códigos”, e que as suas patentes (se existissem) “serão partilhadas com o mundo”. No entanto, essa abordagem foi abandonada em 2016, conforme denunciado em recente ação judicial iniciada contra a OpenAI pelo seu cofundador Elon Musk[3].

O falso dilema: incentivar ou regular

A oscilação da OpenAI entre a abertura e o fechamento do código-fonte não resulta apenas da procura por uma estratégia de monetização apropriada, mas é também motivada por uma preocupação de responsabilização pela utilização das suas ferramentas de IA generativas, que pode causar danos e dar origem a uma série de potenciais reclamações jurídicas.

Isto levanta um importante dilema: até que ponto é adequado incentivar o open source por meio de isenções regulatórias? Enquanto o texto atual do PL sobre a IA que tramita no Congresso Nacional carece de um posicionamento nesse sentido, o marco regulatório introduzido pela União Europeia com o AI Act adotou uma abordagem tripartida, com isenções que se aplicam de forma diferente a:

sistemas de IA em geral[4];
sistemas de IA de finalidade geral[5]; e
ferramentas, serviços ou componentes de IA[6].

Todavia, não necessariamente a regulação de IA é o melhor lugar para endereçar as preocupações competitivas. E mesmo que seja considerado desejável promover o open source nesse âmbito, pode não ser necessário utilizar uma definição muito rígida que exija uma replicação do modelo por concorrentes e novos entrantes, pois essa avaliação compete às autoridades de concorrência e deve levar em conta a necessidade de restrições voltadas a endereçar claras falhas de ecossistemas. De outra forma, essa regulação pode criar buracos de proteção que afetam desproporcionalmente direitos individuais e coletivos.

Por outro lado, convém que o governo adote uma postura mais proativa para a ciência aberta no contexto da própria estratégia de IA: por exemplo, criando infraestruturas públicas digitais (como supercomputadores para treinamento de modelos, programas de capacitação social e espaços comuns de dados); e utilizando o poder público de compra e investimento, inclusive, para exigir cumprimento de determinados níveis de transparência e explicabilidade.

[1] Ver também a declaração conjunta da Comissão Europeia com a autoridade inglesa e as duas autoridades estado-unidenses:  https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2023/06/generative-ai-raises-competition-concerns.

[2] Fine-tuning é aquele processo adicional opcional que pode ser aplicado a modelos pré-treinados para adicionar recursos ou melhorias específicas usando conjuntos de dados específicos; enquanto a “inferência” é o processo de usar um modelo de aprendizado de máquina para fazer previsões sobre novos dados. Vide CMA,

[3] Para fins ilustrativos, é interessante ler um extrato do e-mail do cientista chefe da OpenAI, Ilya Sutskever, em 2 de janeiro de 2016, para os cofundadores Elon Musk, Sam Altman, e Greg Brockman:

“As we get closer to building AI, it will make sense to start being less open,” Sutskever wrote. “The Open in openAI means that everyone should benefit from the fruits of AI after its built, but it’s totally OK to not share the science (even though sharing everything is definitely the right strategy in the short and possibly medium term for recruitment purposes).”

[4] Art. 2 (12).

[5] Art. 53 (2).

[6] Art. 25 (4).

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *