A transparência em sistemas de IA éticos e responsáveis

Spread the love

Muito tem se falado sobre o papel da inteligência artificial (IA) na sociedade e em seu desenvolvimento, sobre as questões jurídicas e sociais, mas e quanto à transparência dos sistemas de IA?

Discutiremos esse tema, que é crucial para o presente e futuro da inovação tecnológica, afinal, a IA se ergueu como um marco transformador, exigindo reflexões aprofundadas sobre seus impactos e, principalmente, sobre a transparência em seu desenvolvimento e aplicação.

A transparência como pilar de um sistema de IA ético

Com a evolução da inteligência artificial, surge a necessidade de uma governança eficaz, em que a transparência é fundamental. Transparência, no contexto da IA, significa tornar as decisões algorítmicas compreensíveis e suas implicações e conclusões claras e acessíveis, tanto para os consumidores de suas informações quanto às partes interessadas.

Vale dizer: o desenvolvimento de sistemas de inteligência artificial éticos requer mais do que apenas algoritmos eficientes. Requer um compromisso com valores morais e sociais, sendo a transparência um dos mais críticos. Ao incorporar a transparência desde a concepção do sistema, as empresas e desenvolvedores podem assegurar que essas tecnologias sejam utilizadas de maneira justa e responsável.

Esse compromisso não apenas fomenta a confiança e a aceitação pública desses sistemas em razão da possibilidade de análise da veracidade dos dados que forem gerados, mas também possibilita o exercício de direitos fundamentais dos indivíduos.

Cenário internacional

Recentemente um dos marcos da inteligência artificial foi a aprovação da Lei de Inteligência Artificial da União Europeia, o AI Act, o qual traz diversas normas que regulamentam os sistemas de IA com base em uma metodologia de análise de riscos, coloca a transparência em seu cerne e estabelece princípios e requisitos claros sobre o tema.

Segundo a nova legislação europeia, a transparência se aplica a todos os sistemas de IA e exige-se que sejam compreensíveis, explicáveis e auditáveis, bem como que informem aos usuários sobre suas capacidades e limitações (Artigo 4º-A do AI Act). Isso permite que os usuários e stakeholders compreendam como as decisões são tomadas e quais os impactos gerados.

Para sistemas de IA de alto risco, que incluem aqueles que interagem com pessoas, utilizam reconhecimento de emoções ou geram deepfakes, a transparência é intensificada através de requisitos específicos de coleta de consentimento específico e fornecimento de informações, como a explicação de decisões, dados utilizados, precisão do sistema, finalidades e, para os sistemas de deepfake, divulgação de que o conteúdo foi gerado ou manipulado artificialmente.

Em relação aos sistemas de IA generativa, isso é, os sistemas capazes de criar conteúdo, o AI Act estabelece que, além do cumprimento das obrigações de transparência, os desenvolvedores desses sistemas devem tomar as medidas necessárias para impedir a geração de conteúdo que viole a legislação europeia e devem documentar e publicar um resumo sobre quais dados, que são protegidos por direitos autorais, foram utilizados no treinamento e/ou alimentação dos sistemas.

Certo é que ainda há diversos desafios em regulamentar algo tão complexo como sistemas de inteligência artificial, mas o AI Act se mostra um norte para outros países que estão em vias de tentar regulamentar o uso desses sistemas.

O Marco Legal de IA no cenário brasileiro

Em consonância com o cenário internacional, no Brasil, existem diversos Projetos de Lei sobre a regulação da IA em trâmite no Senado, dentre os quais destacamos o PL 2338/2023, apresentado pelo presidente do Senado, Rodrigo Pacheco, que propõe a criação de um Marco Legal de Inteligência Artificial.

Entre as diversas disposições sobre o desenvolvimento e implementação de sistemas de inteligência artificial por empresas e previsão de criação de uma autoridade nacional de IA, o PL 2338 sublinha a importância da transparência e a necessidade de garantir que os indivíduos entendam as decisões tomadas pelos sistemas. Isso porque os sistemas podem cometer erros, especialmente em áreas sensíveis, como as relativas à saúde, finanças e reconhecimento facial.

Dessa forma, o projeto visa criar um framework jurídico que não apenas proteja os cidadãos, mas também forneça ferramentas de governança para supervisão da IA. Nessa toada, a transparência também é destacada como um dos elementos essenciais, possibilitando uma fiscalização efetiva e garantindo que os direitos dos cidadãos sejam preservados na era digital.

Em síntese, a transparência dos sistemas de inteligência artificial é uma grande preocupação das autoridades, legisladores, especialistas da área, empresas e da sociedade em geral, e trata-se de requisito indispensável para uma gestão responsável de IA em todo o seu ciclo de vida e para a construção de um futuro em que a tecnologia atue de forma ética e benéfica para todos.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *