CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Na era da inteligência artificial, a linha que separa a conveniência tecnológica da responsabilidade jurídica se torna cada vez mais tênue. Quando um algoritmo decide, erra ou age de forma inesperada, de quem é a culpa? A discussão vai além da ética ou da ciência da computação e adentra os tribunais e os parlamentos, onde a legislação corre para acompanhar uma revolução que não desacelera. Inúmeros casos concretos já ilustram um cenário em que a inovação desafia as regras existentes, exigindo um olhar atento sobre o papel – e os limites – das máquinas em nossa sociedade.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
A Volkswagen produziu um dos comerciais mais comentados nos últimos tempos, onde uma Elis Regina criada por computação cantando nas telas do país, trouxe controvérsias à tona, o que levou o Conselho Nacional de Autorregulação Publicitária (CONAR) a instaurar processo administrativo (Representação 134/23). No caso, foi aferido se a recriação da imagem da cantora se mostrava de acordo com seu Código de Ética de 2021/2022[1], bem como se seria necessário destacar o uso da aludida tecnologia no anúncio.
No entanto, a 7ª Câmara do referido órgão, por maioria de votos (13 a 7), entendeu pelo arquivamento do procedimento instaurado. Um dos fundamentos para tanto foi “a ausência de regulamentação específica apta a impor obrigatoriamente tal inserção, o que demanda uma análise ainda mais criteriosa de contexto específico do anúncio à luz dos princípios éticos publicitários, a saber, a transparência, apresentação verdadeira e o direto à informação, os quais não verifico terem sido infringidos”.[2]
Além da publicidade, o atendimento de SACs por IA já é extremamente comum. Inclusive, tem se revelado cada vez mais raro se passar por um atendimento estritamente humano nesse tipo de serviço. Ocorre, contudo, que, a despeito de a tecnologia estar se mostrando confiável, também é passível de erros.
Um exemplo lúdico, porém informativo ocorreu no Canadá: um chatbot da companhia aérea Air Canada ofereceu um desconto irreal a um consumidor, que, após verificar a inexistência do serviço oferecido – e adquirido -, ajuizou ação pleiteando a restituição dos valores pagos a título de dano material, o que foi acolhido pelo British Columbia Civil Resolution Tribunal. Na ocasião, o órgão reconheceu a responsabilidade da companhia aérea pelas informações trazidas em seu site, mesmo que provenientes de IA, obrigando-a a honrar com a política de reembolso, até então inexistente, gerada artificialmente pelo chatbot[3].
Como não poderia deixar de ser, a Europa assume, mais uma vez, a vanguarda quando o assunto é regulação de tecnologia. Recentemente, o Parlamento Europeu editou a Diretiva nº 2024/2853, que trata da responsabilidade decorrente de produtos defeituosos, revogando a Diretiva nº 85/374.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
A Diretiva 2024/2853 entrou em vigor no último dia 08 de dezembro e se aplicará a produtos inseridos no mercado após 9 de dezembro de 2026 (artigo 2), inclusive àqueles produzidos pela tecnologia da inteligência artificial. Em seu Considerando 3, o diploma aduz que, a despeito de a Diretiva 85/374 ter se mostrado “um instrumento eficaz e importante”, se mostrava “necessário revê-la à luz dos desenvolvimentos relacionados com as novas tecnologias, incluindo a inteligência artificial (IA), os novos modelos de negócio da economia circular e as novas cadeias de abastecimento mundiais, que conduziram a incoerências e à insegurança jurídica, em especial no que diz respeito ao significado do termo ‘produto”.
Além disso, a nova Diretiva dispõe que um provedor de IA que crie produtos utilizando a tecnologia mencionada, deve ser considerado fabricante para fins de responsabilização (Considerando 13).
A Diretiva também se atentou para o fato de que a IA se encontra em constante evolução. Nesse sentido, dispôs que, na hipótese de modificação substancial de um produto através de “uma atualização ou evolução de software, ou devido à aprendizagem contínua”, se deverá considerar que aquele é disponibilizado no mercado a partir do momento da modificação (Considerando 40).
Caso o “demandante” demonstre minimamente o descumprimento das disposições do Regulamento de IA da União Europeia (Regulamento UE 2024/1689), como, por exemplo, a necessidade de supervisão humana em caso de sistemas de IA de risco elevado, tal qual aquele que possa ser eventualmente empregado no controle de redes de abastecimento de água, gás, aquecimento ou eletricidade (artigo 14, nº 1 c/c artigo 6º, nº 2 c/c Anexo III, nº 2), e o “demandado” não apresente elementos de prova no sentido contrário, “presume-se que há um nexo de causalidade entre o defeito do produto e o dano” (artigos 9º e 10º). Denota-se, pois, que a Diretiva optou por adotar regime de responsabilidade similar àquele previsto no Código de Defesa do Consumidor brasileiro, mas o cenário pode mudar.
Diz-se isso, pois se encontra em tramitação o Projeto de Lei nº 2338, de 2023, que dispõe sobre o uso da IA. Em 10 de dezembro de 2024, o texto legal foi aprovado pelo plenário do Senado Federal e, agora, segue para a Câmara dos Deputados.
O PL, assim como faz o artigo 3º do Regulamento de IA da União Europeia, traz relevantes conceitos ao tratar, em seu artigo 4º, a respeito do que se deve considerar “sistema de inteligência artificial”. Também diferencia o “fornecedor” de sistema de IA, quem o desenvolve e o coloca no mercado, do “operador”, aquele responsável pelo emprego da tecnologia em nome próprio ou em seu benefício.
Ao dispor sobre os direitos daqueles que fazem uso de produtos ou serviços em que se emprega a tecnologia ora abordada, o projeto de texto legal determina que os usuários têm direito a esclarecimentos prévios quanto aos sistemas de inteligência artificial (artigos 5º e 7º).
E, de forma similar à Diretiva 2024/2853, o PL prevê regime de responsabilidade no qual os agentes de inteligência artificial – fornecedor e operador (art. 4º, IV) – devem responder pelos danos causados, “independentemente do grau de autonomia do sistema”. Além disso, ainda que não se trate de sistema de IA de alto risco – conforme descrições do Capítulo III do texto legal (arts. 13 e seguintes) -, “a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima”.
Há, porém, hipóteses em que os agentes de inteligência artificial não responderão pelos danos: (i) quando comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial (art. 28, I), e (ii) quando demonstrarem que eventuais danos tenham se dado por fato exclusivo da vítima ou de terceiro, bem como em caso de fortuito externo (art. 28, II).
Como visto, o PL caminha no mesmo sentido do sistema proposto pela Diretiva nº 2024/2853. É mais uma vez a manifestação do transadministrativismo e controverso “Efeito Bruxelas”, onde a Europa dita o ritmo – e as regras – da regulação de novas tecnologias.
Até a sua – provável – entrada em vigor, será necessário maior esforço da doutrina, da advocacia e dos tribunais no que se refere à interpretação da matéria já positivada para a solução de casos concretos. Com a aprovação do texto legal, os desafios persistirão, porém se darão a partir de previsões legais mais específicas, o que, por certo, tende a reduzir os riscos, trazendo mais segurança aos investimentos na tecnologia. Independentemente do caminho que o Brasil opte por seguir nos próximos meses, é importante que ele siga adiante. Nada pior do que um limbo regulatório frente a uma jurisprudência instável.
__________________________________________________________
[1] Disponível em http://www.conar.org.br/pdf/codigo-conar-2021_6pv.pdf – acessado em 10/12/2024
[2] Inteiro teor disponível em http://www.conar.org.br/processos/detcaso.php?id=6354 – acessado em 10/12/2024.
[3] Disponível em https://lsj.com.au/articles/air-canada-forced-to-honour-chatbot-offer/#:~:text=On%20Thursday%2C%20the%20Civil%20Resolution,as%20a%20%E2%80%9Cremarkable%20submission%E2%80%9D e https://www.bbc.com/travel/article/20240222-air-canada-chatbot-misinformation-what-travellers-should-know – acessado em 24/12/2024.