CONFIRA ESSAS EMPRESAS
SEGURO PARA MOTORISTA DE APP
COMECE HOJE MESMO
CLASSIFICADOS
ABRIR O CATÁLOGO DE MÁQUINAS
TUDO SOBRE SEGURO DE VIDAS
ALUGUEL TEMPORADA GUARAPARI PRAIA DO MORRO ES
O IMÓVEL É UMA COBERTURA NA PRAIA DO MORRO ES LINK A BAIXO VALOR DA DIÁRIA 500R$
NÚMERO DE DIÁRIAS MINIMO 3
QUERO SABER + / CONTATO DO IMÓVEL
QUERO SABER SOBRE O CAVALO COMO COMPRAR
O melhor da web
GANHE DINHEIRO NO AIRBNB
DRA LARISSA
CONFIRA O CANAL
CONFERIR PERFIL NO LinkedIn
CONFERIR
Em 27 de novembro de 2024, a Garante della Privacy, a autoridade de proteção de dados da Itália, emitiu um aviso formal ao Grupo Gedi em relação ao licenciamento de dados jornalísticos à OpenAI. Essa notificação reacendeu o debate sobre os limites entre privacidade e promoção da inovação tecnológica em um mundo cada vez mais impactado pela inteligência artificial.
O Grupo Gedi, um dos maiores conglomerados de mídia da Itália, firmou um acordo com a OpenAI para compartilhar conteúdos de seus arquivos jornalísticos. A proposta previa a integração desses conteúdos em sistemas de IA, como o ChatGPT, permitindo buscas em tempo real e a utilização dos dados para treinar algoritmos.
Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email
Em troca, o Grupo Gedi receberia uma remuneração, criando um modelo que poderia beneficiar tanto o setor editorial, ao gerar novas receitas, quanto o avanço de tecnologias emergentes, ao oferecer dados confiáveis para sistemas de IA.
Apesar dos potenciais benefícios, a Garante della Privacy apontou possíveis incompatibilidades com o Regulamento Geral de Proteção de Dados (GDPR). Entre as preocupações levantadas estavam a base legal utilizada para o tratamento dos dados, a transparência em relação aos titulares de dados e os impactos nos seus direitos.
Segundo a autoridade, o uso dos dados pessoais para treinar algoritmos de IA ultrapassaria os limites da finalidade jornalística original, e a justificativa baseada no legítimo interesse não seria suficiente para respaldar o tratamento, especialmente no caso de dados pessoais sensíveis. Além disso, a autoridade argumentou que os titulares dos dados não foram informados de maneira adequada sobre o compartilhamento com a OpenAI, e que as Políticas de Privacidade do Grupo Gedi não haviam sido atualizadas para refletir essa nova finalidade.
Embora essas preocupações possam parecer fundamentadas à primeira vista, elas exigem uma análise crítica mais aprofundada. Em primeiro lugar, o uso de dados jornalísticos para treinar modelos de IA não deve ser visto como uma simples extrapolação da finalidade original, mas, sim, como uma evolução natural do jornalismo na era digital. Incorporar arquivos criados para disseminar informações relevantes a modelos de IA não apenas preserva esse objetivo, mas também potencializa seu impacto e alcance.
Além disso, a justificativa baseada no legítimo interesse, apresentada pelo Grupo Gedi, merece ser avaliada com maior atenção. Essa base legal, prevista no GDPR, foi criada justamente para equilibrar a proteção de dados com iniciativas inovadoras.
No caso em questão, o Grupo Gedi argumentou que a integração de seus conteúdos editoriais em sistemas de IA fortalece o papel do jornalismo ao fornecer informações verificadas e de qualidade. Essa abordagem pode ser válida, desde que respaldada por medidas como anonimização de dados sensíveis, cláusulas contratuais robustas e avaliações de impacto que garantam transparência e mitigação de riscos.
Outro ponto levantado pelo Garante diz respeito à previsibilidade para os titulares dos dados, conceito que requer uma análise contextual. Como o consumo de notícias é cada vez mais intermediado por plataformas tecnológicas, o uso de conteúdos jornalísticos em IA pode ser interpretado como uma forma de progresso alinhada às expectativas de um público que busca informações mais acessíveis e dinâmicas.
Em relação à transparência, embora as Políticas de Privacidade do Grupo Gedi possam não ter sido atualizadas para refletir os termos do acordo, é difícil sustentar que isso cause um impacto significativo nos direitos dos titulares. Afinal, as informações utilizadas já eram amplamente acessíveis e foram divulgadas originalmente em contextos de interesse público. Uma solução mais proporcional seria garantir o direito de oposição, permitindo que titulares que não concordem com esse uso possam exercer seus direitos sem prejudicar a iniciativa como um todo.
O caso também expõe um problema mais amplo: o impacto das regulamentações europeias sobre o desenvolvimento de inteligência artificial. A rigidez das regras europeias já coloca o continente em desvantagem em relação a outras regiões, onde as regulamentações são mais flexíveis. Essa abordagem excessivamente cautelosa pode minar a competitividade da Europa em um momento crucial para o desenvolvimento da IA.
Desestimular acordos estruturados, como o do Grupo Gedi, pode levar a cenários como o do jornal The New York Times. Em 2023, o NYT processou a OpenAI e a Microsoft por uso não autorizado de seus artigos para treinamento de modelos de IA, alegando violação de direitos autorais, além de restringir o acesso da OpenAI, impedindo o uso de novos conteúdos. Sem parcerias claras e regulamentadas, empresas de IA podem buscar alternativas menos transparentes ou até recorrer ao uso não autorizado de dados.
O licenciamento proposto pelo Grupo Gedi oferece uma solução viável que protege direitos autorais, incentiva práticas éticas e promove a colaboração entre o setor editorial e empresas de tecnologia. Para organizações como a OpenAI, que necessitam de grandes volumes de dados para treinar seus modelos, iniciativas desse tipo harmonizam os interesses da inovação, da mídia e do público, permitindo o desenvolvimento de IA de forma responsável.
A proteção de dados deve, sem dúvida, ser uma prioridade, mas não pode se transformar em um obstáculo à inovação. O acordo entre o Grupo Gedi e a OpenAI demonstra como um setor tradicional pode se beneficiar da integração com novas tecnologias.
Restrições excessivas, como as impostas pela autoridade italiana, podem sufocar iniciativas inovadoras, limitar o impacto positivo da inteligência artificial e privar o público de benefícios importantes. É fundamental buscar equilíbrio: proteger dados, sim, mas também fomentar soluções tecnológicas que respeitem os direitos dos indivíduos e possibilitem avanços sustentáveis.