No mundo atual, a percepção das dificuldades não pode mais se dissociar do remanejamento dos quadros funcionais.
Pensando mais a longo prazo, a percepção das dificuldades possibilita uma melhor visão global dos métodos utilizados na avaliação de resultados.

pensamento do dia

Assim mesmo, a complexidade dos estudos efetuados ainda não demonstrou convincentemente que vai participar na mudança dos métodos utilizados na avaliação de resultados.

Reduzir moderação de conteúdo online tem impactos muito além de desinformação

Spread the love

Mark Zuckerberg anunciou uma série de medidas que vão afetar o conteúdo visto no Facebook, Instagram e Threads. No comunicado, o dono da Meta afirma que menos moderação de conteúdo vai ampliar a liberdade de expressão nas redes. A empresa pretende acabar com a checagem de fatos independente, simplificar regras e filtrar menos conteúdo, permitindo assim que discurso político retorne às plataformas.

A reação de jornalistas e especialistas tem focado no relacionamento com a eleição de Donald Trump e nos impactos de um possível aumento de fake news nas redes. No entanto, reduzir os mecanismos de moderação de conteúdo nessas plataformas tem consequências muito além de política e desinformação.

Assine a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas no seu email

A moderação de conteúdo é um conjunto de atividades que busca garantir que o conteúdo online seja aceitável de acordo com as regras de cada empresa. Isso inclui questões políticas e discurso de ódio, mas também pedofilia, conteúdo sexual, exploração de menores, violência contra animais, bullying, comportamentos perigosos, consumo de produtos nocivos à saúde, entre diversos outros tópicos.

Empresas comprometidas com a segurança do usuário e do ecossistema digital utilizam modelos computacionais que “filtram” todo conteúdo publicado. Nessas empresas, as regras e ferramentas de moderação de conteúdo buscam reduzir ao mesmo tempo os falsos negativos (conteúdos que deveriam ser controlados, mas não são) e os falsos positivos (conteúdos que não deveriam ser controlados, mas são).

Desde o escândalo da Cambridge Analytica, a moderação da Meta adotava essa abordagem. Agora, Zuckerberg afirma que a empresa vai “censurar” menos para cometer menos erros. Na prática, na busca por minimizar falsos positivos, a Meta vai passar também a tolerar mais falsos negativos.

Para além da moderação de conteúdo, o reposicionamento da Meta também vai impactar os esforços de regulamentação das plataformas digitais ao redor do mundo.

Diversos países têm implementado legislação para controlar os impactos negativos da tecnologia nos usuários, o que depende da participação das empresas no debate, do compartilhamento de dados para estudos independentes e de transparência de suas políticas de moderação. Quando a Meta, um expoente do setor, se move na direção contrária, a indústria como um todo e os esforços globais para melhorar o ecossistema digital também sofrem.

Nesse momento, é vital não andar para trás. As reações individuais e coletivas à mudança da Meta devem ir além da discussão sobre a eleição de Trump, desinformação e fake news, e não cair no simplismo da polarização política. A importância da moderação de conteúdos sobre pedofilia, conteúdo sexual, exploração de menores, violência contra animais, bullying, entre outros, é inegável. É a moderação de todos esses temas que, combinada, ajuda a manter um ambiente digital saudável.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *