Conselho independente da Meta defende medidas para big techs contra desinformação eleitoral

(FOLHAPRESS) – O Conselho de Supervisão da Meta publicou um relatório elencando diretrizes para as big techs lidarem com desafios como desinformação e incitação à violência no contexto eleitoral.

Entre as sugestões estão investimento em moderação de conteúdo e o estabelecimento de padrões mínimos para eleições em todos os países.

“É imperativo que as empresas de mídias sociais tenham conhecimento suficiente do idioma e do contexto locais para orientar suas políticas eleitorais globais e práticas [em cada país]”, afirma o documento.

Lançado em 2020 e financiado pela Meta, o conselho (Oversight Board) funciona como uma espécie de corte de revisão de decisões relacionadas à moderação de conteúdo em plataformas da companhia. O órgão afirma que estrutura de governança permite que ele tome decisões independentes.

Usuários do Facebook, Instagram e Threads podem apelar a ele quando os graus de recurso à Meta já tiverem se encerrado.

O relatório publicado nesta quinta é o primeiro em que o órgão, formado por 22 especialistas de diferentes países, tem como destinatário as companhias de tecnologia de um modo geral. Em entrevista coletiva em São Paulo, em que estiveram presentes três de seus membros, a iniciativa foi justificada com a alta quantidade de pleitos pelo mundo neste ano.

Ao longo de 2024, cerca de metade da população mundial passa por eleições. Enquanto no Brasil ocorrem pleitos locais, países como Estados Unidos e Índia têm disputas nacionais.

“A ideia [do relatório] é influenciar a Meta, que os outros membros da indústria leiam e que órgãos da sociedade civil, incluindo reguladores, órgãos eleitorais e juízes, possam tê-lo como referência”, disse Catalina Botero-Marino, que integra o conselho e é presidente da Cátedra Unesco de Liberdade de Expressão na Universidade de Los Andes, na Colômbia.

Ela ressaltou que os pontos elencados no documento são os parâmetros mínimos a que qualquer plataforma deve se atentar.

O conselho afirma que as nove diretrizes apresentadas foram embasadas por percepções formadas a partir dos diferentes casos analisados pelo órgão.

Entre os exemplos eleitorais citados no relatório está um relacionado ao Brasil. No ano passado, o órgão considerou que a Meta errou ao não remover vídeo incitando a invasão e os ataques a Brasília. Também é mencionado o caso do bloqueio do perfil do ex-presidente dos Estados Unidos Donald Trump, no contexto do ataque ao Capitólio.

“Em ambas essas decisões, consideramos que a Meta deveria ter agido de modo mais rápido contra o estímulo ou legitimação da violência”, diz trecho do documento.

Entre as recomendações do relatório está a importância de as empresas não apenas estabelecerem políticas de conteúdo adequadas mas também de que garantam sua aplicação, por meio de investimentos, especialmente em situações em que há uma rápida escalada.

No caso de incitação à violência, o documento defende a necessidade de priorizar que a análise desses casos atinja revisão humana de modo célere, além da necessidade de punições severas para abusos reiterados.

Também afirma que é preciso ter padrões claros para lidar com deepfakes e outros conteúdos gerados por inteligência artificial, adicionando que é necessário ter em mente o objetivo final dessas regras, dado que o ritmo acelerado das mudanças tecnológicas acaba fazendo com que as políticas possam se tornar obsoletas rapidamente.

O documento ressalta ainda a importância de atuação global com padrões adequados. “É importante que as empresas não negligenciem as dezenas de eleições que ocorrem em países ou mercados considerados menos lucrativos, porque é neles onde o impacto nos direitos humanos de não implementar tais padrões pode ser mais severo”, afirma o relatório.

Catalina defendeu, durante a entrevista, que deveria haver maior transparência por parte das empresas sobre as equipes de moderação, como a quantidade para os diferentes idiomas. Ela ponderou, no entanto, que isoladamente os números não são o bastante para avaliar se há investimento adequado para cada localidade, adicionou também que o próprio conselho tem dificuldade de ter acesso a essas informações em relação à Meta.

“Podem te dar um número ou podem te dar um adjetivo, mas você não tem todos os dados de que necessita para saber se é suficiente para enfrentar o problema específico que essa comunidade está enfrentando”, afirmou ela, explicando que as respostas da companhia sobre o tema não são claras.

Ao longo do relatório, ao rememorar algumas de suas decisões, o conselho reforça o que vê como a importância de proteger a liberdade de expressão e o discurso político, defendendo regras claras. Diz também que as plataformas têm que se salvaguardar contra o perigo de permitir que governos utilizem desinformação ou outras razões vagas para suprimir críticas.

O conselho aponta a importância de transparência por parte das empresas, tanto sobre suas medidas quanto sobre seus erros, além da necessidade de atuação para evitar a ocorrência de campanhas coordenadas de desinformação ou de incitação a violência para minar a democracia.

“As empresas de mídia social deveriam melhorar suas decisões sobre design [da plataforma] e regras para garantir que narrativas de desinformação não sejam amplificadas”, diz o relatório.

Também participaram da entrevista Pamela San Martín, que é advogada e ex-conselheira do Instituto Eleitoral Nacional do México, e o colunista da Folha e advogado Ronaldo Lemos, ambos membros do conselho da Meta.

Leia Também: Pesquisadores processam Meta para controlar o que veem nas rede sociais

Gostou deste conteúdo? Compartilhe...

Facebook
Twitter
Email
Twitter
WhatsApp
LinkedIn

Patrocinador:

Ultimas Notícias