Às portas do primeiro turno, as big techs realizaram treinamentos para diferentes cenários de crises eleitorais desencadeadas por desinformação. As empresas não divulgam o tamanho das equipes mobilizadas para os dias próximos à eleição, mas afirmam que há reforço internacional, com especialistas deslocados dos EUA para o Brasil, plantão 24 horas e “war room”, a sala de guerra de operações.

Embora não exista cooperação oficial entre as redes sociais para combater fake news -e as mentiras pipoquem de uma plataforma para outra-, as companhias dizem que o meio de campo será feito pelo TSE (Tribunal Superior Eleitoral).
Nenhuma delas vai publicar um relatório de transparência específico sobre a eleição.

Na sexta-feira (30), o TSE chamou as empresas para apresentar um mapeamento de eventuais cenários de violência e contestação de votos, numa espécie de último chamado para que as redes atuem com celeridade no veto de conteúdos extremos no domingo (2), dia da votação.

O tribunal pediu atenção com publicações citando ataques infundados contra o sistema eleitoral, possíveis incitações à violência, deep fakes e contestações de votos.

A discussão sobre o bloqueio de figuras públicas, a exemplo do que ocorreu com o ex-presidente dos EUA Donald Trump após a invasão do Capitólio, costuma chegar até as cúpulas dos gigantes de tecnologia.

No Brasil, redes chinesas como TikTok e Kwai, amplamente usadas pelos presidenciáveis, participam pela primeira vez de uma disputa presidencial. O Kwai afirma que terá reforço no time de segurança na eleição.

O TikTok, por sua vez, atualizou em 22 de setembro a política de integridade eleitoral e passou a incluir em lives sobre o pleito botões que direcionam os usuários a uma página com informações oficiais do TSE.

A plataforma também afirma que redirecionará alguns resultados de pesquisas para restringir o acesso a conteúdos que violem suas diretrizes. Isso vale para termos associados a discurso de ódio, violência e desinformação sobre fraude -a empresa não detalha quais palavras entrarão nesse filtro.

No caso de alegações não verificadas, como declaração de vitória antes da confirmação, a empresa pretende reduzir a capacidade de disseminação desses conteúdos.

No prédio do Google, dona do YouTube, na Faria Lima, em São Paulo, uma sala de operação está em funcionamento há semanas, com o reforço de profissionais da matriz dos Estados Unidos.

Neste ano, a plataforma de vídeos incluiu o Brasil na política que proíbe conteúdos com alegação de fraude. A medida, retroativa, foi aplicada a publicações sobre os pleitos de 2014 e 2018 e levou a empresa a excluir lives do presidente Jair Bolsonaro (PL), como a que registrou a reunião com embaixadores para atacar as urnas.

Questionada se pretende incluir a disputa de 2022 na regra assim que o TSE certificar o resultado da eleição, a empresa disse contar com fontes de informações confiáveis, como o tribunal, e que mantém contato próximo com a corte “para estar atualizada sobre informações corretas relacionadas ao pleito”.

Nos Estados Unidos, o YouTube foi alvo de críticas porque só passou a remover vídeos com alegações falsas de fraude eleitoral em dezembro de 2020, mais de um mês após o dia final da votação.

A plataforma também não revelou se aumentará a fiscalização sobre anúncios políticos. Estudo do NetLab, da UFRJ (Universidade Federal do Rio de Janeiro), mostra que cerca de 7 em cada 10 anúncios eleitorais exibidos no Google estão irregulares, com CNPJ do responsável pela peça ausente ou ilegível e financiamento empresarial, o que não é permitido.

“Qualquer anúncio feito por meio das plataformas do Google precisam respeitar políticas rígidas que proíbem, por exemplo, anúncios que exibem conteúdo chocante ou promovem ódio, intolerância, discriminação ou violência”, afirmou a companhia em nota.

No Twitter, haverá “dedicação extra” da equipe que analisa potenciais violações às regras e toma as medidas cabíveis. O período em que a rede social funcionará em esquema de emergência será definido de acordo com o que o contexto demandar.

As decisões sobre remoção ou etiquetagem de postagens devem ser tomadas mais rapidamente, a depender do potencial de dano do conteúdo. “De acordo com a violação cometida e o potencial de dano do conteúdo no mundo offline, a análise do conteúdo e posterior tomada de medida são priorizadas.”

O Twitter considera estar mais preparado para esta eleição. Em 2018, por exemplo, não contava com políticas específicas para lidar com desinformação -hoje possui quatro.

Já a Meta, dona do Facebook e do Instagram, afirma que seu centro de operações reúne de forma presencial e remota especialistas de diferentes equipes no Brasil e no exterior.

A empresa destaca ter removido mais de 140 mil conteúdos que violavam as políticas contra interferência eleitoral no primeiro turno da eleição de 2020.

Assim como outras big techs, a empresa de Mark Zuckerberg realiza análises de risco online e offline e, baseada nos resultados, prevê diferentes cenários e medidas a serem tomadas. Algumas investigações internas geradas por denúncias já estão sendo realizadas, segundo a empresa, que anunciou em junho um acordo com mais duas agências de checagem, ampliando para seis o número de parceiros.

Após ter bloqueado o perfil de Trump em 2021, por incitação à violência no caso da invasão do Capitólio, o Facebook criou uma regra que dá base para a restrição de figuras públicas durante agitações civis, política que poderá ser adotada se houver algum tipo de insurgência no Brasil.

Nos EUA, a Meta anunciou que proibirá anúncios políticos na semana que antecede a eleição de meio de mandato, em novembro, algo que fez na semana anterior ao pleito presidencial americano de 2020.

No Brasil, porém, essa medida não será adotada. Procurada, a Meta afirmou que os EUA não possuem uma legislação federal que determina prazos para a campanha, diferentemente do Brasil. Assim, restringir publicidade online uma semana antes da votação colocaria a empresa em desacordo com a lei local.

Fonte: FOLHAPRESS