Facebook estabelece plano para proteger eleições

Como está a rede social a preparar-se para reduzir a disseminação de informações erradas à medida que a temporada das eleições começa a aquecer?

Desde as audiências no Congresso até a reunião com autoridades policiais e de inteligência, as empresas de redes sociais estão em destaque antes da temporada de eleições, a ter início em 2020. De facto, a eleição presidencial dos EUA, em 2016, que esteve envolvida em controvérsias e alegadas intromissões nas eleições, ainda está bem presente na memória de muitos. Portanto, não surpreende que os gigantes das redes sociais estejam a preparar medidas para, através dos seus meios, afastarem ameaças à integridade eleitoral.

Com a eleição presidencial dos EUA já em 2020, a pouco mais de um ano, o Facebook, por exemplo, anunciou medidas no início da semana passada destinadas a deter interferências nas eleições. Os seus esforços estão concentrados em três pilares principais: combater a interferência, aumentar a transparência e reduzir a quantidade de informações erradas. Cada um desses pilares é dividido em várias etapas que a rede social adota para atingir esses objetivos.

O combate ao comportamento não autêntico é uma dessas etapas. Uma possibilidade passa pela remoção de páginas, grupos e contas no Facebook e no Instagram, exercendo influência através de atividades manipulativas coordenadas. O plug foi retirado com base no comportamento dessas contas e não apenas no conteúdo partilhado.

Facebook Protect

A rede social também lançou um novo recurso de proteção do Facebook, que adiciona uma camada extra de segurança às contas de figuras políticas e dos seus funcionários. O recurso inclui autenticação de dois fatores (2FA) obrigatória, e as contas que usam o Facebook Protect serão ativamente monitorizadas quanto a hackers. Por outro lado, a gigante das redes sociais admite que a medida não é infalível, afirmando em comunicado que “pelo facto das campanhas serem geralmente executadas num curto período de tempo, nem sempre sabemos quem são as pessoas afiliadas à campanha, tornando mais difícil ajudar a protegê-las”.

Para reduzir a quantidade de informações erradas no Facebook e no Instagram, a sua distribuição é reduzida a um menor número de pessoas e é removida dos recursos Explore e News Feed. Se o conteúdo tiver sido classificado como falso ou parcialmente falso usando um verificador de factos de terceiros, o mesmo será rotulado como tal e ficará ao critério do utilizador a sua utilização e determinação de se é confiável, ou não. Se os utilizadores tentarem partilhar esse conteúdo, uma janela pop-up aparecerá para avisá-los de que o post em questão contém informações falsas desmascaradas pelo verificador de factos.

Maior transparência

Para aumentar a transparência, o Facebook oferece agora aos utilizadores a capacidade de verificar a procedência da página partilhando a sua localização principal e se ela faz parte de um conjunto de outras páginas. Além disso, mais contexto é fornecido por informações extras que devem ser divulgadas, como o separador “Organizações que gerem esta página”. Este separador terá o nome legal da organização, cidade onde pertence, número de telefone e site. Esta informação ficará visível nas páginas que possuem um grande número de audiências nos EUA e foram submetidas ao processo de verificação de negócios do Facebook.

Uma nova abordagem será implementada para os media controlados pelo estado e para os meios de comunicação que estão, total ou parcialmente, sob o controle editorial do seu governo. Estes serão etiquetados na página e na Biblioteca de anúncios do Facebook e serão mantidos sob o mais elevado padrão de transparência.

De referir ainda que também o Twitter divulgou alguns dos seus esforços para impedir a manipulação de plataformas no mês passado. A intenção é de continuar a aperfeiçoar os seus esforços nessa área, divulgando de forma rotineira dados relacionados com as operações de informações apoiadas pelo estado na sua rede.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

*