Oi, pessoal!
Em abril deste ano, uma falha nos algoritmos do Facebook fez com que milhões de usuários do mundo todo fossem expostos à desinformação. No comunicado interno, obtido pelo The Verge, engenheiros da plataforma afirmavam que o bug, classificado como grave, foi identificado em outubro de 2021 e atingiu metade de todas as visualizações do feed de notícias.
Por conta disso, as publicações que continham informações falsas, identificadas pelas agências de checagens e pelos sistemas da Meta, estavam sendo impulsionadas em vez de ocultadas. Segundo as investigações do Facebook, a falha fez com que as visualizações de desinformações aumentassem em 30% no mundo todo. Além de informações falsas, o Facebook deixou de remover conteúdos de nudez e de violência.
No mesmo documento, os profissionais também disseram que o problema continuou até março deste ano devido à dificuldade de encontrar a causa do bug.
Como a repercussão negativa era grande, um representante do Meta veio a público e confirmou a existência de uma falha, mas afirmou que ela já havia sido resolvida.
Em janeiro de 2018, o Facebook realizou parcerias com organizações de notícias e acadêmicos de jornalismo como forma de enfrentar a crise informacional, divulgando conteúdo confiável e sinalizando postagens falsas. Uma página do Meta informa que eles trabalham com um programa de verificação de fatos certificado pelo International Fact-Checking Network (IFCN). Porém, será que isso é suficiente? O que a lei brasileira diz sobre as redes sociais e sobre a divulgação de informações falsas e discursos de ódio?
Leandro Bissoli, especialista em Direito Digital e sócio do Peck Advogados, explica que plataformas podem ser responsabilizadas judicialmente caso seja possível comprovar uma atuação ativa na disseminação de discursos de ódio e desinformações. Porém, ele afirma que, visando garantir a liberdade de expressão e impedir a censura, elas só são penalizadas: “a partir do momento que deixar de atender uma ordem judicial (no caso de desinformação) ou notificação extrajudicial (no caso de conteúdos que violam a intimidade da pessoa)”.
Com base no Marco Civil da Internet, o advogado destaca que os provedores de aplicações de internet que ofertam serviço ao público brasileiro, mesmo que as atividades sejam realizadas por pessoa jurídica com sede no exterior, devem, obrigatoriamente, respeitar a legislação brasileira e os direitos à privacidade, à proteção dos dados pessoais e ao sigilo das comunicações privadas e dos registros.
Entretanto, não existe um órgão público que fiscalize o comportamento das redes sociais frente a disseminação de informações. Segundo Bissoli, cada órgão, ministério ou empresa realiza o monitoramento das redes sociais para identificar a disseminação de desinformações de temas de seu setor ou interesse. “Como um exemplo de atuação, podemos apontar programa de Combate à Desinformação do STF que visa combater práticas que afetam a confiança das pessoas no Supremo, distorcem ou alteram o significado das decisões e colocam em risco direitos fundamentais e a estabilidade democrática”, afirma.
E aí, você leitor, acredita que todas essas ferramentas, órgãos e ações, dão conta? Com as eleições logo aí, que cuidados podemos tomar a partir do que já dissemos aqui no blog? Conta pra gente o que tem achado.
Até a próxima!
Equipe Foca Nas Mídias