Tribunal do Facebook contraria empresa em seus primeiros julgamentos

O conselho de conteúdo do Facebook divulgou ontem as decisões dos primeiros cinco casos avaliados pelo órgão.

Em quatro casos, o “tribunal do Facebook” contrariou a decisão dos moderadores de conteúdo da empresa. Apenas uma decisão foi mantida.

As decisões foram conforme abaixo:

  • Um usuário em Myanmar escreveu que “Muçulmanos devem ter algo de errado na cabeça” ao argumentar que eles deveriam estar mais preocupados com perseguição a seus irmãos do que com charges ironizando Maomé. O Facebook removeu o post, alegando discurso de ódio. O conselho ordenou que ele fosse republicado, alegando que foi um “comentário sobre a inconsistência de reações entre muçulmanos”
  • Uma brasileira publicou imagens de seios para ilustrar uma campanha de câncer de mama. Como comentamos por aqui, o post foi removido, depois republicado. Mas o conselho criticou a remoção inicial e e pediu regras mais claras sobre este assunto no Facebook.
  • Um usuário dos EUA usou uma frase de Joseph Goebbels para criticar Donald Trump. O Facebook removeu o post alegando que ele promovia um “indivíduo perigoso” (Goebbels). O conselho ordenou a volta do post e criticou o Facebook por não fornecer transparência sobre o que qualificaria um indivíduo perigoso.
  • Um francês publicou um post criticando o governo por não autorizar o uso de cloroquina contra Covid, e disse que o remédio “não fazia mal”. O Facebook removeu o post por desinformação. O conselho ordenou que o post fosse republicado e alegou que foi apenas um comentário sobre um debate relevante, e não um conselho médico para outros usuários.
  • Durante o recente conflito Azerbaijão x Armênia, um usuário escreveu que “Pessoas do Azerbaijão são nômades e não têm história comparável à dos armênios” e pediu “fim para agressão e vandalismo das pessoas do Azerbaijão”. Este foi o único caso em que o conselho e o Facebook concordaram em remover o post.

A variedade dos casos dá apenas uma pequena ideia dos milhares de tipos de conflitos que o Facebook tem que avaliar diariamente.

Na prática, é impossível que o conselho consiga fazer alguma diferença (pelo menos em termos de volume) em uma rede social com quase 3 bilhões de usuários.

Mas a ideia é que, a partir das decisões do conselho, sejam criadas regras que possam ser implementadas em maior escala pelos cerca de 15 mil moderadores do Facebook.

As decisões do conselho também podem ser usadas pelo Facebook para aprimorar os filtros automáticos de moderação de conteúdo.