O Facebook considera que os vídeos que mostram mortes violentas nem sempre devem ser eliminados da rede social. Esta é apenas uma das várias normas que constam nos documentos sobre a política interna da empresa, a que o jornal The Guardian teve acesso.

Com dois mil milhões de utilizadores em todo o mundo, o Facebook é a maior e a mais popular rede social do mundo. Todos os dias, os moderadores da plataforma decidem sobre o que deve ou não ser removido da rede.

The Guardian revelou esta segunda-feira uma série de regras e normas de política interna que a tecnológica norte-americana passou aos seus moderadores no ano passado. São documentos que mostram como é que a plataforma toma decisões sobre os conteúdos que promovem a violência, o racismo, o discurso de ódio, o terrorismo, a pornografia ou a automutilação.

Decisões que, muitas vezes, e devido ao volume de trabalho, são tomadas em apenas “dez segundos”, como explicou uma fonte da empresa ao jornal britânico.

No caso das publicações que mostram mortes violentas, por exemplo, apesar de serem referenciadas como “perturbadoras”, estas nem sempre têm de ser eliminadas da rede social. A justificação apresentada pela empresa é a de que este tipo de publicações pode promover a consciencialização para assuntos sensíveis.

"Os vídeos de mortes violentas são perturbadores mas podem ajudar a criar uma consciencialização. Para os vídeos, consideramos que os menores precisam de proteção e os adultos têm direito à escolha. Marcamos como 'perturbadores' os vídeos de mortes violentas de seres humanos", lê-se nos ficheiros a que o jornal teve acesso.

Assim, esse tipo de conteúdos deve ser "escondido de menores", mas não deve ser automaticamente apagado pois "pode ajudar a promover consciencialização para assuntos como as doenças mentais, os crimes de guerra e outras questões importantes".

Imagens que mostrem abusos de crianças, e que não sejam de natureza sexual, também não têm de ser obrigatoriamente eliminadas, a menos que constituam um "ato sádico". Vídeos de abortos que não contenham nudez e imagens que mostrem abusos sobre animais também são permitidos.

Os vídeos em direto que mostrem automutilações também não devem ser removidos pois, explicam os ficheiros, a rede social não quer “censurar ou punir pessoas que estão numa situação emocional delicada”.

Mais, as normas indicam que mensagens como “Alguém dê um tiro em Trump!” devem ser removidas pois Donald Trump é uma figura de Estado. Mas se um utilizador dirigir palavras como “vai-te embora e morre” a um qualquer outro cidadão essa ameaça poderá ficar na plataforma pois não é levada a sério.

É que o Facebook considera que a linguagem violenta não é, na maioria das vezes, uma "ameaça credível" devido à falta de empatia que advém da comunicação através de dispositivos tecnológicos, por oposição à empatia criada com as relações cara a cara. Para a empresa, “as pessoas usam linguagem violenta para expressarem a sua frustração online” e sentem-se “seguras” em fazê-lo naquela rede social.

Nos últimos tempos, o Facebook tem estado debaixo de fogo por causa dos conteúdos violentos que são partilhados na rede. E a possibilidade de transmissão de vídeos em direto veio criar dificuldades à rápida monitorização desses conteúdos.

Num dos casos mais chocantes, um homem de Cleveland, Ohio, transmitiu em direto no Facebook o momento em que matou um idoso na rua, antes de suicidar. O vídeo ficou online durante várias horas. Na Tailândia, um outro caso de grande violência: um homem transmitiu em direto o momento em que matou a filha, de apenas 11 meses, e o seu próprio suicídio.

Atualmente, a rede social fundada por Marck Zuckerberg tem 4.500 pessoas a monitorizar os conteúdos violentos que são partilhados na plataforma. Mas, para fazer face às críticas, a tecnológica anunciou, no início do mês, que vai contratar mais 3.000 pessoas para esta função específica.