Como o Facebook decide o que fica na rede e o que deve ser deletado

Foto dos seios pode, desde que sejam de uma mulher amamentando ou que passou por uma mastectomia. Afirmar que gays são pessoas ruins não pode –mas criticar o trabalho de uma ONG LGBT, sim. Dizer que quer matar alguém, bem, aí depende do seu grau de periculosidade.

Uma equipe de revisores do Facebook espalhada pelo mundo é responsável por, em tempo real, verificar quais dos posts publicados pelo montante de 1,5 bilhão de usuários e alvos de denúncia merecem permanecer no site e quais devem ser deletados.

Essas decisões são comumente alvo de críticas, como quando, em abril deste ano, a empresa tirou do ar a foto de um casal de índios, com ela de seio à mostra, postada na conta do Ministério da Cultura. O ministro Juca Ferreira classificou a remoção como "censura".

A Folha já teve conteúdo removido de sua página na rede social por mostrar seios. Em uma das vezes, a foto era de um protesto do grupo Femen. Em outra, a imagem era do toplessaço no Rio, em protesto contra a proibição da prática do topless.

Monika Bickert, uma ex-promotora americana que lidera a equipe global de revisores, classifica esse tipo de episódio como um dos "desafios" de seus comandados (há uma equipe também no Brasil para isso).

"Você está sentado no computador, vê uma imagem, não sabe quem são as pessoas ou o que acontece com elas no mundo off-line, e tem que tomar uma decisão em um contexto muito restrito", disse a executiva, durante encontro com jornalistas em São Paulo nesta quarta-feira (7).

Se um usuário denuncia um post específico, o revisor vê apenas esse conteúdo, e não a página inteira responsável pela publicação.

No caso das imagens de nudez, a orientação é "pender para o lado da segurança". "Precisamos garantir que a pessoa deu autorização para que aquela imagem tenha sido compartilhada, para evitar problemas como a "vingança pornô."

Na prática, segundo ela, o site fica no limiar entre a liberdade de expressão e a proteção à honra e segurança dos usuários.

"Nossa orientação é: se é um ataque direto a pessoas por sua raça, religião, origem ou identidade de gênero, nós removemos. Se a fala é contra um país, ou a política de um país, ou uma instituição, nós vamos permitir por causa do debate público", afirma a advogada.

Bickert não informa quantas pessoas atualmente fazem esse trabalho, que é, em grande parte realizado por humanos. Em 2012, o jornal britânico "The Telegraph" informou que a equipe era formada por profissionais terceirizados que ganhavam apenas US$ 1 por hora, o que a executiva nega.

Leia abaixo trechos da conversa com a executiva:

O papel das máquinas
Temos automação para fazer uma triagem das denúncias. Se algo foi reportado por mais de dez pessoas, nós consolidamos os dados para analisar o caso. E se algo já foi removido, por exemplo, não precisamos mais analisar. O que eu quero enfatizar é que a maior parte das denúncias, de discurso de ódio, de violência, é revisada por pessoas reais.

Análise prévia
Nós usamos uma ferramenta chamada Photo DNA, que é da Microsoft e licenciada para outras companhias. Se alguém tenta postar uma imagem de pornografia infantil, a imagem é barrada, não chega a entrar no sistema, e nós então notificamos a National Center for Missing and Exploited Children [uma ONG que auxilia crianças que sofreram abusos], que tem contato com associações e governos ao redor do mundo.

Questão de linguagem
Se alguém posta uma violência, analisamos como é a linguagem usada, e a credibilidade daquela ameaça. As pessoas usam linguagem agressiva o tempo todo, coisas como "minha professora de matemática passou muita lição de casa, quero matá-la". Não queremos interferir em dizeres que são brincadeiras, sátiras, coisas que não são ameaças reais de violência.

A exceção
Nós removemos qualquer ameaça de violência sexual, até piadas sobre estupros, que algumas pessoas pessoas podem achar humorísticas, mas com as quais não concordamos.

Diferença entre celebrar a violência e informar
Conteúdo gráfico [como fotos e vídeos] pode ser poderoso para alertar as pessoas sobre algo. Com violências aos direitos humanos –e às vezes vemos conteúdo sobre a Síria, por exemplo–, há razões para que a comunidade veja isso.

Nossa política é que, se alguém compartilha esse tipo de imagem para informar e acaba denunciado, nós vamos deixar aquilo visível para adultos e colocar um aviso. Você precisa clicar para ver. Mas se aquilo foi postado para zombar da vítima ou celebrar a violência, vamos removê-lo. Há coisas que não permitimos, como vídeos de degola, mesmo que seja para informação.

Nudez castigada
Nós não permitimos genitais e, em alguns casos, topless, a não ser em casos de amamentação ou de imagens pós-cirúrgicas. Parte da razão para isso é que precisamos garantir que a pessoa deu autorização para que aquela imagem tenha sido compartilhada, para evitar problemas como a "vingança pornô", que podem ter graves consequências para as pessoas. Por isso, pendemos para o lado da segurança.

As limitações
Nossos revisores têm um contexto limitado. Não sabem se a pessoa consentiu que aquilo [a nudez] fosse postado e se foi por fins de educação, arte, sexo ou para zombar de alguém.

Liberdade de expressão
O nosso foco é se há um ataque a uma pessoa ou a um grupo, com base, por exemplo, na orientação sexual. Não importa se quem publicou o texto foi um político ou outra pessoa. Se ela diz "eu não gosto de gays, eles são pessoas ruins", isso viola a nossa política. Mas se você critica um político por suas visões nesse assunto, ou uma instituição, como uma ONG gay, por exemplo, então nós permitiríamos.

Ao mesmo tempo, se as pessoas estão discutindo política, queremos permitir a discussão, e se alguém é ignorante em determinado assunto, é importante que os outros membros da comunidade combatam essa ignorância.

Fonte: Folha.com

Curta nossa página no Facebook



Nenhum comentário:

Postar um comentário

AddThis