A situação atípica da pandemia do novo coronavírus fez explodir um debate que há muito tempo vinha sendo adiado, embora tanto os usuários quanto os administradores das redes sociais soubessem que ele era mais do que necessário: a questão da retirada ou não de conteúdos considerados ofensivos ou ameaçadores de perfis particulares. Afinal de contas, quem é responsável por determinada afirmação, o Facebook, o Twitter, o YouTube, ou o seu usuário específico que a postou? E talvez haja ainda uma pergunta mais difícil do que esta: quem de fato tem o poder de decidir, dentre milhões de postagens diárias, quais são aquelas que devem ser retiradas por apresentarem algum tipo de risco à coletividade?
Durante a crise da covid-19, uma gigantesca onda de desinformação a respeito da saúde pública tomou conta das redes e ganhou dos especialista o nome de “infodemia”. As principais empresas de tecnologia responderam a esse desafio tomando a iniciativa sem precedentes de trabalhar em conjunto para combatê-la. Dentre as medidas estão a promoção de fontes oficiais, e principalmente a identificação e a remoção de conteúdos que possam representar riscos sociais.
No entanto, continua muito difícil definir o que de fato constitui a possibilidade de um dano. Países como Suécia e Nova Zelândia, por exemplo, tomaram medidas opostas num primeiro momento da pandemia, ambas com boas intenções e fundamentadas em análises técnicas. Só o tempo foi capaz de responder que a razão afinal estava com os neozelandeses. Por tratar-se de um vírus novo, sua disseminação tomou proporções pandêmicas enquanto ainda não havia segurança a respeito da maior parte das informações, e a comunidade científica tateava em busca de respostas.
Há outra questão a ser levantada: as diferentes maneiras pelas quais as principais redes de compartilhamento de conteúdo, Facebook, Twitter e YouTube, abordam o problema, pode levar a resultados muito diferentes, o que prejudica a confiança do público.
Para responder à velocidade e escala dos conteúdos postados, a moderação das mídias sociais depende de inteligência artificial. Mas há também como aliados os próprios usuários, que podem sinalizar ou relatar conteúdo potencialmente prejudicial. E mesmo tendo sido originalmente projetados para reduzir danos, os sistemas podem ser manipulados por pessoas com conhecimento técnico e má intenção. Normalmente, com o fim de burlar a vigilância dos algoritmos, são criados conteúdos com linguagens alternativas, na forma de memes ou quizzes, por exemplo.
De qualquer maneira, uma das formas mais apropriadas de lidar com essa questão seria aumentar o nível de transparência a respeito dos conteúdos excluídos e do motivo pelo qual isso ocorreu. Os relatórios publicados pelo Twitter e Facebook hoje demonstram apenas estatísticas gerais sobre solicitações, mas dizem pouco sobre os motivos. Isso deveria ser feito também a respeito dos pedidos de retirada que são negados, o que indicaria para o público um critério mais claro.
É possível também pensar em graus que levam à exclusão de um determinado conteúdo, desde aqueles que são abertamente prejudiciais até os potencialmente enganosos ou que estão apenas em desacordo com as recomendações oficiais. Mais consistência e transparência na forma com a qual as poderosas empresas que controlam as redes sociais, ajudaria a todos e permitiria manter uma confiança maior no sistema neste momento crucial.