A ESPM acaba de lançar o observatório Ética de Bolso com um repertório de textos dos pesquisadores que compõe o grupo coordenado pelo professor Dr. Luiz Peres-Neto. O observatório surgiu como um produto de seu projeto de pesquisa de pós-doutoramento: “Implicações éticas das políticas de privacidade digital: um olhar a partir do campo da comunicação e do consumo”, financiado pelo CNPq e pelaAnnenberg School for Communication, da University of Pennsylvania (EUA), onde foi CAPES/ Fulbright Post-doctoral Researcher Fellow, em 2015. “Emergiu a proposta de um observatório que não se limitasse às questões relativas à privacidade digital, mas que a incluísse e que permitisse expandir as nossas reflexões já que trabalhamos e pesquisamos em torno à tríade ética, comunicação e consumo. E que, desse modo, pudéssemos oferecer uma modesta contribuição à sociedade”, sintetiza Peres-Neto, que é professora do PPGCOM-ESPM. Segundo o coordenador do observatório, “apesar do debate da ética estar continuamente presente no horizonte de inquietações de milhões de brasileiros, faltava um espaço acadêmico no mar sem fim da Internet que propusesse um diálogo sobre este tema, de maneira mais aberta para com a sociedade. Assim surgiu o “Ética de Bolso”, um observatório que pretende contribuir com as discussões sobre ética com todos e todas, com independência do nível socioeconômico, renda, ideologia, títulos, pompas ou circunstâncias. Porque a ética – assim como o consumo e a comunicação – é parte inseparável das nossas vidas. Bússolas que nos permitem navegar no oceano de valores, virtudes e morais que nos afetam a cada instante”. Abaixo texto de uma das pesquisadoras da equipe do Ética de Bolso, Marília Duque, “O discurso científico do Facebook Data Team e a legitimização do algoritmo do Facebook”: Imagine que, ao invés de largar a Harvard University para se dedicar ao Facebook, Zuckerberg tivesse resolvido seguir a carreira acadêmica. Sua criatividade e inovação revolucionariam a comunidade científica? A julgar pelo último artigo científico[1] de autoria do Facebook Data Science Team, diria que não. Falta-lhe método. O referido estudo, publicado no jornal Science, e informalmente conhecido como “It’s not our fault”, recebeu de Christian Sandvig, professor associado da University of Michigan duras críticas nesse sentido[2]. Grosso modo, o artigo investiga o comportamento dos usuários com orientação política definida (Conservadores X Liberais) quando expostos a notícias de orientação divergente das suas, seu consumo dessas notícias e qual a influência do algoritmo do Facebook nessa escolha. Não foi surpresa que os usuários tendem a selecionar as notícias com as quais se identificam e que essa atitude conduz a uma polarização. Entretanto, como aponta Sandving, as conclusões propostas a partir dessa observação são per se problemáticas. Vamos elencá-las a seguir. Sobre a equivalência das variáveis Os pesquisadores concluem que a convicção política dos usuários é um fator muito mais determinante de suas escolhas do que a influência exercida pelo algoritmo em sua curadoria. Essas não são, entretanto, duas variáveis independentes que possam ser comparadas entre si. Ao contrário, uma é consequência direta da outra, uma vez que a gama de notícias apresentada a cada usuário já é fruto de uma seleção prévia do algoritmo. Desconhecimento das variáveis Uma das características de um estudo científico é que ele possa ser reproduzido para fins de validação e comparação de resultados (critério de testabilidade ou refutabilidade tratado por Popper). É claro que, tratando-se de pessoas, é impossível ter uma reprodução exata das condições do experimento. Entretanto, o problema em questão é que o modos operandi do algoritmo do Facebook, peça-chave neste estudo, não é conhecido assim como seus parâmetros também não são definidos no cálculo dos resultados divulgados pelos pesquisadores. A definição de algoritmo, desta forma, não pode ser empregada de forma absoluta no campo científico, uma vez não é possível ter certeza de que dirá respeito ao mesmo conjunto de variáveis considerados em um estudo anterior ou mesmo correlato (princípio da incomensurabilidade de Feyerabend). Representatividade da amostra O artigo apresenta a amostra de 10.1 milhões de usuários como representativa da base de 200 milhões de americanos que utilizam o Facebook. Entretanto, não esclarece quais os critérios demográficos empregados nesse processo de seleção. Apenas no apêndice, como ressalta Sandving, são elencadas as condições para inclusão na amostra: idade maior ou igual a 18 anos; frequência de acesso ao Facebook maior ou igual a 4 dias na semana; interação com pelo menos uma notícia considerada relevante pelo Facebook; orientação política declarada publicamente e de modo apreensível. Mas, quem declara publicamente e de modo apreensível sua orientação política no Facebook? Essa é a maior ressalva feita por Sandving. Apenas 4% dos usuários do Facebook se encaixam nessa categoria. De onde se conclui que o estudo foi feito com base em um comportamento que não é padrão dos usuários da plataforma. Não trata-se, pois, de uma amostra representativa. E pior: a condição para elegibilidade, “declarar a orientação política publicamente e de maneira apreensível”, pode ser relacionada com um posicionamento altamente definido que já é, per se, um indicativo de quão abertos esses usuários estariam para consumir notícias divergentes de suas ideologias (proposta do estudo). O risco da generalização À parte o fato da amostra não ser representativa do comportamento padrão dos usuários do Facebook, é pertinente fazer um breve apontamento sobre o perigo das generalizações dos estudos científicos em redes sociais. Com o projeto de antrolopogia digital “Why we post”[3], por exemplo, Daniel Miller e seu grupo de 8 pesquisadores fazem uma etnografia de 9 sítios fora do eixo Estados Unidos-Canadá, onde se produz parte expressiva do conhecimento científico neste campo. E alertam como os resultados empíricos do uso de redes sociais tidos como “senso-comum” são postos em cheque quando inseridos em outras culturas, como no Chile, Trindad, Brazil, China Rural, China Industrial, Turquia, Índia, Itália e Inglaterra. Neste sentido, é preciso rigor na linguagem para que, ao contrário do artigo analisado aqui, as conclusões não sejam apresentadas como um comportamento, uma tendência ou uma característica comum aos usuários do Facebook de maneira geral. O perigo do discurso científico do Facebook para a ética Aristóles defende que o caráter de um homem é fruto de suas decisões. Entretanto, segundo ele, devemos ser responsabilizamos apenas pelas decisões deliberadas sobre questões das quais temos conhecimento. Se o algoritmo do Facebook seleciona as notícias com as quais os usuários já tendem a concordar, omite aquelas que apresentam seu contraponto, excluindo pontos de vistas e análises contrárias que dariam justamente o conhecimento mais completo e diverso da questão sobre a qual se debruça o ajuizamento ético de cada indivíduo e a possibilidade de uma mudança de opinião. Essa é a premissa desconsiderada pelo artigo do Facebook Data Team analisado aqui. E agravada por outras práticas do Facebook, como a curadoria extra-algorítmica da sua “Trending List”, por exemplo. Nesta lista, como apontado em matéria do site Gizmodo[4], não aparecem apenas as notícias mais comentadas organicamente na rede social, mas aquelas selecionadas por uma equipe de editores do Facebook. Isso significa que a percepção da realidade, o acesso ao “outro lado da moeda”, a deliberação bem informada e, por conseguinte, a própria ética estão comprometidas. E não há (nem haverá) lastro científico que exima o Facebook dessa responsabilidade. Referências: ARISTÓTELES. Ética a Nicômaco. São Paulo: Martin Claret, 2004. FEYERABEND, Paul. Contra o método. Rio de Janeiro: Francisco Alves, 2003. POPPER, Karl. Conjecturas e Refutações. Brasilia: Editora Unb, 2008. [1]http://science.sciencemag.org/content/early/2015/05/06/science.aaa1160.abstract [2] http://www.wired.com/2015/05/facebook-not-fault-study/ [3] http://www.ucl.ac.uk/why-we-post [4]http://gizmodo.com/former-facebook-workers-we-routinely-suppressed-conser-1775461006?rev=1462799465508 | ||
Sobre a ESPM Fundada em 1951 com o nome Escola de Propaganda do MASP e sob o slogan ‘Ensina quem faz’, a ESPM tinha como filosofia, mantida até hoje, reunir profissionais do mercado para ministrar seu curso, associando a prática com a teoria. Em pouco tempo já era reconhecida como uma das principais instituições de ensino do País. A partir de 1974, deu início à sua expansão, inaugurando a ESPM Rio, no Rio de Janeiro. Em 1978 viriam os cursos de pós-graduação e, em 1985, inaugurou a ESPM Sul, em Porto Alegre. Considerada um centro de excelência no ensino de Comunicação, Marketing e Gestão, a oferta de novos cursos de graduação era o caminho natural a ser seguido. E desta forma, a ESPM ampliou seu portfólio: Administração (1991); Design (2004); Relações Internacionais (2006); Jornalismo (2011); Sistemas de Informação em Comunicação e Gestão (2014); Cinema e Audiovisual (2015); e Ciências Sociais e do Consumo (2015). O início do século XXI também ficou marcado pela introdução dos programas de mestrado e doutorado. |
O discurso científico do Facebook Data Team e a legitimização do seu algoritmo
506
Post Anterior