No último dia 23 de Maio de 2019, o Facebook anunciou seu terceiro “Community Standards Enforcement Report“, no qual informa ter removido 2,2 bilhões de contas falsas, ao longo dos três primeiros meses do ano. A informação virou noticia no mundo todo, inclusive no Brasil, afinal foram 2,2 bilhões de contas falsas quase dez vezes a população do Brasil. A despeito do número gigantesco, o que mais me chamou a atenção foi a ausência de análises mais detalhadas da questão.

A matéria da CNN, faz um breve análise dos dados extraídos do relatório, e recomendo a leitura. A CNN destaca o posicionamento de Mark Zuckerberg em uma teleconferência com a imprensa, para apresentar o relatório, apontando ser tão importante prestar conta destas questões quando falar dos dados financeiros, e argumenta:

“Compreender a prevalência de conteúdo nocivo ajudará as empresas e os governos a criarem sistemas melhores para lidar com isso. Acredito que todos os principais serviços de Internet devem fazer o mesmo.”

Mark Zuckerberg

Não esperaria posicionamento diferente do CEO do Facebook, em reposta a enxurrada de críticas, boicotes e questionamentos por autoridades, pesquisadores e organizações de diversos países, em relação a sua rede social.

A matéria da CNN também destaca as ações do Facebook no combate a práticas ilícitas dentro da plataforma, tais como comércio de armas e drogas. Outro ponto é o combate ao discurso de ódio, bullying e conteúdo (vídeo e áudio) que violem as regras da comunidade. Segundo o relatório, somente 25 à cada 10.000 conteúdos violam estas regras, ou seja, 0,25%. Tenho visto com bastante regularidade reclamações de publicações racistas, preconceituosas ou violentas, não tenho elementos quantitativos para avaliar, mas creio que sejam bem mais de 0,25%.

Não podemos deixar de lembrar Rafael Capurro (2010), ao avaliar que esta questão ganha pluralidade quando avaliada pela Ética Intercultural da Informação (EII), que se refere à coexistência de normas morais universais e universalizadas e tradições morais locais. Isto significa que determinadas polarizações e preconceitos, por exemplo, apresentarem maior, menor ou nenhum significado em diferentes culturas.

A duvida que refuta disto, é se os moderadores de conteúdo do Facebook, que são terceirizados, e trabalham sob grande pressão, sujeitando-se a desenvolver sérios problemas psicológicos, terão as habilidades e competências multiculturais necessárias para fazer esta avaliação adequadamente, mesmo considerando que as decisões finais são tomadas por inteligência artificial.

A dimensão de 2,2 bilhões de contas falsas

Voltando à questão principal, o número de 2,2 bilhões de contas falsas removidas do Facebook chamou a atenção, principalmente porque eu havia acabado de escrever um artigo onde cito, com base no relatório anual de 2018 da empresa, a seguinte informação:

Daily active users (DAUs) – DAUs were 1.52 billion on average for December 2018, an increase of 9% year-over-year.

Monthly active users (MAUs) – MAUs were 2.32 billion as of December 31, 2018, an increase of 9% year-over-year.

Usuários ativos diariamente ( DAUs), significam a média do número de usuários distintos que acessam ou fazem ao menos uma atividade ao longo do dia, no Facebook, dentro do período avaliado. Os usuários ativos mensalmente (MAUs), significam a média do número de usuários distintos que acessam ou fazem ao menos uma atividade ao longo do mês, no Facebook, dentro do período avaliado, no caso o ano de 2018.

Em uma primeira avaliação da notícia, imaginei haver algum equivoco, poderiam ter sido 2,2 milhões de contas e não 2,2 bilhões, pois 2,2 bilhões seriam quase a totalidade dos 2,32 bilhões de usuários ativos no mês. O relatório aponta mesmo 2,2 bilhões de contas falsas, como não temos acesso a numero de contas do Facebook, não é possível avaliar o percentual de contas falsas, a não ser comparando-o com as MAUs.

Para dar um dimensão do que estamos falando, vamos avaliar alguns números. Hoje temos 7,72 bilhões de habitantes no planeta terra, destes, 56,8% possuem acesso à Internet, ou seja, 4,38 bilhões de pessoas. Com 2,32 bilhões de usuários ativos no mês, o Facebook concentra 54% das pessoas que possuem acesso à Internet, ou 30% da população do planeta.

Fonte: Internet World Stats e Facebook Reports Fourth Quarter and Full Year 2018 Results

Esta visualização permite dar uma dimensão do que são as 2,2 bilhões de contas falsas excluídas. Representam mais que a população da Europa, Oceania, América do Norte, América do Sul e Caribe juntas; ou 28,50% da população do planeta; ou ainda 50% da população com acesso à Internet no mundo.

Gráfico mostrando a proporção de 2,2 bilhões

Outro olhar sobre a questão

Não foram apenas estes 2,2 bilhões de contas que foram excluídas, segundo o relatório, em 2018, foram excluídas 3,14 bilhões de contas falsas. O que chama atenção no relatório neste ponto, é que no primeiro trimestre de 2019, o número de contas falsas praticamente dobrou em relação ao último trimestre do ano passado. No período de Outubro a Dezembro de 2019, foram excluídas 1,2 bilhões de contas falsas, em relação às 2,2 bilhões de Janeiro a Abril de 2019.

O relatório aponta ainda que a maioria das contas falsas excluídas foram identificadas minutos após serem criadas, e desta forma não impactaram na contagem de Usuários Ativos no Mês (MAUs). Uma atualização descrevendo como estão sendo os esforços apresentados no relatório, mostra um instantâneo dos dados (Data Snapshot) descreve que as contas falsas impactaram em média 5% dos MAUs, e que em média 99,6% das contas foram removidas antes de reportadas pelos usuários. Se considerarmos a relação contas fakes removidas x MAUs teriamos as tabelas abaixo. Observe que de 2018 para 2019 o número quase triplicou.

Fontes: Relatórios Financeiros do Facebook 2018 e Q1 2019 e Relatório de aplicação de padrões da comunidade no Facebook Q1 2019

Afinal a média da relação contas fakes x MAUs é 5%, 12% ou 31%? O relatório do Facebook ao prestar contas à sociedade demonstra uma eficiência impressionante, primeiro ao dizer identificar as contas falsas minutos depois de serem criadas, sem impactarem nos MAUs, e em média 99,6% das contas falsas foram identificadas antes de qualquer denuncia, e que as contas falsas não identificadas inicialmente, impactaram em apenas 5% dos MAUs. Será que são tão eficientes assim? O vídeo a seguir, demonstra que o Facebook não consegue lidar com as fazendas de likes de forma eficiente, colocando em dúvida a sua “eficiência impressionante”.

Em outra publicação na sala de imprensa, o Facebook explica como identifica as contas falsas, inicialmente eles descrevem que ataques automatizados criam milhares ou até milhões de contas falsas em curto espaço de tempo. Estas são removidas antes de provocar danos e serem contabilizadas nos MAUs. Pelo que diz o relatório, entendo que aqui estão as 99,6% de contas que foram removidas rapidamente. O Facebook diz ainda ter cuidado para não classificar equivocadamente contas como falsas, focando então no que classificam como contas abusivas.

Ainda neste documento, eles descrevem usar mecanismos e indicadores para este processo, mas não dizem quais são especificamente e nem como isto é feito. E descrevem três momentos em que atuam na redução de contas falsas:

  1. Impedindo tentativa da criação de contas, bloqueando os IPs suspeitos de acessar a plataforma;
  2. Removendo as contas durante a criação, quando existirem indicadores de que estão sendo criadas de forma automatizada ou massiva;
  3. Removendo contas já existentes que apresentem indícios de automação ou que sejam falsas.

Entendo pelo que foi dito que existe uma prevalência de contas falsas, as existentes que são consideradas abusivas, que certamente representam aqueles 5% que impactam nos MAUs.

O Facebook diz ainda ter o cuidado de garantir ao anunciante que sua publicidade será efetiva, atingindo o público alvo, é o que está no final do documento:

Além das perguntas que recebemos sobre contas falsas abusivas, também recebemos perguntas sobre contas falsas em geral, já que elas se relacionam com os anunciantes que obtêm um retorno do investimento conosco.

How Does Facebook Measure Fake Accounts?

Chegamos no ponto em que queria, suspeitava, e de fato existe uma preocupação do Facebook com o impacto das contas falsas no seu modelo de negócios. E este impacto pode ser muito superior aos 5% relatados, seria inocência acreditar que esteja tudo sob controle pelo Facebook.

Hoje temos sofisticados sistemas de micro-targeting, redes gigantescas de manipulação da verdade, da realidade e opinião pública, que impactam e ameaçam diversas democracias, afetando o resultado de eleições e demais questões que envolvam opinião pública. Estes perversos mecanismos não atuam somente pelo Facebook, mas de forma integrada envolvendo também o WhatsApp, Twitter e até mesmo o Instagram. Se houvesse de fato um controle deste mecanismo, que é operado a partir de milhões de contas falsas, este problema teria sido varrido do Facebook.

O Facebook relata, como dito anteriormente, que impede a criação de contas de IPs suspeitos, ou por práticas suspeitas de criação, e exclui contas com comportamento suspeito, tudo segundo padrões e indicadores. Os mecanismos perversos descritos, também fazem uso de contas reais, como nas eleições de 2018, que o aplicativo chamado Bolsocop postava na conta do usuário de forma automática, tornando sua conta do Facebook uma espécie de zumbi.

Estas práticas e evidências, nos levam a crer que o volume de criação e operação de contas fantasmas, e de contas reais operadas como fantasmas pode ser muito maior do que os 2,2 bilhões reportados. Isto pode estar acontecendo numa ordem de grandeza que possa afetar sensivelmente o modelo de negócios do Facebook, inclusive as fake news.

O impacto das contas fakes no modelo de negócios do Facebook

Para continuarmos, preciso que você compreenda um pouco como funciona a “Fábrica Algorítmica do Facebook, no vídeo abaixo eu explico seu funcionamento de forma bem didática.

Você também pode saber um pouco mais, lendo “Seus dados são você, Facebook“. Feito isto imagino que já compreenda como o Facebook extrai obsessivamente seus dados, em especial os de ações e comportamentos, com o quais produz diversos modelos, como modelo comportamental, perfil psicométrico, gostos e relacionamentos, com estes dados ele consegue descobrir uma série de informações como orientação sexual, padrão social, de relacionamento, hábitos e etc. Esta precisa modelagem permite em termos práticos, a partir da análise de meros 300 likes lhe conhecer melhor que sua/seu parceiro de vida.

O problema advindo da operação massiva de contas falsas, é a possível distorção destes modelos, refletindo na precisão do Facebook. Cathy O’Neil em seu livro “Weapons of Math Destruction” descreve como os algoritmos podem codificar o viés e o preconceito através de seu projeto e codificação, mas o viés também pode ser desenvolvido a partir dos dados distorcidos, e também a partir do deep learning, se os dados usados no machine learning foram enviesados. Desta forma, perfis fakes no Facebook podem intencionalmente ou não, enviesar os dados, distorcendo os padrões e modelos.

Você conseguirá enxergar isto de forma mais clara pela leitura de “Sua identidade digital tem três camadas, e você só pode proteger uma delas“, nele a autora, explica didaticamente estas três camadas, que são de uma forma prática, pela perspectiva video da fábrica algorítmica acima, a “extração de dados”, “armazenamento de dados” e “processamento algorítmico”. E de fato você só tem controle sobre os dados na etapa da extração. Porém se os dados nesta fase não atenderem a um padrão comportamental, ou seja, serem confiáveis, produzidos por humanos, certamente afetarão as demais camadas de alguma forma, produzindo resultados enviesados.

De uma forma prática, a distorção que pode se dar nos modelos, certamente tem o potencial de afetar o Facebook, que perderá a precisão na formatação do feed, apresentando conteúdo fora do contexto, e pelo lado do anunciante, poderá não impactar o perfil específico contratado pelo anunciante.

Este viés induzido intencionalmente, impactando nos algoritmos de indexação e classificação, não é novidade, há muitos anos, a prática do “Google Bomb” vem colocando nas buscas o resultado que se quer obter, como o exemplo retirado da Wikipedia:

 A primeira nota sobre Google Bomb foi mencionada na imprensa popular ocorreu, de acordo com o Guinness World Records, talvez acidentalmente em1999, quando operadores descobriram que o resultado da busca para o termo “more evil than Satan” (mais demoníaco do que o próprio Satanás) retornava como resposta a página inicial da Microsoft.

Outro caso interessante, é o de uma influenciadora com mais de dois milhões de seguidores no Instagram, não conseguir o engajamento suficiente para vender 36 camisetas. O fato levantou a discussão em torno do uso de perfis fakes, que são usados vendidos como seguidores, inflando estas contas, produzindo falsas percepções, e o futuro estouro da bolha de influenciadores.

Alias vivemos em um momento em que a percepção da realidade esta em uma crescente distorção, a ponto de não mais termos certeza de nada, nem do senso comum. As pessoas estão ficando perdidas, o que pode estar levando a um inesperado retrocesso em pleno século XXI. Nick Couldry e Anreas Hepp em “Mediated Construction of reality” destacam que nossa humanidade foi construída em torno de um processo social, e agora o processo social também é tecnologicamente mediado. Ou seja, estamos construindo uma sociedade sobre bases voláteis.

Como pode ver, a operação das contas falsas, impacta nas fake news, e principalmente na “Fábrica Algorítmica do Facebook”. Certamente o Facebook deve ter indicadores e práticas para evitar grandes distorções, mas mesmo assim, está de uma forma ou de outra, suscetível a esta ameaça, que é um risco crescente, como mostra o próprio relatório do Facebook.


Referências

CAPURRO, Rafael. Desafíos téoricos y prácticos de la ética intercultural de la información. In: I Simpósio Brasileiro de Ética da Informação . [s.l.]: [s.n.], 2010. Disponível em: http://www.capurro.de/paraiba.html . Acesso em: 28/maio/17.

FACEBOOK. Facebook – Facebook Reports First Quarter 2019 Results. Facebook Investor Relations. [s.d.]. Disponível em: <https://investor.fb.com/investor-news/press-release-details/2019/Facebook-Reports-First-Quarter-2019-Results/default.aspx>. Acesso em: 01/jun./19.

FACEBOOK. Facebook – Facebook Reports Fourth Quarter and Full Year 2018 Results. Facebook Investor Relations. 2019. Disponível em: <https://investor.fb.com/investor-news/press-release-details/2019/Facebook-Reports-Fourth-Quarter-and-Full-Year-2018-Results/default.aspx>. Acesso em: 01/jun./19.

FACEBOOK. How Does Facebook Measure Fake Accounts? | Facebook Newsroom. Facebook Newsroom. 2019. Disponível em: <https://newsroom.fb.com/news/2019/05/fake-accounts/>. Acesso em: 01/jun./19.

FACEBOOK. An Update on How We Are Doing At Enforcing Our Community Standards | Facebook Newsroom. Facebook Newsroom. 2019. Disponível em: <https://newsroom.fb.com/news/2019/05/enforcing-our-community-standards-3/>. Acesso em: 01/jun./19.

FACEBOOK. Community Standards Enforcement. Facebook Transparency. 2019. Disponível em: <https://transparency.facebook.com/community-standards-enforcement#fake-accounts>. Acesso em: 01/jun./19.

O’NEIL, Cathy. Weapons of Math Destruction, How big data increases inequality and threatens democracy. New York: Crown Publishing Group, 2016. 307 p. ISBN: 9780553418828.


0 comentário

Deixe um comentário

Avatar placeholder

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *