O texto a seguir foi escrito por André Lemos no Facebook, e aqui republicado com a devida autorização.
André Lemos – Professor Titular da Facom/UFBA. Pesquisador 1A do CNPq. Doutor em Sociologia – Paris V, Sorbonne
O funcionamento das plataformas se dá pela coleta massiva de dados pessoais e por sistemas algorítmicos que indicam ações por recomendação e propõem soluções para diversos situações do nosso dia a dia.
Estamos acostumados as recomendação diariamente: quando acessamos as redes sociais (com mensagens customizadas para nosso perfil); quando vamos assistir um filme ou ouvir música em plataformas de streamming (sem sabermos quais os critérios para um filme estar “bombando”, ou em primeiro lugar); quando fazemos compras em lojas on-line (indicando novos produtos…). E esses algoritmos também recomendam ações legais, policiais, administrativas, atuando em sistemas de seleção de candidatos, de vigilância por reconhecimento facial, de gestão das cidades, para propor soluções de processos jurídicos, ou procedimentos médicos.
As formas de recomendação são interessantes e podemos dizer mesmo que elas são comuns em todas as nossas atividades, e desde sempre. Fazíamos e fazemos ainda isso tendo o controle do procedimento (buscamos ler sobre o assunto, consultar amigos médicos, sobre médicos, leitores, sobre livros, apreciadores das artes sobre música ou cinema e decidimos, sabendo quais seria as outras opções. Sem as recomendações estaríamos perdido em um mundo em que o mapa é o próprio território, como no conto do escritor argentino Jorge Luís Borges.
Há diferenças na recomendação algorítmica: ela é compulsória, opaca, baseadas em mecanismos que nos envolvem parecendo que são “naturais”. Ela produz a realidade como se não a estivesse produzindo. A recomendação algorítmica funciona fazendo uma projeção do que os sistemas acham que nós somos, nos produzindo de fato e pragmaticamente, baseados em nossas reações recentes na rede.
Paulatinamente vamos ficando presos a uma bolha achando que a bolha é o mundo. Pior, não entendemos exatamente os mecanismos dos algoritmos por trás das nossas telas: o objetivo de quem recomenda é que você fique preso e passe mais tempo na plataforma. No YouTube, por exemplo, 70% do tempo é gasto em vídeos recomendados.
Aparentemente os algoritmos recomendam, mas na realidade estão exercendo uma coerção branda, já que torna invisível outras opções, limitando a nossa capacidade de escolha e de ampliação do nosso conhecimento sobre o mundo. Bom, isso não é total, pois somos erráticos e os algoritmos erram. O erro é aqui o que salva.
Tenho defendido a necessidade de pensarmos formas de inibir a disseminação descriminada de algoritmos de recomendação, ou de torná-los opcional. É fundamental criar mecanismos técnicos e jurídicos para bloquear a expansão desses sistemas de recomendação que ampliam as formas de vigilância e de manipulação das emoções.
Pois bem, li na semana passada um texto informando que a China está fazendo exatamente isso. O país aprovou uma lei no começo de março que permite que, se quiserem, as pessoas não recebem recomendações algorítmicas de plataformas. A lei, visa “regular as atividades de recomendação de algoritmos … proteger os direitos e interesses legítimos dos cidadãos … e promover o desenvolvimento saudável dos serviços de informação da Internet”. O artigo 17 é explícito – “… fornecer aos usuários opções que não sejam adaptadas às suas características pessoais ou fornecer aos usuários uma opção conveniente para desativar o serviço de recomendação algorítmica. …”
Devamos voltar a exercitar a nossa própria busca por recomendações e evitar, ou usar com parcimônia, a recomendação algorítmica. Isso certamente dará um pouco mais de trabalho, mas é o preço para não nos sentirmos manipulados apenas pela lógica comercial das plataformas.
0 comentário