Print Friendly, PDF & Email

Caro Bruno Parodi, não tive como não ler sua matéria “Não Mate o Algorítmo” em alusão à máxima “Não gostou da mensagem, não mate o mensageiro”. Como lhe é peculiar, o texto segue uma narrativa equilibrada, estruturada e bem construída. Confesso que rolou até uma nostalgia dos idos tempos do Flash no final da década de 90.

Achei interessante que você foi lá nos anos 90, buscar o algoritmo como ator proeminente no comércio eletrônico. Eu também gosto de lembrar que Nicolas Negroponte imaginou o “agente inteligente” em 1994, para simplificar as escolhas na gigantesca grade de canais e programas de TV a cabo americana. Tudo que ele queria era melhorar a experiência do usuário.

Por falar em experiência do usuário, fiquei imaginando o seu exemplo de um comércio eletrônico com 15.000 itens, e o usuário perdido nesta montanha de opções, provavelmente ele iria buscar um concorrente que lhe proporcionasse uma experiência melhor. O mesmo se aplica quando os buscadores e as redes sociais servem de curadoria para uma montanha ainda maior de conteúdo como você apontou.

Quando você descreve a missão do algoritmo: Filtrar conteúdo, me lembrei do modelo que foi o ponto de partida para a minha dissertação de mestrado, onde o que você chama de algoritmo, eu descrevo como mediador, na verdade no caso a mediação é algorítmica.

Modelo conceitual, elementos iniciais

No meu modelo eu busquei relacionar o indivíduo com a informação em qualquer contexto, desde a simples conversa entre pares, passando pela informação na mídia e chegando às informações mediadas por algoritmos nas redes sociais. Todos seguem o mesmo modelo, o que muda é eficiência do mediador. E isto fica mais claro no diagrama de Venn que usei para explicar as fake news.

Neste modelo, o mediador passa a ser a esfera verde, que chamo de “Mecanismos de credibilidade e disseminação”. Na verdade o diagrama serve para qualquer relação de troca e aquisição de informação, e não somente fake news.

Assim como na sua matéria, você descreve o algoritmo aprendendo com o indivíduo para lhe oferecer conteúdo sob medida, no nosso diagrama acima, este aprendizado se dá na interseção das bolas verde e azul. A interseção da verde com a marrom, é quando o mediador obtém detalhes da informação, para adequa-la ao indivíduo. Ainda não tenho certeza se existe a interseção entre indivíduo e informação sem mediação, isso dá um longo debate, temos ai mediação subjetiva e capital social.

Achei genial o momento em que descreve as duras verdades, que somos nós que alimentamos estes algoritmos com nossos rastros digitais, e que eles trabalham para nós, comparando nossos perfis com o de outras pessoas, para nos ofertar o que julga nos interessar. Foi exatamente assim que conclui na minha pesquisa, só que um pouco mais detalhado.

Você pontuou a mudança do termos “linha do tempo” para “feed” no Facebook, preciso! Os pesquisadores Vladan Joler e Andrej Petrovski do Share.Lab, fizeram um excelente estudo sobre como este feed funciona, e todo processamento algorítmico do Facebook, é bem complexo, mas tentei resumir neste diagrama, que explico em detalhes neste vídeo.

Concordo plenamente que não se deve matar o algoritmo, e concordo também quando você pontuou que esta discussão é mais ampla, perfeito! Porém, a medida que os algoritmos estão ficando mais complexos e sofisticados, extraindo cada vez mais dados dos usuários, em especial em tempo real, a ponto de obter respostas à estímulos, estão rompendo barreiras sensíveis.

O documentário que você cita sem especificar, tem realmente muitas limitações, direciona o foco para parte do problema, e apresenta parte da solução, e as razões para isso são inúmeras, e explico no vídeo ai de baixo.

Aproveito para apresentar alguns pontos complementares, e obviamente acrescentar mais uma esfera no debate que você iniciou, que como você mesmo disse, é complexo.

Qual o problema com o algoritmo?

Viéses

Um dos problemas com o algoritmo são seus bugs, e na maioria das vezes através de vieses que podem ser inseridos em três momentos: Na codificação, no treinamento e no uso.

A pesquisadora do cabelo azul, a Cathy O’Neil, pontua bem este problema no seu livro “Algoritmos de destruição em massa“. No livro ela cita diversos casos, que produziram erros absurdos como desqualificar professores altamente aptos, ou criar a presunção de culpa em função da região onde o indivíduo mora, e outros.

Os erros podem ser na programação, quando a equipe que está programando presume mais do que pesquisa, ou codifica seus preconceitos. No treinamento, quando a amostragem usada para o treinamento de máquina é homogênea demais.

Li sobre dois casos peculiares: Um software de reconhecimento facial, era incapaz de reconhecer rostos negros, por ter sido treinado somente com pessoas brancas; Outro era um que reconhecia a imagem de cavalos, não pela forma e característica do animal, mas principalmente pela marca de copyright, presente em quase todas as fotos usadas para treinamento.

Por conta disto, há movimentos de organizações da sociedade civil, pelo direito de um julgamento humano, mesmo que seja este um segundo julgamento. Algorítimos decidem quase tudo sobre nossa vida, se seremos admitidos em um processo seletivo, se teremos crédito, se podemos comprar ou alugar um bem, se temos direito a um visto de entrada em outro país, qual caminho devemos fazer para chegar mais rapidamente ao nosso destino, e até mesmo com quem devemos marcar um encontro.

Por trás disto tudo, estamos nós os humanos, seres bípedes, dotados de polegar opositor e um cérebro complexo. E apesar de termos um cérebro complexo, estamos delegando demais para os tais dos algoritmos.

O viés do viés

Atribui o viés ao algoritmo, mas o viés é de fato uma característica intrinsecamente humana, nos enviesamos o algoritmo. Alias este, quando não afetado por nossos vieses e preconceitos, é muito mais eficiente que nós, os humanos, em muitas tarefas.

Leonard Mlodinow, no livro Subliminar, descreve estudos que afirmam que só utilizamos 5% da nossa capacidade cognitiva, os outros 95% ficam no “piloto automático”. Seriam os nosso “algoritmos mentais” os responsáveis por nos manter vivo, e simplificar nossas decisões, é aqui onde quero chegar.

Especialistas chamam de heurísticas a estes atalhos de decisão, que nada mais é que um nome técnico dos vieses. Alias me lembrei do velho Jakob Nielsen que lá no inicio do milênio trouxe as heurísticas para a usabilidade na web, e hoje não há um especialista em UX que não saiba o que é uma heurística, mesmo que Nielsen tenha inventado algumas. Olha como o mundo dá voltas, a experiência do usuário (UX) está aqui de volta, um salve para o Nicolas!

A área que mais estuda as heurísticas depois da psicologia é o mercado financeiro, qualquer curso de investimento em bolsa de valores que se preze aponta dezenas de heurísticas, que afetam nossos julgamentos. Não podemos nos livrar das heurísticas, dependemos delas, sem elas viveríamos o tempo todo tomando decisões, sem tempo para mais nada.

Por exemplo, na heurística da disponibilidade as pessoas julgam com base nas informações mais facilmente disponíveis em suas mentes, da para imaginar como esta pessoa fará seus julgamentos recebendo um grande volume de informações similares.

A heurística da representatividade é determinada pela grande similaridade de um evento específico com a maioria dos outros de uma mesma classe, ou seja, a probabilidade de ocorrência de um evento é avaliada pelo nível no qual ele é similar às principais características do processo ou população a partir do qual ele foi originado.

O viés da confirmação já é um pouco mais popular, o indivíduo tende a aceitar informações que dialoguem com suas crenças, expectativas ou hipóteses, mesmo que sejam informações desprovidas de credibilidade, tende a rejeitar as informações contraditórias com a mesma intensidade.

Existem dezenas de vieses e características cognitivas que afetam o julgamento do indivíduo e seu grupo social, mas para não perde o foco vamos retornar para o algoritmo.

A YouYou Wu e seus colegas do departamento de psicometria da universidade de Cambridge fizeram um estudo que permite, ao analisar meros 300 likes no Facebook, conhecer melhor o indivíduo que seu ou sua parceira de vida (esposa, marido, etc).

Reprodução

Para chegar a este nível de precisão, eles fizeram um teste psicométrico dos cinco fatores (OCEAN) com pouco mais de 80 mil voluntários, que depois permitiram aos pesquisadores conectarem à suas contas no Facebook. Depois de modelar os dados desde voluntários, associando cada página curtida à um percentual de cada um dos fatores do OCEAN, ele criaram um modelo que possibilitou esta análise.

O aplicativo para celular do Facebook, segundo a dupla Vladan Joler e Andrej Petrovski, acessa 43 funções e sensores do seu smartphone, dentre elas seu GPS, giroscópio, acelerômetro, câmera, microfone, agenda de telefone e agenda de compromissos. A quantidade de dados passíveis de serem extraídos é inimaginável, e a possibilidade de modelagem igualmente gigantesca numa rede social com 2,8 bilhões de usuários no planeta.

Esta capacidade das aplicações mediadas por algoritmos tem sido um dos maiores pontos de crítica, Sandra Braman cunhou a expressão Estado Informacional, para descrever este poder. Um poder desproporcional onde estas empresas sabem cada vez mais sobre o indivíduo e estes cada vez menos sobre como estas fazem isto.

A Sandra Braman ainda propõe que o modelo conceitual de vigilância, o panóptico, vigente até o final do século XX, seja substituído pelo panspectron. A grande diferença é que o panóptico foca na vigilância, com base no par ver-ser-visto, onde se presume que esta sendo vigiado, sendo as câmeras seu principal instrumento, sorria você esta sendo filmado… Ja o panspectron não foca em ninguém especificamente, e sim na extração de dados, o máximo possível, e sua resposta se dá quando um padrão ou desvio salta a tela, tendo como seu principal instrumento, todos os sensores de dispositivos tecnológicos.

Escrevi, durante meu mestrado, um artigo sobre a vigilância cega, expressão que descreve bem este cenário, um vigilante muito mais eficaz e que nem precisa ver.

Uma das mais importantes iniciativas para domesticar o algoritmos são as leis de proteção de dados pessoais, a GDPR na Europa e a LGPD no Brasil. Mas elas ainda não resolvem todas as questões, pois segundo a Katarzyna Szymielewicz, existem três camadas de dados, e nos só podemos proteger uma, inclusive pelas legislações de dados pessoais.

O próximo passo está na inadiável regulação das plataformas tecnológicas, sejam elas redes sociais, buscadores e comércio eletrônico, se existe uma mediação algorítmica, é preciso regular.

É uma perspectiva nova, tão complexa como quando tínhamos de explicar coisas de internet na década de 90, novos saberes se tornaram necessários. O mesmo se dá agora, com novos paradigmas, e novos conhecimentos. Foi o que me motivou logo depois do mestrado a criar este blog, e um canal no Youtube, para explicar gota a gota, esta nova visão…

Cá estamos novamente e oportunamente convertendo os iniciados a novos paradigmas tecnológicos.

Um grande abraço.

Bibliografia

BRAMAN, Sandra. Change of State: Information, Policy, and Power. The MIT Press, 2006.

CARIBÉ, J. C. R. Vigilância cega, o que as pegadas digitais podem revelar sobre o indivíduo. In: II Simpósio Internacional Network Science. Rio de Janeiro: [s.n.], 2018. Disponível em: <http://networkscience.com.br/wp-content/uploads/2018/12/IISINS_BigData_Artigo_VigilanciaCega.pdf>.

CARIBÉ, J. C. R. Algoritmização das relações sociais em rede , produção de crença e construção da realidade. 166 p. – Universidade Federal do Rio de Janeiro (UFRJ) / Instituto Brasileiro de Informação em Ciência e Tecnologia (IBICT), 2019. Disponível em: <http://ridi.ibict.br/handle/123456789/1040>.

O’NEIL, C. Weapons of math destruction: How big data increases inequality and threatens democracy. United States: Crown Publishing Group (NY), 2016.

MLODINOW, L. Subliminar: Como o inconsciente influencia nossas vidas. Zahar, 2013. 347 p. ISBN: 9788537810538.

SHARE LAB. Facebook Algorithmic Factory (1,2 e 3). Disponível em: https://labs.rs/en. Acesso em: 10/03/2017.

WU, Youyou; KOSINSKI, Michal; STILLWELL,David. Computer-based personality judgments are more accurate than those made by humans. 2015.


João Carlos Rebello Caribé

Mestre em Ciência da Informação pela UFRJ/PPGCI. Formado em Publicidade e Propaganda pela Estácio de Sá. Membro do Laboratório em Rede de Humanidades Digitais (LarHud) e do Estudos Críticos em Informação, Tecnologia e Organização Social (Escritos).

0 comentário

Deixe uma resposta

O seu endereço de e-mail não será publicado.