Normalmente, costumávamos definir algoritmo com um passo a passo para resolver uma tarefa. No entanto, no início da década de 2010, com a explosão do machine learning (aprendizado de máquina) e o deep learning (redes neurais profundas) —, essas abordagens deixaram de ser passivas.
A partir de 2012, os chamados algoritmos de personalização — filtros digitais que selecionam, organizam e priorizam o conteúdo que acessamos na internet — já não se limitavam a entregar apenas o que o usuário demonstrava gostar e passaram a antecipar o que ele poderia querer, mesmo antes de perceber.
Dessa forma, plataformas como YouTube, Google e Facebook prometem facilitar nossa vida, e juram que os algoritmos democratizam o acesso à informação e nos salvam da sobrecarga informacional. Mas a coisa não é bem assim, alertam pesquisadores das universidades Vanderbilt e Estadual de Ohio (OSU), ambas nos EUA.
Em um estudo recente, publicado na revista Journal of Experimental Psychology, esses autores mostram como os sistemas de recomendação online limitam a diversidade de informações, levando os usuários a generalizações incorretas sobre temas que mal conhecem.
Em outras palavras, esses cientistas demonstraram em laboratório que, quando algoritmos escolhem o que você vê, eles limitam a variedade de informações. Com uma compreensão reduzida da realidade, você aplica esse conhecimento distorcido em situações novas, e acredita que domina o assunto, mesmo tendo um conhecimento superficial e enviesado.
Testando a ação dos algoritmos na aprendizagem
A pesquisa revelou que, embora algoritmos personalizados limitem o que as pessoas veem, elas ainda conseguem formar generalizações amplas. O problema, explica o pesquisador sênior Brandon Turner, da OSU, não está somente nas nas informações perdidas, mas sim no fato de os usuários não perceberam essas partes que ficaram de fora.
“As pessoas perdem informações quando seguem um algoritmo, mas acham que o que sabem se generaliza para outras características e partes do ambiente que nunca experimentaram”, afirma Turner em um comunicado. Ou seja, uma população de pessoas com conhecimentos limitados, mas excessivamente confiantes.
Para ilustrar o fenômeno, os autores usam um exemplo muito concreto e ilustrativo logo no início do artigo: o de um espectador que nunca assistiu filmes de determinado país e quer experimentá-los. Para isso, ele usa um serviço de streaming que utiliza algoritmo de personalização.
Inicialmente, o serviço recomendará alguns filmes populares, entre os quais a pessoa escolherá — por puro acaso — um filme de ação/thriller, ao qual assiste e gosta. O algoritmo então detecta que pessoas que assistiram esse mesmo filme assistiram principalmente gêneros similares, como ação, thriller e neo-noir.
A lista de recomendações para esse aprendiz de cinéfilo ficará cheia de mais filmes desses mesmos gêneros. Portanto, se o seu objetivo era só encontrar algo que gostasse, o algoritmo cumpriu seu papel, mas, se o objetivo era entender a cinematografia daquele país, o algoritmo criou um viés seríssimo.
Embora satisfeita, a pessoa terá perdido ótimos filmes de diferentes gêneros e, o que é pior, desenvolverá o que os autores chamam de uma inferência injustificada e exagerada sobre a cultura popular e a sociedade do país. Algo como: por que as pessoas do país tal gostam tanto de filmes neo-noir e de crime?
Conhecimento limitado e confiança alta: uma combinação perigosa

Para testar como essas curadorias de conteúdo podem interferir na forma como as pessoas aprendem, os autores realizaram um experimento online com 346 participantes. A proposta era que eles aprendessem a classificar “alienígenas fictícios” com diferentes características.
Divididos em dois grupos, os participantes foram expostos a diferentes estímulos. Um grupo em que os alienígenas foram escolhidos por um algoritmo de filtragem colaborativa (parecido com o do YouTube) e outro no qual os aliens eram apresentados de forma aleatória, sem personalização.
Os participantes que receberam sequências personalizadas acabaram prestando atenção só a algumas partes dos alienígenas e ignorando o resto. Ou seja, aprenderam de modo distorcido e, mesmo entendendo pouco, ficaram muito confiantes nas suas respostas erradas, inclusive sobre categorias que quase não tinham visto.
Apesar de simples, essa lógica é perversa e preocupante, pois esses algoritmos são feitos para maximizar o consumo de conteúdo e aumentar visualizações, cliques e interações. Para isso, eles identificam padrões de comportamento e passam a recomendar conteúdos semelhantes aos já consumidos, o que reduz a diversidade de estímulos.
No mundo real, quando crianças em fase de aprendizagem ficam expostas a algoritmos online, que priorizam apenas parte do conteúdo, o que pode acontecer? — pergunta Turner. E conclui: “Consumir conteúdo semelhante muitas vezes não está alinhado com o aprendizado. Isso pode causar problemas para os usuários e, em última instância, para a sociedade”.
Fonte: CNN BRASIL