De acordo com um novo estudo, são necessários, em média, 23 a 26 minutos de visionamento de vídeos para que o TikTok e o YouTube Shorts recomendem conteúdos tóxicos ou misóginos às contas de homens jovens.
O estudo da Universidade da Cidade de Dublin seguiu o conteúdo recomendado a 10 contas "sockpuppet" do TikTok e do YouTube Short criadas pelos investigadores em novos smartphones.
As contas foram todas direcionadas para mostrar os interesses de pesquisa de rapazes de 16 e 18 anos, quer com conteúdos regulares, como desporto ou jogos de vídeo, quer para replicar aqueles que procuram propositadamente conteúdos misóginos em linha.
A investigação revelou que foram necessários cerca de 23 minutos de visualização de vídeos no TikTok e no YouTube Shorts para que os algoritmos começassem a recomendar conteúdos "tóxicos" e 26 minutos para recomendar conteúdos "manfluencer" (influenciadores masculinos) nas diferentes contas.
Os vídeos recomendados podiam, por vezes, surgir logo após dois minutos de visualização no YouTube Shorts e 10 minutos no TikTok para as contas que demonstravam algum interesse em saber mais sobre manfluencers - vídeos que são amplamente considerados como promotores de ideias alfa masculinas e anti-feministas.
"As conclusões deste relatório apontam para questões urgentes e preocupantes para pais, professores, decisores políticos e para a sociedade em geral", lê-se no relatório.
"Monetização da insegurança masculina"
Os investigadores viram quase 29 horas de vídeo ao longo das 10 contas para analisar o conteúdo dos vídeos que estavam a ser recomendados.
As conclusões indicam que a grande maioria dos conteúdos sugeridos após duas a três horas, ou 400 vídeos vistos, era problemática ou tóxica.
Uma vez que um vídeo de um manfluencer foi recomendado e depois visto pela conta de um jovem do sexo masculino, tornou-se muito mais provável que fosse recomendado.
O relatório identificou três temas principais destes vídeos de influenciadores: narrativas de crise, como a masculinidade e a "família nuclear" que estão sob ameaça; vídeos motivacionais que convencem os homens de que sentir emoções ou depressão pode ser castrador; ou vídeos de ciência de género desmascarados que mostram conceitos da psicologia evolutiva de que homens e mulheres estão "programados" para papéis de género diferentes.
O estudo sugere que existe também uma ligação entre os vídeos de influenciadores masculinos e os conteúdos de conspiração de direita: 13% de todo o conteúdo recomendado no TikTok e 5% no YouTube para estas contas incluíam estes conceitos.
"Esta monetização da insegurança masculina não só serve para integrar a ideologia anti-feminista e anti-LGBTQ, como também pode funcionar como uma porta de entrada para a extrema-direita e outras visões extremas do mundo", lê-se no relatório.
Uma das limitações do estudo, prossegue o relatório, é a falta de transparência das empresas de redes sociais sobre o funcionamento dos seus algoritmos.
Isto significa que lhes falta informação crítica sobre a forma como as plataformas criam sugestões de conteúdos personalizados com base no seu histórico de visualizações anteriores.
Estudo não "reflete" a experiência do utilizador do TikTok
O YouTube Shorts foi a plataforma que apresentou a maior quantidade de "conteúdo tóxico", com cerca de 61% em comparação com 34% das recomendações do TikTok.
A plataforma também forneceu mais conteúdo tóxico a contas curiosas por influenciadores do que a contas que procuravam tópicos "genéricos".
O YouTube não respondeu a um pedido de comentário.
O TikTok afirmou, num comunicado enviado por correio eletrónico, que o relatório da Universidade da Cidade de Dublin não reflete a forma como a sua base de utilizadores experimenta os vídeos na sua plataforma. O comunicado refere ainda que o tamanho da amostra do estudo é extremamente limitado, tanto no que respeita ao número de contas utilizadas como à quantidade de vídeos visualizados.
Dizem que o conteúdo tóxico representa 34,7% do que os utilizadores vêem nos seus feeds.
O TikTok afirma ainda que não permite discursos de ódio, como a misoginia e a transfobia, na sua plataforma e remove conteúdos que violem as diretrizes da comunidade.
"Se tivermos conhecimento de que um ator deste tipo pode estar na nossa plataforma, procederemos a uma análise exaustiva - incluindo o comportamento fora da plataforma - que poderá resultar na proibição da conta", lê-se na página onde estão descritas as diretrizes da comunidade do TikTok.
A empresa diz que faz o mesmo com os vídeos recomendados no feed "For You", onde o sistema de recomendação substituirá conteúdos menos semelhantes no feed de uma pessoa se achar que dois vídeos são demasiado semelhantes.
É necessária uma moderação de conteúdos baseada em contas
O relatório destaca algumas recomendações fundamentais para as escolas, os pais e as empresas de redes sociais.
Sugere que as empresas de redes sociais não se limitem a moderar os conteúdos com base nos vídeos, mas que também regulem o que as contas podem publicar.
A Irlanda tem um novo regulador dos meios de comunicação social, chamado Coimisiún na Meán, com o qual o relatório sugere que as empresas de redes sociais trabalhem para "chamar a atenção para os conteúdos ilegais, nocivos e limítrofes".
No que respeita às escolas, o relatório sugere que se dê prioridade à promoção de modelos masculinos positivos nas salas de aula, como forma de "promover uma resposta educativa e não punitiva aos comportamentos dos rapazes". Sugere também que as escolas se concentrem na promoção de competências críticas de literacia digital.
Os pais podem também iniciar discussões com os seus filhos adolescentes para compreenderem por que razão idealizam determinados influenciadores e incentivá-los a "envolverem-se em recursos relacionáveis".
O TikTok afirmou na sua declaração que dispõe de recursos parentais para ajudar nessas conversas.