Creíamos saber el culpable de casos como el de Torre Pacheco. Un insólito estudio ha hecho los cálculos analizando las redes

Creíamos saber el culpable de casos como el de Torre Pacheco. Un insólito estudio ha hecho los cálculos analizando las redes

  • Estudios recientes investigan el papel de redes como YouTube o TikTok en los discursos de odio

  • La Universidad de Valencia descubrió que los menores se llevan la peor parte

24 comentarios Facebook Twitter Flipboard E-mail
Manifestacion
ruben-marquez

Rubén Márquez

Editor - Trivia
ruben-marquez

Rubén Márquez

Editor - Trivia

Lo ocurrido durante los últimos días en Torre Pacheco ha vuelto a poner sobre la mesa un debate que está lejos de tener ya no un final feliz, sino un final en el horizonte: el de cómo los discursos de odio crecen en redes hasta dar forma a turbas enfurecidas como la de Murcia, pero también las vividas a lo largo y ancho de Europa en países como Dublín o Italia.

Con la explosión de Torre Pacheco atribuida a un vídeo que ni siquiera pertenecía al caso, la idea de ver a redes como Instagram, TikTok o YouTube convertidas en el caldo de cultivo perfecto para estos episodios de violencia parece cada vez más factible, así que no son pocos los estudios que, en busca de cifras palpables a las que agarrarse, se han asomado a ese pozo.

YouTube cree tener la lección aprendida

Sorprendentemente, un estudio a medio camino entre la Universidad de Cornell y la universidad de Arkansas, se detuvo a analizar con qué frecuencia los shorts de YouTube empujaban al usuario hacia contenidos políticos o problemáticos si la búsqueda inicial se relacionaba precisamente con ese tipo de interés.

Tras analizar los 50 vídeos siguientes a un total de casi 3.000 búsquedas iniciales sobre temas controvertidos, la investigación que resultó en la visualización de cerca de 700.000 shorts concluyó que, en realidad, a Google y a YouTube no le interesa lo más mínimo dejarte en ese círculo, y que tan pronto como puede, sin importar si has pasado 3 segundos, 15 o has visto el vídeo completo, te empuja hacia otro tipo de contenido.

Tal y como recoge el estudio, "Lo que YouTube está tratando de hacer es sacarte de esa área o tema, y empujarte algo más feliz y entretenido para que pueda aumentar el tiempo de visionado y ganar más dinero". Es decir, que puedes empezar buscando formas de alimentar esos mismos discursos de odio, pero tarde o temprano te llevará hacia vídeos más neutrales para favorecer que sigas ahí sin arriesgarse a llegar a un punto de conflicto entre tus ideales y los que pueden terminarse mostrando.

Lejos de querer imponer uno u otro discurso o planteamiento político, YouTube se la juega apostando por una neutralidad lo más aséptica posible que terminar retroalimentando lo que ya tiene éxito en la plataforma. Si apunta a vídeos con más visualizaciones, likes y comentarios en favor de otros, aunque hayas empezado en el carril de shorts con otra búsqueda, es precisamente porque saben que son los que mejor funciona para que no abandones su red. El problema, en cualquier caso, es hasta qué punto esos vídeos favoritos son manipulables.

La Universidad de Valencia demostró que no siempre es así

Con la Universidad de Dublín y la de Valencia a la cabeza, otro estudio enfocaba el problema con las redes actuales desde otra perspectiva: hasta qué punto las redes de seguridad de dichas plataformas salvaguardan lo que podría llegar a ver un crío de 13 años. De la mano de cuentas experimentales en las que se hacían pasar por un adolescente, los 3.000 vídeos que terminaron viendo a través del estudio distaban mucho de lo que se consideraría ideal para ellos.

De forma inesperada, lo que descubrieron es que los menores tardaban mucho menos en toparse con vídeos dañinos que las cuentas para mayores de 18 años, y sólo en el caso del scroll en base a búsquedas, en vez de ir saltando de forma pasiva de uno a otro según lo que te recomiendan las plataformas, YouTube conseguía evitar, por muy poco, quedarse por detrás.

En busca de esa monitorización de los discursos de odio, entre los vídeos mostrados había más de temas sensibles y maduros, pero no evitaban girar en torno a clips de humor racial, retos de parejas, peleas escolares, podcasts con comentarios sexistas, accidentes de tráfico y bailes con ropa sugerente. En la comparativa entre plataformas, Instagram y YouTube se llevaban la peor parte.

En el primer caso el 5% de los vídeos mostrados se acercaban de una forma u otra a lo que entendemos por un discurso de odio, quedando entre el 1 y el 1,67% en el resto de plataformas y tipos de scroll (pasivo o posterior a búsqueda). En el caso de temas sensibles o maduros, YouTube sumaba otro 5% de contenidos seguido muy de cerca por TikTok e Instagram. Tal y como recoge el estudio, e invita mucho a pensar en cómo lo de ese final feliz ni se plantea hasta que alguien se asome realmente a la moderación de contenido, a un niño de 13 años le bastan 3 minutos y 6 segundos en YouTube, y 3  minutos y 49 segundos en TikTok, para tropezar con su primer vídeo dañino.

Imagen | Clem  Onojeghuo

En 3DJuegos | YouTube ha explicado por qué paga tanto dinero a los creadores de contenido. La clave está en una marca de café

En 3DJuegos | Gana más de 150.000 euros trabajando en remoto en secreto en dos sitios a la vez, y dice que sacó la idea de un vídeo de YouTube sobre el teletrabajo

VÍDEO ESPECIAL

50.925 visualizaciones

Estos han sido los MEJORES JUEGOS del AÑO - RESUMEN de la gala PREMIOS 3DJUEGOS LENOVO 2025

Otro año más 3DJuegos ha celebrado la entrega de premios a los mejores juegos de 2025.Una gala llena de referentes como Sandfall Interactive, las mentes tras Clair Obscure: Expedition 33; la streamer Abby; Christian Gálvez o nuestro premio 3DJuegos Legado, Charles Cecil, desar...