Una reciente investigación conjunta de The Wall Street Journal y diversos académicos ha revelado que el algoritmo de Instagram promueve cuentas que comparten material de abusos sexuales a menores. Dicha revelación, recogida por el portal The Verge, ahonda en cómo el sistema de recomendación de la plataforma de Meta da relevancia a redes de pedófilos que encargan y venden contenido de este tipo. Así, a través de distintos hashtags que Meta se ha comprometido a eliminar, estas organizaciones difunden contenido explícito de menores sin que la red social interfiera por completo al respecto.
Según los datos del informe, solo en enero Meta eliminó 490.000 cuentas que violaban las políticas de seguridad infantil, una cifra a la que hay que sumar las 27 redes de pedofilia que la compañía ha tumbado en los últimos dos años. Además, también se reveló que la empresa ha bloqueado miles de hashtags relacionados con la sexualización de los menores y, además, también ha restringido estos términos de las búsquedas de los usuarios. Sin embargo, Alex Stamos, uno de los académicos que formó parte de la investigación, reveló que “encontrar una red tan enorme” con acceso limitado a la red social debería ser algo que hiciera “saltar las alarmas en Meta”.
Las prácticas de moderación de Instagram no combaten el abuso infantil
A la gravedad del asunto relacionado con el algoritmo hay que sumarle lo ineficaces que pueden llegar a ser las denuncias a material de abuso infantil. Al ser un proceso automatizado y no supervisado en su mayoría por humanos, en multitud de ocasiones los informes que avisaban de este tipo de contenido eran rechazados o ignorados. En relación a esto, Meta aseguró que su intención es revisar sus procesos internos para comprobar qué ha fallado y actuar en consecuencia. Para los responsables del informe, una de las prácticas obligatorias que debería llevar a cabo Meta es contratar más personal humano que revise este tipo de situaciones.
Aunque Instagram ha sido la plataforma más señalada, el estudio destaca que no es la única con presencia de pedófilos. Según relatan, en Twitter encontraron hasta 128 cuentas que intentan vender material de abuso sexual infantil, una cifra que corresponde a “un tercio menos” que lo encontrado en Instagram. Además, relevaron que plataformas como TikTok o Snapchat no parecen estar afectadas por esta situación, una condición a la que añadieron que los responsables deben trabajar para “poner barreras” que eviten que estas prácticas sigan creciendo.
En 3DJuegos | Shadow ban en redes sociales: Qué es y cómo evitar que tus publicaciones pierdan repercusión
En 3DJuegos | Una ciudad europea prohíbe los móviles a los menores de 13 años con la intención de estudiar el impacto de esta decisión
Ver 4 comentarios