Instagram parece ser un caldo de cultivo para fomentar la pedofilia, o al menos eso es lo que detectaron investigadores al analizar el algoritmo de la red de Meta.
Según investigadores de The Wall Street Journal, la Universidad de Stanford y Universidad de Massachusetts Amherst, el algoritmo de Instagram conecta a comunidades de pedofilia.
Indican que la plataforma conecta a los pedófilos con los vendedores de contenido a través de un sistema de recomendación.
Describen que este nicho permite a las personas buscar hashtags explícitos. Luego los conecta con cuentas que usan los términos para promocionar «material de sexo infantil para la venta».
Explican que en lugar de publicar abiertamente material sexual ilícito, las cuentas de Instagram que ofrecen dicho contenido a menudo publican «menús» que invitan a los compradores a encargar actos específicos, incluidos videos de niños que se lastiman a sí mismos, entre otros.
A su vez, señalan que los compradores y vendedores de contenido sexual para menores de edad fomentan las publicaciones de contenido infantil sexualizado en Instagram. Además, que otras cuentas de Instagram recopilan memes a favor de la pedofilia o hablan sobre su acceso a los niños
With blatant hashtags, a pedophile network has flourished on Instagram. The platform doesn’t merely host these activities. Its algorithms have actively promoted them. https://t.co/3JIsDgOOMm
— The Wall Street Journal (@WSJ) June 7, 2023
Meta intenta mejorar seguridad
Por su parte, Meta se defiende, y señala que está mejorando sus sistemas de seguridad en sus plataformas, para evitar se cuelen este tipo de contenidos.
En este sentido, Meta señaló que han desmantelado 27 redes de pedófilos en los últimos dos años. Pero sobre todo está contrarrestando que sus sistemas recomienden que las cuentas potencialmente pedófilas se conecten o interactúen con el contenido de los demás.
Igualmente, el estudio reveló que en enero, Meta eliminó 490 mil cuentas por violar sus políticas de seguridad infantil.