El lado oscuro de Instagram: una investigación reveló cómo sus algoritmos de recomendación promueven la pedofilia

El lado oscuro de Instagram: una investigación reveló cómo sus algoritmos de recomendación promueven la pedofilia

El lado oscuro de Instagram: una investigación reveló cómo sus algoritmos de recomendación promueven la pedofilia. (REUTERS)

 

 

 





 

Un estudio del diario The Wall Street Journal y de la Universidad de Stanford y de Massachusetts Amherst aseguró que la red social permitía la búsqueda de etiquetas explícitas y de emoticones que conectaban a los usuarios a la venta de material sexual infantil.

Por infobae.com

El algoritmo de Instagram ayuda a conectar y promover una vasta red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, así lo asegura una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y de la Universidad Massachusetts Amherst.

Instagram, la red social más popular entre adolescentes, no sólo aloja estas actividades, sino que sus algoritmos las promueven, de acuerdo con la investigación.

Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.

Según el análisis del WSJ, más del 90% de las cuentas que venden material ilegal están conectadas entre sí a través de estas recomendaciones. Además, el 75% de estas cuentas también siguen o son seguidas por usuarios que publican imágenes o videos sexualmente explícitos de niños o adolescentes.

Los investigadores descubrieron que Instagram -que tiene más de 1.300 millones de usuarios- permitía a las personas buscar etiquetas explícitas y en ocasiones hasta emoticones que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y “reuniones” con menores.

Los que están detrás de las cuentas de esta red social que venden material sexual ilícito no lo hacen de forma abierta, sino que ofrecen “menús” de contenido. Algunos de esos usuarios permiten a los compradores pedir “actos específicos”, señala la investigación. Entre los menús se encuentran precios de videos de niños que se autolesionan e “imágenes del menor practicando actos sexuales con animales”, afirmó el Observatorio de Internet de Stanford.

Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.
Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.

“El problema de Instagram se reduce a las funciones de descubrimiento de contenido, las formas en que se recomiendan los temas y cuánto depende la plataforma de la búsqueda y los enlaces entre cuentas”, indicó David Thiel, tecnólogo jefe de Stanford.

De acuerdo con el WSJ, Instagram ha permitido a los usuarios buscar términos que sus propios algoritmos saben que pueden estar asociados con material ilegal. En tales casos, una pantalla emergente para los usuarios advierte que “estos resultados pueden contener imágenes de abuso sexual infantil”, y señala que la producción y el consumo de dicho material causa “daño extremo” a los niños. La pantalla ofrecía dos opciones : “Obtener recursos” y “Ver resultados de todos modos”.

Ante la insistencia del diario estadounidense a este fallo de seguridad de la red social, Instagram eliminó la opción para que los usuarios vean los resultados de búsqueda de términos que probablemente produzcan imágenes ilegales. La compañía se negó a decir por qué había ofrecido la opción.

La promoción de contenido sexual de menores viola las reglas establecidas por Meta, así como las leyes de EEUU.

Meta reconoció los problemas dentro de sus operaciones de cumplimiento y le aseguró al WSJ que estableció un grupo de trabajo interno para abordar los problemas planteados.

La explotación infantil es un crimen horrible”, indicó la compañía, y agregó que está “investigando continuamente formas de defenderse activamente contra este comportamiento”.

Sin embargo, Instagram también admitió que sus sistemas no son perfectos y que dependen en gran medida de las denuncias de los usuarios para actuar.

Meta -que cuenta con más de 3.000 millones de usuarios en sus aplicaciones, que incluyen Instagram, Facebook y WhatsApp– aseguró que en los últimos dos años eliminó 27 redes de pedófilos.

Lea nota completa Aquí