-
En todo el mundo, 1 de cada 3 usuarios de Internet es un niño.
-
Cinco de cada 10 niños creen que sus amigos tienen conductas peligrosas cuando navegan por la Red.
-
Ocho de cada 10 adolescentes de 18 años piensan que ellos, corren peligro de sufrir abusos sexuales por Internet.
Las redes sociales se han convertido en la mejor herramienta actualmente, pero muchas veces estos espacios pueden ser parte de algunos casos de violencia si no son bien usadas por las personas. Ante eso, Meta, la casa matriz de Instagram, y Facebook anuncio que las dos plataformas buscan atacar el abuso infantil en redes con una nueva herramienta.
De acuerdo a datos de Unicef, ocho de cada 10 adolescentes de 18 años piensan que ellos, y otros niños más pequeños que ellos, corren peligro de sufrir abusos sexuales por Internet. Además, 5 de cada 10 creen que sus amigos tienen conductas peligrosas cuando navegan por la Red.
Asimismo, según datos de la misma fuente, un 67 por ciento de las niñas encuestadas estaban de acuerdo en que se sentirían muy preocupadas si recibieron comentarios sexuales en la Red, en comparación con un 47 por ciento de los niños.
Por su parte, un sondeo de la Asociación Valenciana de Consumidores y Usuarios (AVACU) reveló que casi el 100 por ciento de los jóvenes de 19 a 21 años tienen alguna cuenta en redes sociales, porcentaje que se sitúa en el 68 por ciento en el caso de los niños de 10 a 12.
Meta contra el abuso infantil en redes
Entre los últimos movimientos de Meta, la empresa matriz de Instagram y Facebook, anunció la iniciativa Take It Down, que está creando una base de datos en asociación con el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) que permitirá a los usuarios enviar una “huella digital” de material de abuso infantil conocido, un código numérico relacionado con una imagen o video en lugar del archivo en sí.
De acuerdo a la compañía tecnológica, el código será almacenado e implementado por otras plataformas participantes para detectar signos de la misma imagen o video que se comparte en otros sitios en línea.
Con esta nueva asociación, la compañía quiere fundar “una nueva plataforma diseñada para evitar de manera proactiva que las imágenes íntimas de los jóvenes se difundan en línea”.
Como también, la iniciativa busca atacar el abuso infantil en redes sociales utilizando valores hash de imágenes CSAM para detectar y eliminar copias que potencialmente se comparten en plataformas de redes sociales, ya sea de Meta o de otros sitios.
Recordemos que Facebook e Instagram ya eliminan las imágenes pornográficas, y la iniciativa abre el sistema a otras empresas tecnológicas que deseen hacer lo mismo con sus aplicaciones.
En la iniciativa participan sitios orientados a la pornografía y videos como Pornhub y Onlyfans, al igual que la red social francesa Yubo.
“La gente puede ir a TakeItDown.NCMEC.org y seguir las instrucciones para enviar un caso que buscará proactivamente sus imágenes íntimas en las aplicaciones participantes”, se lee en el comunicado de prensa de Meta.
En ese sentido, hash funciona esencialmente como una “huella digital” de números únicos asignados a cada imagen o vídeo. Donde, los usuarios menores de edad que deseen que se elimine una imagen de sí mismos desnudos o parcialmente desnudos de las plataformas pueden enviar el archivo a Take It Down, que luego almacenará el hash asociado con el archivo en una base de datos.
Esta función llega cuando las plataformas de redes sociales luchan por reprimir un aumento en el material de abuso infantil detectado en línea.
Ahora lee:
Empleada bloquea a su jefe cuando termina jornada laboral; se viraliza por “poner límites”
Decretan cuarentena en Aguascalientes por brote de influenza aviar
La Inteligencia artificial (I.A.) nuestro peor enemigo en el futuro