La publicación de imágenes con contenido sexual como forma de venganza hacia otros usuarios es uno de los tantos problemas a los que se está enfrentando Facebook. Lo que hará, según anunció su jefe de Seguridad Global, Antigone Davis, a través del la Inteligencia Artificial (IA).
Según comentaba en su blog Davis, la red social trabaja en la detección de este tipo de contenido a través del la IA y el machine learning. El objetivo es hallar las imágenes y videos para retirarlas incluso antes de que existan denuncias.
La información ha sido dada a conocer sin aportar mayores detalles de cómo funciona. Lo que si han explicado es que se usarán el ‘machine learning’ y la inteligencia artificial para “detectar de forma proactiva imágenes cercanas al desnudo o vídeos que se comparten sin permiso”.
Según explican desde la plataforma, lo complicado de este tipo de acoso cibernético reside en que en muchas ocasiones las víctimas no se atreven a denunciar. Incluso hay quienes no están al tanto de la situación y no saben que ese contenido privado está publicado.
De allí la idea de eliminarlo lo antes posible y evitar más consecuencias desagradables para las víctimas.
La herramienta propuesta, marcaría como negativo el contenido sexual publicado, una vez identificado y luego éste será revisado por personal especializado.
Una vez que se compruebe que no cumple con las reglas se eliminará y la cuenta del usuario que lo publicó será desactivada, en la gran mayoría de los casos como señalan desde el blog.
Para ayudar a las víctimas
Como parte esta estrategia de la lucha contra el porno de la venganza, se ha anunciado la expansión de un programa piloto en varios países en los próximos meses.
Existe desde 2017 y busca ayudar a los usuarios a evitar convertirse en víctimas de este tipo de agresiones online.
El propósito es que quienes crean que algún contenido privado podría ser usado para extorsionarles o ser parte del porno de venganza, puedan enviar la imagen que podrían usar para ello.
La reciben asociaciones que trabajan para la plataforma y que de forma conjunta logran que después de ‘reconocer’ la imagen se le asigne un código de identificación para que no pueda ser publicada. Se trata de almacenar este identificador, no la imagen.
Adicional a esto, según explicó Davis que lo que ya es una realidad para los usuarios afectados es una plataforma llamada “no sin mi consentimiento”.
Su objetivo es prestar apoyo a las víctimas durante el proceso de denuncia, para evitar la sensación de desamparo, el desconocimiento y falta de asistencia a la que se enfrentan en muchas ocasiones.