El impacto del escándalo de Cambridge Analytica aún sigue vivo en Facebook, por eso la compañía de Mark Zuckerberg aprovecha toda oportunidad posible para transmitir mayor confianza en sus usuarios, y ahora tocó el turno de hacer referencia a la inteligencia artificial y la moderación de contenidos en la red social.
El tema es importante, desde hace casi dos años cuestiones como contenido sexual, que promueve mensajes de odio, suicidios, promoción de drogas y fraudes en las plataformas sociales ha sido motivo de debate y cuestionamiento a las principales plataformas (FB, Twitter, Google, Instagram).
Sin duda, el impacto de Facebook es por demás notable, cuenta más de 2 mil millones de usuarios en todo el mundo e ingresos superiores a los 40 mil 650 millones de dólares, de los cuales más de 39 mil millones son por concepto de publicidad. Por tanto, es objeto de cuestionamientos respecto a la moderación de contenidos.
De hecho, este fue uno de los temas que más se le reviró a Zuckerberg durante su audiencia ante legisladores de Estados Unidos. Su respuesta fue clara, además de reforzar a su escuadrón de monitores, siempre sostuvo que el uso de la inteligencia artificial es fundamental para estas tareas.
Esto se volvió a sostener ayer, durante la F8, evento organizado por Facebook anualmente en el que da a conocer sus principales novedades y en qué tecnologías va a centrarse la red social corto y mediano plazo.
Y, este día, Guy Rosen, Vicepresidente de Gestión de Productos lo volvió a explicar en una publicación en el blog oficial de la compañía. Aquí los puntos que debes tener presentes sobre las novedades en su sistema de contenido inapropiado con la ayuda de la inteligencia artificial:
Las herramientas de inteligencia artificial ayudan en siete áreas: desnudos, violencia gráfica, contenido terrorista, discurso del odio, spam, cuentas falsas y prevención de suicidios.
- Desnudos y violencia gráfica: Están implementando mejoras en la visión computacional para eliminar ambos tipos de contenidos de forma proactiva, es decir, antes que sean denunciados por otros usuarios. Esto a través de un sosoftware que está entrenado para identificar ciertos elementos presentes en una imagen; de tal forma, a veces se elimina, y en otras se pone una pantalla de advertencia.
O - Discurso de odio: Dede Facebook se reconoce que para comprender este tipo de contenidos muchas veces se requiere ojos humanos, dado sus matices sociales y discursivos, pero los monitores son apoyados por la tecnología que sirve para detectar de manera proactiva algo que pueda violar las políticas de la red social: ciertos idiomas, como inglés y portugués, por ejemplo. Al final, el objetivo sigue siendo el mismo, “llegar a esta clase de contenido antes de que alguien lo vea”.
O - Cuentas falsas: Se usa la inteligencia artificial para detectar cuentas vinculadas a estafas financieras, así como para prevenir daños y combatir prácticas como el spam, las fake news, la desinformación y anuncios inapropiados.
O - Spam: La gran mayoría de nuestro trabajo para combatir el spam se realiza automáticamente mediante patrones reconocibles de comportamiento problemático.
O - Propaganda terrorista: Se usa la inteligencia artificial para eliminar la mayoría de este contenido de manera automática, sin la necesidad de que alguien lo reporte primero.
O - Prevención del suicidio: Con ayuda de la IA, se identifican de manera proactiva las publicaciones que pueden manifestar que las personas están en riesgo para que puedan obtener ayuda.