La intención de esta nueva serie de herramienta no es otra más que ayudar a los más de 70 millones de personas que dirigen y moderan grupos en la plataforma, pues de acuerdo con Facebook, de sus 2.850 millones de usuarios mensuales, más de 1.800 millones participan en alguno de las decenas de millones de grupos activos cada mes.
La AI decidirá cuando deberá enviar a los administradores lo que la empresa determina como “alertas de conflicto”, ya sea porque se considere “polémica” o “insalubre”, lo que sin duda podrá filtrar el contenido que los usuarios pueden ver, así como limpiar a comunidad en las redes sociales que se volvieron masivas a tal grado que un contado grupo de administradores no pueden controlarlo.
Los errores dentro de la tecnología
A pesar de que desde hace algún tiempo se hace uso de la AI dentro de la aplicación, esta puede fallar al no entrenarse de forma correcta, pues solo comprende lo que ve, pero no entiende el contexto ni la sutileza del asunto, por lo que en muchas ocasiones llegan a sancionar a los usuarios por hacer uso de determinados términos que para la AI incitan al odio.
Y es que desde hace varios años, las redes sociales comenzaron a buscar regular los contenidos que se comparten dentro de sus plataformas, por lo que Facebook y Twitter hacen que la inteligencia artificial sea clave para determinar que se está viendo en línea, para detectar y eliminar el discurso de odio en sus timelines.
Por desgracia, no hay una solución realmente fácil para Facebook y sus rivales. De acuerdo con UNIA, todavía hay mucha dependencia de la tarea de los mismos usuarios para reportar contenidos de odio. El Consejo Europeo, también hay mucho debate en lo que significa con exactitud el hate speech, algo crucial para poder aplicar las reglas de forma justa y eficaz. Y según STOMP Out Bullying, la única, mejor solución, es usar un discurso que lo contraataque.
Cómo funcionará AI
De acuerdo con un portavoz de Facebook, la AI enviará las señales de la conversación para determinar cuándo enviar una alerta, tales como los tiempos de respuesta a los comentarios y el volumen de comentarios en una publicación, además de que algunos administradores ya tienen configuradas alertas de palabras clave que pueden detectar temas que también pueden dar lugar a discusiones.
Al recibir la alerta, el administrador podrá tomar acciones que, según Facebook, tienen como objetivo ralentizar las conversaciones, con la esperanza de calmar a los usuarios, ya sea limitando la frecuencia con las que algunos miembros del grupo pueden publicar comentarios y determinar la rapidez con la que se pueden hacer comentarios en publicaciones individuales.
Para llegar a esto se utilizaron capturas de pantalla de un argumento simulado de Facebook en un grupo llamado “Otros cachorros de la gente”, donde un usuario responde a la publicación de otro escribiendo: “Cállate, eres tan tonto. Detente hablando de ALIMENTOS ORGÁNICOS idiota !!! ” “¡IDIOTAS!” responde otro usuario en el ejemplo. “¡Si estas tonterías siguen sucediendo, me voy del grupo!”
En esta situación la conversación aparece en una pantalla con las palabras “Alertas de moderación” en la parte superior, debajo de las cuales aparecen varias palabras en letra negra dentro de burbujas grises. A la derecha, la palabra “Conflicto” aparece en azul, en una burbuja azul.
Además, se adjuntará algunos tips para responder a una conversación acalorada sobre el tema, además de poder limitar a un miembro a publicar conforme así se decida dentro de las publicaciones grupales para el Día siguiente.