-Twitter, como varias redes sociales, tiene que fortalecer sus políticas para detectar y erradicar los discursos de odio en su plataforma.
-El algoritmo detecta palabras consideradas ofensivas y las utiliza como muestras para crear su propio modelo de clasificación.
-El sistema ha demostrado tener la capacidad de detectar mensajes misóginos en Twitter con un 75% de precisión.
Dentro de los grandes retos que tienen las redes sociales se encuentra el de la lucha contra los discursos de odio, algo que cada vez ha proliferado más de parte de grupos extremistas que no dudan en verter odio y rencor ante grupos que consideran “inferiores” en medios como Facebook y otras redes sociales importantes. Por ello es que las mismas se encuentran buscando y afinando la mejor manera de frenar estos discursos que no pueden tener cabida en ningún nivel de la sociedad. Una de las que mayor interés ha mostrado en lo anterior es Twitter. Por ello resalta lo hecho por un grupo de, quienes han desarrollado un algoritmo que detecta contenido misógino en Twitter.
¿Cómo lo hicieron?
De acuerdo con información del medio The Next Web, primero extrajeron un millón de tweets y refinaron las publicaciones hasta hallar tres palabras clave considerado como lenguaje misógino: puta, mujerzuela y violación. Después categorizaron los 5 mil tweets que tenían las palabras clave según su contexto e intención. El siguiente paso fue enviar la información a un clasificador de aprendizaje automático, que utilizó las muestras para crear su propio modelo de clasificación.
El clasificador utiliza un algoritmo de aprendizaje que ajusta su conocimiento de la terminología al mismo tiempo que evoluciona el lenguaje. Mientras su sistema de Inteligencia Artificial construía su vocabulario, los investigadores se encargaron de monitorear el contexto y la intención del lenguaje, lo cual ayudó al algoritmo a diferenciar entre abuso, sarcasmo y “uso amigable de terminología agresiva”.
“Nos alegramos mucho cuando nuestro algoritmo identificó `volver a la cocina’ como misógino: demostró que el aprendizaje del contexto funciona”, añadió Richi Naya, coautor del estudio. Los investigadores afirman que el sistema tiene la capacidad de entender diferentes contextos con solo analizar el texto y sin la ayuda del tono, una muestra de cómo la inteligencia artificial está evolucionando de manera importante, aprendiendo cada vez más ciertos criterios que antes se constituían como exclusivos del ser humano.
La conveniencia de seguir desarrollando esta tecnología
El objetivo, dicen los investigadores, es que el sistema tenga la capacidad de detectar tweets con contenido racista, homofóbico o el abuso de personas discapacitadas. El sistema ha demostrado tener la capacidad de detectar tuits misóginos con un 75 por ciento de precisión, lo cual es una señal de que va por buen camino.
Si este tipo de tecnología se continúa desarrollando, las empresas que controlan redes sociales tendrían consigo una herramienta sumamente valiosa para detectar y frenar los mensajes de odio, algo que hace daño y lastima a los grupos vulnerables.
“Esperamos que nuestra solución de aprendizaje automático pueda ser adoptada por las plataformas de redes sociales para identificar e informar automáticamente este contenido para proteger a las mujeres y otros grupos de usuarios en línea”, dijo Naya.
Apenas a mediados de este año, Twitter emitió un comunicado anunciando sus políticas para frenar cualquier caso de mensajes de odio, advirtiendo que bloqueará los enlaces a “contenido que promueve la violencia, amenaza o acosa a otras personas por motivos de raza, origen étnico, nacionalidad, casta, orientación sexual, género, identidad de género, afiliación religiosa, edad, discapacidad o enfermedad grave”.
Además de lo anterior, Twitter no permite compartir enlaces que redirigen a malware, estafas de phishing, sitios web que venden “comprar, vender o facilitar transacciones en bienes o servicios ilegales”, “medios u otro contenido creado por organizaciones terroristas o violentas grupos extremistas” y más.