-
Los dos contenidos que llevaron a la expulsión de Trump de Facebook repiten las acusaciones de fraude electoral en su batalla contra Biden
-
Esto incluye el video que publicó durante el asalto al Capitolio, donde dio a entender que simpatizaba con las personas que perpetraron el ataque
-
Para sus otras decisiones, la Junta de Supervisión realizó varias sugerencias a la red social, pero ésta no tiene obligación de seguirlas
El primer gran caso que la Junta de Supervisión de Facebook deberá resolver es la salida del ex-presidente Donald Trump de la plataforma, y si debe ser una acción permanente. Si bien el organismo ya lleva analizando la situación desde hace unos días, empezará a recibir opiniones del público para tomar su decisión. Aso lo reporta TechCrunch, que también agrega que el objetivo de esta decisión es incorporar “perspectivas más diversas” a lo largo de su proceso.
La convocatoria para el feedback público fue publicada directamente en la página oficial de la Junta de Supervisión de Facebook. Esta solicitud pide a los consumidores que revisen y den su opinión sobre dos publicaciones específicas de Trump, que según la marca de Zuckerberg llevaron a su salida de la plataforma. La idea es que los consumidores puedan opinar qué tan correcta creen que fue la decisión de la red social, considerando sus políticas de contenido.
También se quieren recolectar perspectivas sobre cómo Facebook debería abordar en el futuro este tipo de controversias, especialmente cuando tienen consecuencias fuera de la plataforma. Los usuarios también podrán decir si creen que es correcto o no que la plataforma censure por completo una cuenta, o si los posts de las figuras públicas deberían mantenerse sin control. Lo anterior, como parte de un compromiso con el público en torno al derecho a la información.
¿Una decisión que escapa incluso a la Junta de Facebook?
Desde que Mark Zuckerberg anunció la creación de este organismo, no todos los agentes se mostraron igual de confiados sobre su eficacia a futuro. La misma TechCrunch, desde 2019, apuntó que la Junta de Supervisión de Facebook estaba siendo enfocada únicamente a la moderación de contenido. Esto, a pesar que muchas de las voces que la red social convocó para la primera etapa de su formación pedían que también opinara en su algoritmo y negocio.
Notas relacionadas
Video: Facebook revela cómo funciona su algoritmo al recomendar contenido a los usuarios
Facebook ofrecerá nuevos controles publicitarios: Lo que debes saber
Los 5 datos para comenzar este lunes: Facebook enfrenta un problema que se hace cada vez más grande
Pero volviendo al tema específico de Trump, decidir si su bloqueo es permanente o temporal es una decisión que por sí misma ha causado mucha controversia. De acuerdo con CNBC, los reguladores europeos reprobaron que Facebook dejara incomunicado a al ex-presidente de Estados Unidos (EEUU). No por el hecho que aprobaran el comportamiento del republicano, sino porque esta decisión refleja el enorme poder, sin contrapesos, que tienen las Big Tech.
Y el hecho que la Junta de Supervisión de Facebook tome una decisión no significa que el público vaya a estar contento. De acuerdo con The Guardian, ya el grupo ha revertido varias de las decisiones que tomó la red social para bloquear ciertas publicaciones. Varias probaron ser más controversiales que la elección original de Mark Zuckerberg y su equipo. Algo que tal vez se repita con el caso de Trump, y por lo que se estaría pidiendo el feedback de las masas.
Los retos de la moderación de contenido
El desafío que tiene por delante la Junta de Supervisión de Facebook no es sencillo. Pero vale la pena ver si este modelo puede crear una solución satisfactoria para todos los agentes en la industria. Y es que anteriores propuestas no han sido particularmente populares. Amazon, por ejemplo, retiró su servicio de hosting a Parler, una red social que fue señalada por ser clave en el asalto al Capitolio de EEUU. Para muchos, fue un golpe directo a la libertad de expresión.
Varias empresas se han metido en problemas en varias partes del mundo porque no hay una definición universal sobre el tipo de contenido que es válido o no en Facebook y sus rivales. Por ejemplo, TikTok eliminó cientos de miles de recursos y cuentas de su sitio, como parte de su política que no tolera la incitación al odio. A la vez, críticos notaron que se limitó el alcance de usuarios que “características anormales”, causando ira por su supuesta discriminación.