-
Cambiarían sistema de recomendaciones en busca de videos dañinos para la salud.
-
Los clips cortos son ubicados con palabras clave, descripciones y hashtags similares.
-
WSJ advirtió que fueron vistos 255 mil videos, la mayoría sobre trastornos alimenticios.
Luego de que The Wall Street Journal hiciera su propio estudio de impacto social en TikTok, dando a conocer resultados impresionantes tras experimentar con su algoritmo, la red social decidió realizar cambios significativos en el feed de recomendaciones de los adolescentes.
Esto, ya que una de las principales conclusiones que el medio logró obtener fue negativo, pues reconocieron que las experiencias personales de niñas y jóvenes que usan la plataforma con regularidad son delimitadas por desafíos extremos de pérdida de peso, técnicas de purga y dietas mortales que contribuyen al desarrollo de trastornos alimenticios.
De acuerdo con el medio, antes de publicar su más reciente historia, WSJ pidió postura a la aplicación sobre el daño que podría causar a los usuarios al promover potencialmente este tipo de contenido; sin embargo, la respuesta no fue lo que se esperaban, pues TikTok decidió anunciar de inmediato un cambio en su algoritmo para atacar el problema.
Algoritmo dañino, ¡en 60 segundos!
TikTok se comprometió a mejorar su sistema para filtrar los videos que pudieran promover enfermedades como la anorexia o la bulimia y expresó su preocupación por los creadores de contenido que afectan a menores de edad.
De acuerdo con The Wall Street Journal, se crearon más de 100 cuentas que “navegaron por la aplicación con poca intervención humana”, incluso 12 fueron considerados bots para niños de 13 años. Estas últimas cuentas dedicaron su tiempo a ver videos sobre pérdida de peo, alcohol, juegos de azar y ejercicio.
Entre los resultados, por ejemplo, destaca el caso del bot que, tan pronto como dejó de ver temas relacionados con el juego, abruptamente fue bombardeado con contenido sobre pérdida de peso, pues el algoritmo de TikTok se ajustó a su comportamiento y, en consecuencia, aumentó la cantidad de recomendaciones peligrosas.
Al final, de los 255 mil clips cortos que los bots abrieron en total, 32 mil 700 contenían una descripción o metadatos que coincidían con una lista de cientos de palabras clave relacionadas con la pérdida de peso; 11 mil 615 contenían descripciones también similares; y 4 mil 402 una combinación de palabras clave que promueven la normalización de los trastornos alimenticios.
Asimismo, varios videos utilizan ortografía y redacción diferente para evitar que la plataforma los marque.
“Si bien este experimento no refleja la experiencia que la mayoría de la gente tiene en TikTok, incluso para una persona que tiene esta experiencia es demasiado”, cita el medio de comunicación.
Reacción inmediata
Tras darse a conocer los resultados del WSJ, la plataforma reaccionó de inmediato y, antes de dar postura directamente por la historia que sería publicada, se adelantó a buscar una respuesta.
TikTok anunció que fueron eliminadas mil 778 cuentas que promueven los trastornos alimenticios; aunque no se aclaró si fue la plataforma o los usuarios quienes tomaron la decisión.
Esto, ya que justo antes de que se publicara el sondeo, la plataforma anunció que trabajaría en nuevas formas de detener la formación de peligros en la salud; sin embargo, el hecho coincide con la declaración del periódico, quien dijo que sí contactó a la marca para obtener su declaración del caso.
“Permitimos contenido educativo o orientado a la recuperación porque entendemos que puede ayudar a las personas a ver que hay esperanza, pero el contenido que promueve, normaliza o glorifica los trastornos alimentarios está prohibido”, señaló Jamie Favazza, portavoz de TikTok, quien señaló en un comunicado que se brinda acceso a la línea directa de la Asociación Nacional de Trastornos de la Alimentación dentro de la aplicación.
En ese panorama, la plataforma sí reconoce que no siempre es saludable ver cierto tipo de contenido en gran escala, incluidos los videos relacionados con dietas, ejercicio y mundo fitness. Ahora trabaja para reconocer si su sistema de recomendación está mostrando involuntariamente videos que pueden no infringir las políticas de TikTok, pero que podrían ser dañinos.
Entre los cambios que se esperan, TikTok anunció que pronto podrían tener una herramienta mejorada en su página “For You” para que los usuarios puedan evitar los videos que contengas palabras o hashtags de su desagrado.
Precedente establecido
La alerta es muy parecida a la que pasa Instagram desde hace unos meses, luego de que Francis Haugen filtrara documentos de Facebook que revelaban “agujeros” en el algoritmo de recomendaciones de Instagram y Facebook, ahora Meta.
En ese caso se realizó una investigación sobre el impacto de dichas redes sociales en los adolescentes, dando como resultado estragos a la salud mental y daños en la imagen corporal de las niñas. No obstante, Instagram anunció planes para una función que “empujaría” a los más jóvenes fuera del contenido dañino.
Ahora lee:
CM de Vips retwittea mensaje de apoyo tras insulto a empleadas en TikTok
TikTok busca ser la nueva competencia de Twitch con esta aplicación
Miniso gana publicidad por un error de tiktoker
Maestra se hace viral en TikTok por este comentario “clasista” sobre trabajadoras de Vips