-
Noticiero difunde video falso del Presidente de Ucrania y pide que lo borren de redes.
-
Alertan a soldados y poblaciĆ³n por los “deepfake” que circulan durante la guerra.
-
Zelensky asegura que no serĆ” realidad la rendiciĆ³n de sus fuerzas ante Rusia.
El canal nacional “Ucrania 24” fue vĆctima del “deepfake” y representĆ³ el verdadero riesgo de la Inteligencia Artificial (IA) para los medios de comunicaciĆ³n y la difusiĆ³n de fake news, pues se les colĆ³ un video falso del Presidente ucraniano, Volodymyr Zelensky, donde aparentemente se rendĆa en la guerra con Rusia.
Y es que, en plena invasiĆ³n, el montaje del lĆder llamando a su paĆs a “deponer las armas” causĆ³ alerta y confusiĆ³n por ser transmitido en un noticiero, lo que rĆ”pidamente lo hizo viral en redes sociales pese a que la producciĆ³n dijo haber sido hackeada.
De acuerdo con Ucrania 24, ayer por la noche el canal fue invadido mientras se encontraba al aire y su pĆ”gina web dejĆ³ de funcionar como debĆa.
“Sobre la Ćŗltima provocaciĆ³n infantil, sugiriendo que pida la entrega de las armas. Puedo ofrecer a los militares de la FederaciĆ³n Rusa que depongan las armas y se vayan a casa. Ya estamos en casa. Nuestro paĆs, nuestros hijos, nuestras familias. Y estamos absolutamente reacios a deponer las armas. Hasta la victoriaā.
āRecomiendo que depongan las armas y regresen con sus familias. No deben morir en esta guerra. Les pido que vivan y pretendo hacer lo mismoā, se escucha declarar al jefe de Estado ucraniano en el video falso.
El noticiero de Ucrania compartiĆ³ el video en una publicaciĆ³n de Facebook con la etiqueta “falso” en grande y con color rojo, sin mĆ”s explicaciĆ³n sobre el hackeo. Poco despuĆ©s, miembros de la producciĆ³n noticiosa hicieron un hilo con los hechos y pidiendo disculpas pĆŗblicas a la poblaciĆ³n que pudo llegar a espantarse y a pensar que su naciĆ³n habĆa sido tomada por la fuerza por las fuerzas armadas de Vladimir Putin.
Por su parte, Meta anunciĆ³ que eliminĆ³ rĆ”pidamente el video, el director de seguridad de la empresa lo anunciĆ³ en Twitter.
“Hoy temprano, nuestros equipos identificaron y eliminaron un video falso que afirmaba mostrar al presidente Zelensky emitiendo una declaraciĆ³n que nunca hizo. ApareciĆ³ en un sitio web supuestamente comprometido y luego comenzĆ³ a mostrarse en Internet”, publicĆ³ Nathaniel Gleicher, miembro de Ucrania 24, en Twitter.
1/ Earlier today, our teams identified and removed a deepfake video claiming to show President Zelensky issuing a statement he never did. It appeared on a reportedly compromised website and then started showing across the internet.
ā Nathaniel Gleicher (@ngleicher) March 16, 2022
El Presidente Zelensky hablĆ³ despuĆ©s de la transmisiĆ³n del “deepfake” en un breve extracto filmado desde su telĆ©fono inteligente y transmitido por Ucrania 24, donde llamĆ³ a la poblaciĆ³n a la calma y fijĆ³ su postura de lucha.
El peligro del “deepfake”
Este tipos de videos estĆ”n ganando popularidad en redes sociales e internet, pues consisten en una tecnologĆa con Inteligencia Artificial (IA) que busca imitar la voz y apariencia de cualquier persona para transmitir mensajes falsos.
El objeto particular del “deepfake” es manipular a la audiencia y la opiniĆ³n pĆŗblica con respecto a alguna figura de alta posiciĆ³n.
Por ejemplo, en el caso del video falso de Zelensky se puede detectar el truco por el tamaƱo de la cabeza que parece estar fuera de sintonĆa con el resto del cuerpo, asĆ como la voz mĆ”s profunda.
A principios de marzo, las autoridades ucranianas advirtieron del creciente riesgo de “deepfakes”. El gobierno de Ucrania habĆa pedido ayuda a Facebook para evitar mĆ”s desinformaciĆ³n durante la guerra y para llamar a los soldados a estar atentos cuando vean videos del presidente que pudieran estar manipulados.
Pero Zelensky no fue la Ćŗnica vĆctima, tambiĆ©n desde el 24 de febrero, cuando iniciĆ³ la invasiĆ³n, el Presidente ruso Vladimir Putin se viralizĆ³ en TikTok por una serie de “deepfakes” donde se ridiculizaba su imagen.
Ahora lee:
Shift: El futuro del marketing es hoy y el nuevo libro de PHD te explica cĆ³mo aprovecharlo
NiƱa ucraniana con un rifle se viraliza y refleja el impacto de la fotografĆa para las masas
CambiarĆan de empleo en 2023 mĆ”s de la mitad de los millennials y centennials