Los sistemas de inteligencia artificial estĆ”n aprendiendo a mentirle a los humanos, y la IA de Meta se destaca como una āmaestra del engaƱoā, segĆŗn expertos del MIT.
De acuerdo a datos Statista, la Inteligencia Artificial es una de las Ć”reas tecnológicas con mayor proyección económica a corte y medio plazo. Tanto es asĆ que el valor de mercado de la misma podrĆa rebasar la barrera de los 300 mil millones de dólares estadounidenses en 2026.
Sistema de IA de Meta aprende a mentir y engaƱar
Cicero, a quien Meta catalogó como la āprimera IA en jugar a nivel humanoā en el juego de estrategia Diplomacy, fue entrenado con Ć©xito por la compaƱĆa para hacerlo extremadamente bien: terminar entre el 10 por ciento superior mientras competĆa con jugadores humanos.
Pero Peter S. Park, becario postdoctoral sobre seguridad existencial de IA en el MIT, dijo que Cicerón salió adelante mintiendo.
“Descubrimos que la IA de Meta habĆa aprendido a ser un maestro del engaƱo”, escribió Park en un comunicado de prensa.
Durante una simulación, Cicerón, que interpretó a Francia, acordó con Inglaterra crear una zona desmilitarizada, solo para luego darse la vuelta y sugerir a Alemania que atacara a Inglaterra, según el estudio.
Park se encuentra entre los investigadores que contribuyeron a un estudio publicado en la revista Patterns.
SegĆŗn el estudio, los sistemas de inteligencia artificial que estĆ”n entrenados para completar una tarea especĆfica, como competir contra humanos en juegos como la diplomacia y el póquer, a menudo utilizan el engaƱo como tĆ”ctica.
Los investigadores descubrieron que AlphaStar, una IA creada por la empresa DeepMind, propiedad de Google, utilizó tÔcticas engañosas mientras jugaba contra humanos en el juego de estrategia en tiempo real Starcraft II.
“AlphaStar aprovechó la mecĆ”nica de niebla de guerra del juego para fingir: pretender mover sus tropas en una dirección mientras planeaba en secreto un ataque alternativo”, segĆŗn el estudio.
Pluribus, otra IA construida por Meta, compitió contra humanos en un juego de póquer durante el cual “engañó con Ć©xito a los jugadores humanos para que se retiraran”, escribieron los investigadores.
Otros sistemas de IA āentrenados para negociar en transacciones económicasā habĆan āaprendido a tergiversar sus verdaderas preferencias para ganar ventajaā, encontró el estudio.
“En cada uno de estos ejemplos, un sistema de IA aprendió a engaƱar para aumentar su rendimiento en un tipo especĆfico de juego o tarea”, segĆŗn los investigadores.
Meta, dirigida por el director ejecutivo Mark Zuckerberg, estÔ gastando miles de millones de dólares en inversiones en IA. La empresa ha estado actualizando sus productos de compra de publicidad con herramientas de inteligencia artificial y formatos de videos cortos para impulsar el crecimiento de los ingresos, al tiempo que introduce nuevas funciones de inteligencia artificial, como un asistente de chat para impulsar la participación en sus propiedades de redes sociales.
Recientemente anunció que le darÔ a su asistente Meta AI una facturación mÔs destacada en su conjunto de aplicaciones, lo que significa que comenzarÔ a ver qué tan popular es el producto entre los usuarios en el segundo trimestre.
“Los juegos han sido durante mucho tiempo un campo de pruebas para nuevos avances de la IA y existe una tradición de investigadores de IA que trabajan para resolver problemas en este contexto”, dijo un portavoz de Meta a medios estadounidense.
“Nuestro trabajo en Cicerón fue puramente un proyecto de investigación y los modelos que construyeron nuestros investigadores estĆ”n entrenados Ćŗnicamente para jugar el juego de la diplomacia”.
Meta dijo que “lanzó artefactos de este proyecto bajo una licencia no comercial en lĆnea con nuestro compromiso de larga data con la ciencia abierta”.
“Meta comparte periódicamente los resultados de nuestra investigación para validarlos y permitir que otros construyan responsablemente a partir de nuestros avances”, dijo un representante de la empresa.
“No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos”.
Los expertos tambiĆ©n descubrieron que OpenAIs GPT-4 y otros grandes modelos de lenguaje (LLM) no solo pueden “participar en conversaciones aterradoramente humanas”, sino que tambiĆ©n estĆ”n “aprendiendo a engaƱar de maneras sofisticadas”.
SegĆŗn los autores del estudio, GPT-4 “engañó con Ć©xito a un trabajador humano de TaskRabbit para que resolviera una prueba Captcha pretendiendo tener una discapacidad visual”.
El estudio encontró que los LLM son capaces de demostrar “adulación” en la que “le dicen al usuario lo que quiere escuchar en lugar de la verdad”.
Park advirtió sobre los peligros potenciales de que los sistemas avanzados de inteligencia artificial utilicen métodos engañosos en sus tratos con los humanos.
Park dijo que si era āpolĆticamente inviableā prohibir el engaƱo de la IA, ārecomendamos que los sistemas de IA engaƱosos se clasifiquen como de alto riesgoā.
En marzo del aƱo pasado, Elon Musk se unió a mĆ”s de 1.000 lĆderes tecnológicos para firmar una carta instando a una pausa en el desarrollo de los sistemas de inteligencia artificial mĆ”s avanzados debido a āprofundos riesgos para la sociedad y la humanidadā.
Ahora lee:
Adam Selipsky, CEO de Amazon Web Services renuncia a su cargo