Los sistemas de inteligencia artificial estĆ”n aprendiendo a mentirle a los humanos, y la IA de Meta se destaca como una āmaestra del engaƱoā, segĆŗn expertos del MIT.
De acuerdo a datos Statista, la Inteligencia Artificial es una de las Ć”reas tecnolĆ³gicas con mayor proyecciĆ³n econĆ³mica a corte y medio plazo. Tanto es asĆ que el valor de mercado de la misma podrĆa rebasar la barrera de los 300 mil millones de dĆ³lares estadounidenses en 2026.
Sistema de IA de Meta aprende a mentir y engaƱar
Cicero, a quien Meta catalogĆ³ como la āprimera IA en jugar a nivel humanoā en el juego de estrategia Diplomacy, fue entrenado con Ć©xito por la compaƱĆa para hacerlo extremadamente bien: terminar entre el 10 por ciento superior mientras competĆa con jugadores humanos.
Pero Peter S. Park, becario postdoctoral sobre seguridad existencial de IA en el MIT, dijo que CicerĆ³n saliĆ³ adelante mintiendo.
“Descubrimos que la IA de Meta habĆa aprendido a ser un maestro del engaƱo”, escribiĆ³ Park en un comunicado de prensa.
Durante una simulaciĆ³n, CicerĆ³n, que interpretĆ³ a Francia, acordĆ³ con Inglaterra crear una zona desmilitarizada, solo para luego darse la vuelta y sugerir a Alemania que atacara a Inglaterra, segĆŗn el estudio.
Park se encuentra entre los investigadores que contribuyeron a un estudio publicado en la revista Patterns.
SegĆŗn el estudio, los sistemas de inteligencia artificial que estĆ”n entrenados para completar una tarea especĆfica, como competir contra humanos en juegos como la diplomacia y el pĆ³quer, a menudo utilizan el engaƱo como tĆ”ctica.
Los investigadores descubrieron que AlphaStar, una IA creada por la empresa DeepMind, propiedad de Google, utilizĆ³ tĆ”cticas engaƱosas mientras jugaba contra humanos en el juego de estrategia en tiempo real Starcraft II.
“AlphaStar aprovechĆ³ la mecĆ”nica de niebla de guerra del juego para fingir: pretender mover sus tropas en una direcciĆ³n mientras planeaba en secreto un ataque alternativo”, segĆŗn el estudio.
Pluribus, otra IA construida por Meta, compitiĆ³ contra humanos en un juego de pĆ³quer durante el cual “engaĆ±Ć³ con Ć©xito a los jugadores humanos para que se retiraran”, escribieron los investigadores.
Otros sistemas de IA āentrenados para negociar en transacciones econĆ³micasā habĆan āaprendido a tergiversar sus verdaderas preferencias para ganar ventajaā, encontrĆ³ el estudio.
“En cada uno de estos ejemplos, un sistema de IA aprendiĆ³ a engaƱar para aumentar su rendimiento en un tipo especĆfico de juego o tarea”, segĆŗn los investigadores.
Meta, dirigida por el director ejecutivo Mark Zuckerberg, estĆ” gastando miles de millones de dĆ³lares en inversiones en IA. La empresa ha estado actualizando sus productos de compra de publicidad con herramientas de inteligencia artificial y formatos de videos cortos para impulsar el crecimiento de los ingresos, al tiempo que introduce nuevas funciones de inteligencia artificial, como un asistente de chat para impulsar la participaciĆ³n en sus propiedades de redes sociales.
Recientemente anunciĆ³ que le darĆ” a su asistente Meta AI una facturaciĆ³n mĆ”s destacada en su conjunto de aplicaciones, lo que significa que comenzarĆ” a ver quĆ© tan popular es el producto entre los usuarios en el segundo trimestre.
“Los juegos han sido durante mucho tiempo un campo de pruebas para nuevos avances de la IA y existe una tradiciĆ³n de investigadores de IA que trabajan para resolver problemas en este contexto”, dijo un portavoz de Meta a medios estadounidense.
“Nuestro trabajo en CicerĆ³n fue puramente un proyecto de investigaciĆ³n y los modelos que construyeron nuestros investigadores estĆ”n entrenados Ćŗnicamente para jugar el juego de la diplomacia”.
Meta dijo que “lanzĆ³ artefactos de este proyecto bajo una licencia no comercial en lĆnea con nuestro compromiso de larga data con la ciencia abierta”.
“Meta comparte periĆ³dicamente los resultados de nuestra investigaciĆ³n para validarlos y permitir que otros construyan responsablemente a partir de nuestros avances”, dijo un representante de la empresa.
“No tenemos planes de utilizar esta investigaciĆ³n o sus aprendizajes en nuestros productos”.
Los expertos tambiĆ©n descubrieron que OpenAIs GPT-4 y otros grandes modelos de lenguaje (LLM) no solo pueden “participar en conversaciones aterradoramente humanas”, sino que tambiĆ©n estĆ”n “aprendiendo a engaƱar de maneras sofisticadas”.
SegĆŗn los autores del estudio, GPT-4 “engaĆ±Ć³ con Ć©xito a un trabajador humano de TaskRabbit para que resolviera una prueba Captcha pretendiendo tener una discapacidad visual”.
El estudio encontrĆ³ que los LLM son capaces de demostrar “adulaciĆ³n” en la que “le dicen al usuario lo que quiere escuchar en lugar de la verdad”.
Park advirtiĆ³ sobre los peligros potenciales de que los sistemas avanzados de inteligencia artificial utilicen mĆ©todos engaƱosos en sus tratos con los humanos.
Park dijo que si era āpolĆticamente inviableā prohibir el engaƱo de la IA, ārecomendamos que los sistemas de IA engaƱosos se clasifiquen como de alto riesgoā.
En marzo del aƱo pasado, Elon Musk se uniĆ³ a mĆ”s de 1.000 lĆderes tecnolĆ³gicos para firmar una carta instando a una pausa en el desarrollo de los sistemas de inteligencia artificial mĆ”s avanzados debido a āprofundos riesgos para la sociedad y la humanidadā.
Ahora lee:
Adam Selipsky, CEO de Amazon Web Services renuncia a su cargo