Suscríbete a Merca2.0. Haz clic aquí

Sistema de IA de Meta aprende a mentir y engañar a los humanos, según estudio

El sistema de IA de la empresa Meta aprende a mentir y engañar a los humanos, según detalló un nuevo estudio.

Los sistemas de inteligencia artificial están aprendiendo a mentirle a los humanos, y la IA de Meta se destaca como una “maestra del engaño”, según expertos del MIT.

De acuerdo a datos Statista, la Inteligencia Artificial es una de las áreas tecnológicas con mayor proyección económica a corte y medio plazo. Tanto es así que el valor de mercado de la misma podría rebasar la barrera de los 300 mil millones de dólares estadounidenses en 2026.

Sistema de IA de Meta aprende a mentir y engañar

Cicero, a quien Meta catalogó como la “primera IA en jugar a nivel humano” en el juego de estrategia Diplomacy, fue entrenado con éxito por la compañía para hacerlo extremadamente bien: terminar entre el 10 por ciento superior mientras competía con jugadores humanos.

Pero Peter S. Park, becario postdoctoral sobre seguridad existencial de IA en el MIT, dijo que Cicerón salió adelante mintiendo.

“Descubrimos que la IA de Meta había aprendido a ser un maestro del engaño”, escribió Park en un comunicado de prensa.

Durante una simulación, Cicerón, que interpretó a Francia, acordó con Inglaterra crear una zona desmilitarizada, solo para luego darse la vuelta y sugerir a Alemania que atacara a Inglaterra, según el estudio.

Park se encuentra entre los investigadores que contribuyeron a un estudio publicado en la revista Patterns.

Según el estudio, los sistemas de inteligencia artificial que están entrenados para completar una tarea específica, como competir contra humanos en juegos como la diplomacia y el póquer, a menudo utilizan el engaño como táctica.

Los investigadores descubrieron que AlphaStar, una IA creada por la empresa DeepMind, propiedad de Google, utilizó tácticas engañosas mientras jugaba contra humanos en el juego de estrategia en tiempo real Starcraft II.

“AlphaStar aprovechó la mecánica de niebla de guerra del juego para fingir: pretender mover sus tropas en una dirección mientras planeaba en secreto un ataque alternativo”, según el estudio.

Pluribus, otra IA construida por Meta, compitió contra humanos en un juego de póquer durante el cual “engañó con éxito a los jugadores humanos para que se retiraran”, escribieron los investigadores.

Otros sistemas de IA “entrenados para negociar en transacciones económicas” habían “aprendido a tergiversar sus verdaderas preferencias para ganar ventaja”, encontró el estudio.

“En cada uno de estos ejemplos, un sistema de IA aprendió a engañar para aumentar su rendimiento en un tipo específico de juego o tarea”, según los investigadores.

Meta, dirigida por el director ejecutivo Mark Zuckerberg, está gastando miles de millones de dólares en inversiones en IA. La empresa ha estado actualizando sus productos de compra de publicidad con herramientas de inteligencia artificial y formatos de videos cortos para impulsar el crecimiento de los ingresos, al tiempo que introduce nuevas funciones de inteligencia artificial, como un asistente de chat para impulsar la participación en sus propiedades de redes sociales.

Recientemente anunció que le dará a su asistente Meta AI una facturación más destacada en su conjunto de aplicaciones, lo que significa que comenzará a ver qué tan popular es el producto entre los usuarios en el segundo trimestre.

“Los juegos han sido durante mucho tiempo un campo de pruebas para nuevos avances de la IA y existe una tradición de investigadores de IA que trabajan para resolver problemas en este contexto”, dijo un portavoz de Meta a medios estadounidense.

“Nuestro trabajo en Cicerón fue puramente un proyecto de investigación y los modelos que construyeron nuestros investigadores están entrenados únicamente para jugar el juego de la diplomacia”.

Meta dijo que “lanzó artefactos de este proyecto bajo una licencia no comercial en línea con nuestro compromiso de larga data con la ciencia abierta”.

“Meta comparte periódicamente los resultados de nuestra investigación para validarlos y permitir que otros construyan responsablemente a partir de nuestros avances”, dijo un representante de la empresa.

“No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos”.

Los expertos también descubrieron que OpenAIs GPT-4 y otros grandes modelos de lenguaje (LLM) no solo pueden “participar en conversaciones aterradoramente humanas”, sino que también están “aprendiendo a engañar de maneras sofisticadas”.

Según los autores del estudio, GPT-4 “engañó con éxito a un trabajador humano de TaskRabbit para que resolviera una prueba Captcha pretendiendo tener una discapacidad visual”.

El estudio encontró que los LLM son capaces de demostrar “adulación” en la que “le dicen al usuario lo que quiere escuchar en lugar de la verdad”.

Park advirtió sobre los peligros potenciales de que los sistemas avanzados de inteligencia artificial utilicen métodos engañosos en sus tratos con los humanos.

Park dijo que si era “políticamente inviable” prohibir el engaño de la IA, “recomendamos que los sistemas de IA engañosos se clasifiquen como de alto riesgo”.

En marzo del año pasado, Elon Musk se unió a más de 1.000 líderes tecnológicos para firmar una carta instando a una pausa en el desarrollo de los sistemas de inteligencia artificial más avanzados debido a “profundos riesgos para la sociedad y la humanidad”.

Ahora lee:

Adam Selipsky, CEO de Amazon Web Services renuncia a su cargo

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.