SuscrĆ­bete a Merca2.0. Haz clic aquĆ­

Sistema de IA de Meta aprende a mentir y engañar a los humanos, según estudio

El sistema de IA de la empresa Meta aprende a mentir y engañar a los humanos, según detalló un nuevo estudio.

Los sistemas de inteligencia artificial estĆ”n aprendiendo a mentirle a los humanos, y la IA de Meta se destaca como una ā€œmaestra del engaƱoā€, segĆŗn expertos del MIT.

De acuerdo a datos Statista, la Inteligencia Artificial es una de las Ôreas tecnológicas con mayor proyección económica a corte y medio plazo. Tanto es así que el valor de mercado de la misma podría rebasar la barrera de los 300 mil millones de dólares estadounidenses en 2026.

Sistema de IA de Meta aprende a mentir y engaƱar

Cicero, a quien Meta catalogó como la ā€œprimera IA en jugar a nivel humanoā€ en el juego de estrategia Diplomacy, fue entrenado con Ć©xito por la compaƱƭa para hacerlo extremadamente bien: terminar entre el 10 por ciento superior mientras competĆ­a con jugadores humanos.

Pero Peter S. Park, becario postdoctoral sobre seguridad existencial de IA en el MIT, dijo que Cicerón salió adelante mintiendo.

“Descubrimos que la IA de Meta habĆ­a aprendido a ser un maestro del engaƱo”, escribió Park en un comunicado de prensa.

Durante una simulación, Cicerón, que interpretó a Francia, acordó con Inglaterra crear una zona desmilitarizada, solo para luego darse la vuelta y sugerir a Alemania que atacara a Inglaterra, según el estudio.

Park se encuentra entre los investigadores que contribuyeron a un estudio publicado en la revista Patterns.

Según el estudio, los sistemas de inteligencia artificial que estÔn entrenados para completar una tarea específica, como competir contra humanos en juegos como la diplomacia y el póquer, a menudo utilizan el engaño como tÔctica.

Los investigadores descubrieron que AlphaStar, una IA creada por la empresa DeepMind, propiedad de Google, utilizó tÔcticas engañosas mientras jugaba contra humanos en el juego de estrategia en tiempo real Starcraft II.

“AlphaStar aprovechó la mecĆ”nica de niebla de guerra del juego para fingir: pretender mover sus tropas en una dirección mientras planeaba en secreto un ataque alternativo”, segĆŗn el estudio.

Pluribus, otra IA construida por Meta, compitió contra humanos en un juego de póquer durante el cual “engañó con Ć©xito a los jugadores humanos para que se retiraran”, escribieron los investigadores.

Otros sistemas de IA ā€œentrenados para negociar en transacciones económicasā€ habĆ­an ā€œaprendido a tergiversar sus verdaderas preferencias para ganar ventajaā€, encontró el estudio.

“En cada uno de estos ejemplos, un sistema de IA aprendió a engaƱar para aumentar su rendimiento en un tipo especĆ­fico de juego o tarea”, segĆŗn los investigadores.

Meta, dirigida por el director ejecutivo Mark Zuckerberg, estÔ gastando miles de millones de dólares en inversiones en IA. La empresa ha estado actualizando sus productos de compra de publicidad con herramientas de inteligencia artificial y formatos de videos cortos para impulsar el crecimiento de los ingresos, al tiempo que introduce nuevas funciones de inteligencia artificial, como un asistente de chat para impulsar la participación en sus propiedades de redes sociales.

Recientemente anunció que le darÔ a su asistente Meta AI una facturación mÔs destacada en su conjunto de aplicaciones, lo que significa que comenzarÔ a ver qué tan popular es el producto entre los usuarios en el segundo trimestre.

“Los juegos han sido durante mucho tiempo un campo de pruebas para nuevos avances de la IA y existe una tradición de investigadores de IA que trabajan para resolver problemas en este contexto”, dijo un portavoz de Meta a medios estadounidense.

“Nuestro trabajo en Cicerón fue puramente un proyecto de investigación y los modelos que construyeron nuestros investigadores estĆ”n entrenados Ćŗnicamente para jugar el juego de la diplomacia”.

Meta dijo que “lanzó artefactos de este proyecto bajo una licencia no comercial en lĆ­nea con nuestro compromiso de larga data con la ciencia abierta”.

“Meta comparte periódicamente los resultados de nuestra investigación para validarlos y permitir que otros construyan responsablemente a partir de nuestros avances”, dijo un representante de la empresa.

“No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos”.

Los expertos tambiĆ©n descubrieron que OpenAIs GPT-4 y otros grandes modelos de lenguaje (LLM) no solo pueden “participar en conversaciones aterradoramente humanas”, sino que tambiĆ©n estĆ”n “aprendiendo a engaƱar de maneras sofisticadas”.

SegĆŗn los autores del estudio, GPT-4 “engañó con Ć©xito a un trabajador humano de TaskRabbit para que resolviera una prueba Captcha pretendiendo tener una discapacidad visual”.

El estudio encontró que los LLM son capaces de demostrar “adulación” en la que “le dicen al usuario lo que quiere escuchar en lugar de la verdad”.

Park advirtió sobre los peligros potenciales de que los sistemas avanzados de inteligencia artificial utilicen métodos engañosos en sus tratos con los humanos.

Park dijo que si era ā€œpolĆ­ticamente inviableā€ prohibir el engaƱo de la IA, ā€œrecomendamos que los sistemas de IA engaƱosos se clasifiquen como de alto riesgoā€.

En marzo del aƱo pasado, Elon Musk se unió a mĆ”s de 1.000 lĆ­deres tecnológicos para firmar una carta instando a una pausa en el desarrollo de los sistemas de inteligencia artificial mĆ”s avanzados debido a ā€œprofundos riesgos para la sociedad y la humanidadā€.

Ahora lee:

Adam Selipsky, CEO de Amazon Web Services renuncia a su cargo

ObtƩn un mƩs gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografĆ­as.
AnƔlisis profundos y casos de estudio de Ʃxito.
Historial de la revista impresa en formato digital.

”Disfruta de lo mejor del marketing sin costo alguno por un mes!

MÔs de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a mÔs de 150,000 lectores

Regƭstrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias mƔs importantes de mercadotecnia, publicidad y medios en tu correo.

MƔs de Merca2.0

ArtĆ­culos relacionados

Banorte

Banorte analiza comprar Banamex

Banorte evalĆŗa la compra de Banamex, un movimiento que podrĆ­a transformar el panorama bancario mexicano y fortalecer su presencia en el mercado.

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.

Revista Merca2.0
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras mÔs interesantes y útiles.