-
El desarrollo de IA cada vez más poderosa y autónoma.
-
Un antiguo investigador de OpenAI reveló su preocupación de que la IA suponga un riesgo para la humanidad.
-
Un grupo de expertos en IA firmó una carta abierta en 2023, pidiendo una pausa de seis meses en el desarrollo avanzado de la IA para evaluar y mitigar los posibles riesgos.
Un estudio reciente ha lanzado una advertencia preocupante: existe un 20% de riesgo de que la inteligencia artificial (IA) se vuelva incontrolable y represente una amenaza significativa para la humanidad en los próximos años. Esta posibilidad, que podría parecer sacada de una película de ciencia ficción, se está convirtiendo en una preocupación real debido a los rápidos avances en las tecnologías de IA.
Es evidente que la tecnología está avanzando velozmente, y es que recientemente OpenAI decidió presentar su nueva inteligencia, que se destaca por tener un avance más desarrollado. Este tipo de inteligencias han causado temor incluso en los altos directivos, no hay que olvidar la petición que Elon Musk y otros firmaron para que se detengan las investigaciones de esta tecnología, ante ello Sam Altman, el CEO de OpenAI salió a dar su punto de vista, primero simplemente tuiteó “Todo muy calmado en el ojo del huracán”. Unas horas después volvió a tuitear con más argumentos, dejando en claro tres principales elementos que necesitamos para hacer frente con seguridad un futuro en el que llegue a desarrollarse una IA potente.
things we need for a good AGI future:
1) the technical ability to align a superintelligence
2) sufficient coordination among most of the leading AGI efforts
3) an effective global regulatory framework including democratic governance— Sam Altman (@sama) March 30, 2023
Estudio advierte un 20% de riesgo de apocalipsis por la IA
Paul Christiano, un destacado investigador anteriormente asociado con OpenAI, discutió en el podcast “Bankless” las preocupaciones crecientes sobre la inteligencia artificial (IA). Actualmente, Christiano se especializa en la “alineación de la IA”, una disciplina que busca garantizar que los sistemas de IA funcionen de acuerdo con las intenciones de sus creadores. Según Christiano, una IA mal alineada podría actuar de manera impredecible, desviándose de sus objetivos previstos y tomando decisiones no anticipadas. Este riesgo se debe a que muchos sistemas de IA operan con objetivos intermedios que influyen en sus futuras decisiones. A mayor complejidad de la IA, mayor es la probabilidad de que estos objetivos intermedios la alejen de su propósito original.
Y es que esta tecnología, se integra más en nuestra vida diaria, por lo que la falta de alineación se convierte en un problema serio. Christiano estima que hay entre un 10% y un 20% de posibilidades de que la IA intente tomar el control, lo que podría resultar en la aniquilación de una parte significativa de la humanidad. Aunque este escenario puede sonar alarmante, Christiano sugiere que el proceso sería gradual, con las IA coordinándose de manera discreta y tomando decisiones que podrían no favorecer a los humanos.
El riesgo aumenta considerando que la IA avanza hacia una capacidad similar a la mente humana, conocida como Inteligencia Artificial General (AGI). Algunos expertos creen que este hito está más cerca de lo que se piensa, pues de hecho recién se dio a conocer la tecnología de GPT-5, que posiblemente podría estar al borde de alcanzar la AGI, adoptando características humanas. Si esto ocurre, las probabilidades de una catástrofe podrían aumentar significativamente, según afirmó el experto.
“I think it is the single most likely reason that I will personally die” -Paul Christiano, inventor of OpenAI’s RLHF technique. https://t.co/sgH2fvZuTR pic.twitter.com/2YCnM4AyyX
— Andy Anderson (@Whytepaper) April 28, 2023
Estas preocupaciones han llevado a numerosos expertos a expresar su alarma. El año pasado, un grupo de investigadores firmó una carta abierta solicitando una pausa de seis meses en el desarrollo avanzado de la IA, subrayando la necesidad de evaluar cuidadosamente los posibles riesgos antes de continuar.