-
Se estima que el valor en el mercado de la IA podría rebasar los 300 mil millones de dólares para 2025.
-
Elon Musk y más de mil investigadores firmaron una petición para detener las investigaciones de IA por al menos 6 meses.
-
Eliezer Yudkowsky señaló que la carta que pide una pausa en el desarrollo de la IA no es suficiente, pues esta debería ser definitiva.
Un investigador de la IA llamado Eliezer Yudkowsky ha estado advirtiendo sobre la tecnología durante más de 20 años y actualmente dice que deberíamos ‘cerrarlo todo’ y emitir una prohibición ‘indefinida y mundial’ ya que podrían haber consecuencias negativas e irreparables.
El impacto de la IA en la actualidad
La inteligencia artificial ha sido un tema de discusión en los últimos meses y recientemente se ha visto tanto el avance de este sector que incluso se ha pedido una pausa ya que su desarrollo podría resultar contraproducente. Tanto Elon Musk como científicos, incluyendo a Steve Wozniak e ingenieros de Google y Microsoft, firmaron como petición en futureoflife.org para detener por 6 meses las investigaciones relacionadas con la inteligencia artificial ya que fue calificada como “un gran riesgo para la humanidad”.La carta, impulsada por Future of Life Institute, una organización creada para vigilar la forma en la que se desarrolla la tecnología, ha recibido más de 1.100 firmas.
En la petición, los expertos señalan: “En los últimos meses hemos visto la manera en que los laboratorios de IA se han lanzado a una carrera sin control para desarrollar y desplegar cerebros digitales cada vez con más potencia que nadie, ni sus propios creadores, consiguen entender, predecir ni controlar de forma fiable”.Sin embargo dicho investigador ha señalado que esa petición no es suficiente, por lo que evitó firmar la carta ya que le pareció algo grave que se detuvieran las investigaciones únicamente por 6 meses. No obstante, recientemente un grupo de abogados de los Estados Unidos hizo una presentación ante la FTC para que se detengan nuevos lanzamientos de GPT por parte de OpenAI, argumentando riesgos para la privacidad y seguridad pública.
El mismo fundador de OpenAI, Sam Altman ha declarado su temor por el avance de su propia IA.
“También necesitamos tiempo suficiente para que nuestras instituciones decidan qué hacer. La regulación será crítica y llevará tiempo resolverla; aunque las herramientas de IA de la generación actual no dan mucho miedo, creo que potencialmente no estamos tan lejos de las que pueden dar miedo” señaló el director de OpenAI.
Por si esto fuera poco, el impacto es tan grande que incluso se prohibió en toda Italia, el GPDP (Garante para la Protección de Datos Personales) de dicho país ordenó la prohibición con efecto inmediato el uso de ChatGPT, incluso ha ordenado este mismo viernes el bloqueo de esta función de OpenAI, por supuesta recopilación ilícita de datos personales.
Después de 20 años de advertencia, investigador pide prohibición de la IA
Eliezer Yudkowsky es un investigador y autor que se ha dedicado al estudio de la Inteligencia Artificial General desde el año 2001. Recientemente escribió un artículo en respuesta a la carta firmada por varios líderes importantes de la industria de la tecnología quienes solicitaban una moratoria de seis meses en el desarrollo de la IA.
Dicho investigador ha estado emitiendo durante años advertencias sobre las posibles consecuencias catastróficas que ocasionaría la IA. Incluso en marzo, Bloomberg lo describió como un «Doomer de IA», y la autora Ellen Huet señaló que ha estado advirtiendo sobre la posibilidad de un «apocalipsis de IA» durante mucho tiempo.
El artículo de Eliezer Yudkowsky titulado «Pausar los desarrollos de IA no es suficiente. Necesitamos cerrarlo todo» fue publicado por Time el miércoles. En su publicación advirtió acerca de las consecuencias que representa construir una IA sobrehumanamente inteligente.
“Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, en cualquier situación remotamente parecida a las circunstancias actuales, es que, literalmente, todos en la Tierra morirán”. destacó Yudkowsky.
«Si la inteligencia dice que un país fuera del acuerdo está construyendo un grupo de GPU, tenga menos miedo de un conflicto de disparos entre naciones que de la violación de la moratoria; esté dispuesto a destruir un centro de datos deshonesto mediante un ataque aéreo», añadió Yudkowsky.
Ante las ideologías de dicho investigador, el cofundador y director de OpenAI, Sam Altman ha mencionado que Yudkowksy ha «hecho más para acelerar la AGI que nadie» ya que sus advertencias sobre la tecnología solo han acelerado su desarrollo.
eliezer has IMO done more to accelerate AGI than anyone else.
certainly he got many of us interested in AGI, helped deepmind get funded at a time when AGI was extremely outside the overton window, was critical in the decision to start openai, etc.
— Sam Altman (@sama) February 3, 2023