- El CEO de Google, Sundar Pichai, expresó preocupación sobre los rápidos avances de la inteligencia artificial y su impacto en la sociedad.
- Pichai advirtió que la sociedad no está preparada para las consecuencias de la IA y que las regulaciones y normas deben alinearse con los valores humanos.
- También mencionó que aunque hay preocupación, también hay optimismo debido a que hay más conciencia temprana sobre los desafíos de la IA en comparación con tecnologías del pasado.
Los grandes avances en los desarrollos de inteligencia artificial son el tema de conversación en todos los ámbitos relacionados con la tecnología.
Una de las personas notables del sector que no se había pronunciado al respecto era el CEO de Google, Sundar Pichai.
Lo hizo este domingo en una entrevista con “60 Minutes”, de la cadena estadounidense CBS. Y su opinión ha generado preocupación.
Puchai dijo, en tono serio, que la sociedad no está preparada para los rápidos avances de la IA, que la inteligencia artificial “no puede ser un tema de una empresa” y que las consecuencias tendrán un impacto en “todos los productos de todas las compañías”.
Pichai también dijo que se había quedado “sin palabras” al ver algunos de los avances de AI y que sentía que algunas de las capacidades que vio eran “inquietantes”.
“Necesitamos adaptarnos como sociedad”, dijo Pichai, y agregó que los empleos que se verán más alterados son los relacionados con el “conocimiento”, incluidos escritores, contadores, arquitectos e, irónicamente, ingenieros de software.
Al advertir respecto de las potenciales consecuencias de la inteligencia artificial, Pichai dijo que la escala del problema de la desinformación y las noticias e imágenes falsas será “mucho mayor”, y que esto “podría causar mucho daño”.
El CEO de Google y la AI
Respecto de cómo el mundo se va a adaptar, Pichai dijo que la sociedad debe hacerlo rápidamente con regulaciones, con leyes para castigar el abuso y con tratados entre las naciones para hacer que la IA sea segura para. Las normas deben alinearse “con los valores humanos”.
“No le corresponde a una empresa decidir sobre esto”, aseguró Pichai. “Es por eso que creo que el desarrollo de AI debe incluir no sólo a ingenieros, sino también a científicos sociales, especialistas en ética y filósofos”.
Cuando le preguntaron sobre si la sociedad está en condiciones para tecnologías como las que se han visto en las últimas semanas, Pichai respondió: “Por un lado, creo que no, porque hay un desajuste entre el ritmo en que evoluciona la tecnología y el de las instituciones, hay un desajuste”.
Sin embargo, dijo ser optimista porque, en comparación con otras tecnologías que surgieron en el pasado, esta vez “hay mucha gente que se está preocupando desde el principio”.
Pichai dijo que hay “una caja negra” con los chatbots, donde algunas veces “no se entiende” por qué o cómo surgen algunas respuestas. El periodista, preocupado, preguntó: “¿No entiendes cómo funciona y, sin embargo, lo han lanzado en la sociedad?”.
“Tampoco creo que entendamos completamente cómo funciona la mente humana”, respondió Pichai.
Ahora lee:
Los 3 trabajos tecnológicos más amenazados por ChatGPT y la AI