- Control humano en la IA, pide el CEO de Microsoft para prevenir su transformación en un arma.
- Habla de temores y de la necesidad de regulación.
- En una entrevista con CNBC, Brad Smith hace una analogía con la electricidad: es clave que haya mecanismos que eviten graves consecuencias.
El director ejecutivo de Microsoft, Brad Smith, dijo algo que muchos vienen pensando hace tiempo: la necesidad de mantener un estricto “control humano” sobre la inteligencia artificial (IA) para evitar que se transforme en un arma.
En una entrevista con CNBC publicada este martes 29 de agosto, Smith expresó su preocupación acerca de cómo la IA, si no es regulada adecuadamente, podría ser utilizada para fines destructivos.
En su opinión, todas las tecnologías, por más innovadoras que sean, pueden evolucionar en herramientas o armas, y la inteligencia artificial no es la excepción.
El CEO subrayó que es esencial que exista supervisión humana sobre la IA, ya sea en manos de gobiernos, ejércitos u organizaciones que tengan la intención de utilizarla para la automatización de procesos críticos.
Esta supervisión garantizaría la capacidad de suspender o detener el funcionamiento de sistemas automatizados en caso de emergencia.
Temores por el avance de la IA
El temor a que la IA pueda ser utilizada como arma no es nuevo. Con el crecimiento exponencial de la tecnología, especialmente en la generación de contenido a través de chatbots impulsados por IA, como ChatGPT, los líderes tecnológicos han levantado sus voces de alarma. Cuidado, muchos de ellos son los mismos que te están haciendo negocio con estos sistemas.
Esta preocupación no solo involucra el potencial destructivo, sino también el impacto de la IA en la eliminación de empleos “humanos”.
Smith se está uniendo ahora a una serie de figuras influyentes en la industria que han pedido una regulación más estricta y una supervisión cuidadosa de la IA.
Sam Altman, director ejecutivo de OpenAI, propietaria de ChatGPT, junto con ejecutivos de Google DeepMind y Microsoft, han advertido previamente sobre los riesgos de la inteligencia artificial, comparando su impacto con amenazas tan graves como una guerra nuclear.
La preocupación por la regulación adecuada y el control humano sobre la IA no es solo una cuestión de prevención de posibles conflictos, sino también de preservar la seguridad de los datos y la integridad de los sistemas en un mundo cada vez más dependiente de la tecnología.
Smith dijo que se necesita un enfoque multidisciplinario que involucre a las empresas, a los gobiernos y a la sociedad en su conjunto para garantizar un desarrollo responsable y sostenible de la IA.
La IA es como la electricidad
La analogía que Smith emplea para reforzar su argumento es la de la electricidad. Así como se han implementado mecanismos de seguridad, como disyuntores y frenos de emergencia, para proteger a las personas de posibles accidentes eléctricos, la IA requiere salvaguardas similares para prevenir consecuencias no deseadas.
La importancia de la regulación y la supervisión se hace aún más evidente cuando se considera que la IA está siendo incorporada en áreas cruciales, desde la infraestructura hasta la toma de decisiones en sectores clave.
Ahora lee:
¡No lo vas a creer! Así sería el hijo de Doña Florinda y el Profesor Jirafales
Nvidia gana 9 veces más gracias al auge de la inteligencia artificial