CARLOS BONILLA
Licenciado en Periodismo y Comunicación Colectiva por la UNAM y Maestro en Relaciones Públicas por el CADEC, distinguido como Maestro Emérito. Es autor y coautor de libros sobre relaciones públicas y comunicación empresarial. Fue electo “El Publirrelacionista del Año 2013”. Preside el Consejo Consultivo de la Red Mundial de Comunicación Organizacional.
Inteligencia artificial (IA) es un término acuñado en los años 50 del siglo pasado. Aunque tiende a identificarse con una única tecnología, en realidad engloba una gran variedad de técnicas y metodologías cuyas bases teóricas se desarrollaron hace más de 70 años.
Según expertos en la materia, la Inteligencia Artificial mejorará la calidad de vida de muchas personas y ayudará a superar retos globales como el cambio climático o las crisis sanitarias. Tendrá un papel cada vez más importante en la vida cotidiana. Se espera que sea clave en el desarrollo de soluciones innovadoras para la automatización de procesos, la mejora de la seguridad y la eficiencia en la industria, así como en la medicina y la educación. Por ello, en todo el mundo se está destinando mucho dinero al desarrollo de sistemas de IA, pues ven en ella enorme potencial económico.
Sin embargo, el desarrollo vertiginoso de la Inteligencia Artificial genera preocupación entre los gobiernos, los cuales ya se están planteando nuevas formas de generar normativas. La preocupación de los gobiernos en torno a su meteórico crecimiento es real y por ello diversos países están poniendo enfoque en generar marcos normativos para impulsar su regulación en diferentes partes del mundo, como Estados Unidos, que recientemente anunció nuevos planes para tratar este asunto.
El gobierno del presidente Joe Biden dio a conocer diversas acciones para el desarrollo responsable de la tecnología. Una de las medidas más relevantes es una inversión de 140 millones de dólares para lanzar siete nuevos Institutos Nacionales de Investigación de IA (NAIR, por sus siglas en inglés).
En octubre del año pasado el gobierno de los Estados Unidos lanzó la “Declaración de derechos de la IA”, un proyecto que buscaba fungir como marco para el uso de la tecnología en los sectores público y privado, fomentando la protección contra la discriminación y la privacidad.
Algunas de las principales empresas que están desarrollando los últimos avances en IA (Google, Microsoft, Nvidia y OpenAI, entre otras), acordaron permitir que sus modelos de lenguaje sean evaluados de forma pública en la DefCon, una de las convenciones de hackers más importantes que se llevó a cabo en Las Vegas.
La urgencia de regular la IA radica en que actualmente vivimos un cambio de paradigma: frente a la IA simbólica, la IA conectivista –una aproximación ‘bottom-up’ que permite aprender o descubrir patrones en los datos sin seguir reglas preestablecidas– se ha abierto camino (tras haber sido conceptualizada también hace décadas) gracias a resultados sorprendentes en campos tan diversos como el reconocimiento de imágenes, el procesamiento de lenguaje tanto hablado como escrito, o el desarrollo de sistemas de recomendación. En definitiva: la IA lleva entre nosotros mucho tiempo, pero es ahora, gracias a la explosión de datos, y al aumento de capacidad de procesamiento a costes decrecientes, cuando las soluciones que se apoyan en ella están viviendo un auge que se ha venido a señalar como la cuarta revolución industrial.
Junto con sus promesas, los algoritmos de inteligencia artificial también traen una serie de riesgos que es necesario tener en cuenta y corregir. ¿Qué medidas toman los científicos de datos para evitar que la información de la que ‘se alimentan’ las máquinas sea incompleta o esté sesgada?
Por otro lado, toda innovación tecnológica tiene pros y contras asociados. Podemos pensar en decenas de ejemplos con perspectiva histórica: desde la dinamita, a los automóviles o la aviación, pasando por la energía nuclear o, más recientemente, la revolución verde en agronomía. Sus aplicaciones nos plantean dilemas éticos: impulsan el progreso, pero también pueden acarrear riesgos inexistentes hasta ahora, o magnificar otros ya identificados. Deben jerarquizarse las aplicaciones concretas en función de su impacto potencial, mediante criterios coherentes y cuantitativos.
El riesgo es que esta herramienta salga de control. Se especula que la IA sin regulación podría superar a la inteligencia humana y provocar la extinción de los seres humanos. Una especie de Frankestein cuyos efectos indeseables no estén siendo calculados y por ello más tarde se torne imposible controlarlos.
Quienes han vaticinado los grandes avances tecnológicos y son su incorporación los cambios en la cotidianidad de los seres humanos, en su tiempo parecían fantasiosos, pero en muchos casos la realidad ha superado a la ficción. Esperemos que no ocurra lo mismo en los casos en que se presagia la desaparición del género humano.