El uso cada vez mayor de la inteligencia artificial (I.A.) en nuestra vida diaria, ha despertado preocupaciones sobre cómo afecta nuestros derechos. Desde asistentes virtuales, hasta algoritmos que deciden qué noticias vemos o qué productos compramos, la I.A. está moldeando cada vez más nuestras decisiones. Sin duda, su falta de regulación y gobernanza persistentemente pondrá en riesgo la privacidad, transparencia y equidad.
Reflexiones sobre la inteligencia artificial.
En este contexto, es interesante hacer referencia al libro Artificial, La nueva inteligencia y el contorno humano, de Mariano Sigman y Santiago Bilinkis. En su capítulo, “El punto de llegada es un nuevo punto de partida”, los autores reflexionan sobre el camino recorrido para desarrollar máquinas capaces de abstraer, calcular, generar ideas propias y originales, concebir objetos y, en última instancia, conversar. Estas características, ajustadas a la inteligencia artificial, vaya que son propias del ser humano.
Los autores comentan: “Otro rasgo de la inteligencia es justamente cuestionarse sobre la naturaleza misma de la inteligencia”, y parafrasean a Gerry Garbulsky: “No somos lo suficientemente inteligentes como para definir la inteligencia”. Así, no se limita al razonamiento lógico o procesamiento de información, sino que envuelve aspectos emocionales, sociales y físicos.
La Definición de Inteligencia y la I.A.
En la citada obra se expone que Jean Piaget define la inteligencia como “el arte de saber qué hacer cuando no sabemos qué hacer”. Con esta definición en mente, enfrentar a la inteligencia artificial, que es una manifestación humana, requiere la capacidad de encontrar soluciones ante situaciones complejas que no hemos vivido antes. Ante esto, juzgamos que el desafío, reside en establecer códigos de ética, para poder fiscalizar, es decir, crear procesos de revisión, auditoría y vigilancia a detalle, para que esta creación humana, no se convierta en el Frankenstein del nuevo milenio.
En la imagen exponemos a un gran robot con características de “Frankenstein”, simbolizando la inteligencia artificial descontrolada, engrandeciéndose sobre una ciudad. La escena caótica muestra fallos tecnológicos, mientras un botón de “stop” sugiere la necesidad urgente de control.
¿Por qué son Importantes los Comités de Ética en I.A.?
La creación de comités de ética dedicados a la I.A. es crucial para garantizar que el desarrollo tecnológico no atente contra los derechos humanos. Estos comités auditan los sistemas de I.A., evalúan riesgos y proponen acciones correctivas para asegurar un uso ético de la tecnología.
Y ¿qué sucede cuando la I.A. toma decisiones que no podemos entender o controlar? ¿Estamos preparados para enfrentar estas situaciones? Un caso reciente ilustra este reto: empresas tecnológicas que usan I.A. para tomar decisiones de contratación. En algunos casos, los algoritmos han demostrado sesgos contra minorías o mujeres, afectando sus oportunidades laborales. Este tipo de situaciones, entre otros múltiples casos, subraya la importancia de regulación ética y gobernanza que prevengan estos problemas.
En la imagen, diversos expertos alrededor de una mesa discuten sobre la I.A., con un holograma en el centro que representa esta tecnología. Cada persona aporta una perspectiva distinta, en un ambiente de análisis y transparencia.
Colaboración intersectorial en la Guía de Mejores Prácticas.
En México, en el mes de septiembre de 2024, se publicó la Guía de Mejores Prácticas de Comités de Ética en Inteligencia Artificial. Diecisiete actores clave, pertenecientes a los sectores público, privado y social, participaron en su desarrollo. Entre estos: la Secretaría de Economía, PROFECO, el Instituto Nacional de Telecomunicaciones y la Academia Mexicana de Ciberseguridad y Derecho Digital (AMCID).
Abordar los desafíos desde cada sector.
Es importante apuntar que, imprescindiblemente, las acciones de fiscalización de la I.A. deberá ser un esfuerzo conjunto entre los diversos sectores de la sociedad; a continuación hacemos un breve señalamiento.
- Gobierno: Líder en la vigilancia ética, asegurado por políticas públicas, leyes y reglamentos.
- Sector Privado: Creación responsable de sistemas que respondan bajo principios éticos.
- Sector Social: Voz de la comunidad.
- Organizaciones de la Sociedad Civil: Monitoreo del uso de la I.A. y generación de debates sobre su impacto.
- Sector Educativo: Formación ética en todo el proceso educativo.
Esfuerzo mundial de regulación y gobernanza.
Es importante saber que a nivel mundial existe un esfuerzo conjunto para generar las bases de regulación y gobernanza de la I.A. A continuación presentamos información sobre algunas de las instituciones más relevantes a nivel global, que se dedican a establecer políticas públicas, leyes, reglamentos, sistemas y procesos para fortalecer la gobernanza y el uso ético de la inteligencia artificial.
- Organización Internacional de Normalización (ISO). Genera una norma específica para los sistemas de gestión de I.A., la ISO/IEC 42001, enfocada al desarrollo de estándares internacionales para la I.A., incluyendo la gobernanza y el uso ético de la I.A. ISO/IEC JTC 1/SC 42m. Grupos de Interés: Gobiernos, empresas tecnológicas y expertos normativos.
- Observatorio Global de Ética y Gobernanza de la I.A. (UNESCO). Promover el desarrollo y empleo ético de la I.A. a nivel global, con un enfoque en derechos humanos, paz y sostenibilidad. UNESCO. Grupos de Interés: Gobiernos, academia, ONG y Naciones Unidas.
- Foro Económico Mundial. Facilitar el diálogo global sobre la regulación y gobernanza de la I.A., abordando cuestiones éticas, legales y de políticas públicas relacionadas con el impacto de la I.A. WEF AI. Grupos de Interés: Empresas, gobiernos, ONG y academia.
- Organización para la Cooperación y el Desarrollo Económicos (OCDE). Desarrollar políticas y estándares para el uso responsable y confiable de la I.A., incluyendo principios para una I.A., centrada en el ser humano y ética. OCDE AI. Grupos de Interés: Gobiernos miembros, sector privado y academia.
- IEEE (Institute of Electrical and Electronics Engineers). Desarrollo de estándares técnicos y éticos para la I.A., como la serie P7000, que aborda temas éticos como la transparencia, privacidad y sesgo en los sistemas de I.A. IEEE. Grupos de Interés: Ingenieros, gobiernos y empresas tecnológicas.
- Grupo de Expertos en Inteligencia Artificial (AI4People). Crear una estructura ética y legal para la I.A. en Europa y a nivel global, con un enfoque en la transparencia, seguridad y responsabilidad en el uso de I.A. AI4People. Grupos de Interés: Gobiernos europeos, ONG y empresas tecnológicas.
La imagen representa un paisaje futurista que simboliza la interconexión global de instituciones clave en la gobernanza de la inteligencia artificial. Las líneas de datos y los símbolos digitales destacan la colaboración en la creación de normas éticas y regulatorias para un uso responsable de la I.A.
El potencial de la I.A. para transformar la sociedad es inmenso.
Desde mejorar los sistemas de salud hasta optimizar el transporte, sus aplicaciones son innumerables. Sin embargo, si no se despliega un esfuerzo mundial de regulación y gobernanza, sus efectos pueden ser devastadores e irreversibles.
Los comités de ética deben actuar como la brújula que guíe este desarrollo, evitando que se produzcan abusos y garantizando que los beneficios de la I.A. sean compartidos por todos. Con los comités de ética como nuestra brújula, podemos garantizar que la I.A. se convierta en una herramienta para la equidad y el progreso humano, en lugar de un riesgo para nuestros derechos.
Nota: Contenido elaborado con apoyo de ChatGPT. El texto fue examinado gramatical y ortográficamente con Language Tools y hemos inspeccionado con GPTZero en cuanto al porcentaje de la composición con ayuda de I.A.