- Los gobiernos están avanzando en la regulación de la inteligencia artificial, lo que podría afectar a empresas, marcas y personas que la utilizan.
- Europa lidera los esfuerzos con la aprobación de una Ley de IA que impone límites en su uso, mientras que Estados Unidos también considera medidas regulatorias, aunque el progreso ha sido más lento.
- Los líderes de la industria de la IA están instando a la aprobación de leyes y la creación de agencias para supervisar la IA, pero hay divergencias.
En todo el mundo, los gobiernos están avanzando en planes para regular la inteligencia artificial (IA), una tecnología que en los últimos meses (sí, ¡meses!) ha experimentado algo que podría llamarse como “salto cuántico” en términos de sofisticación y, sobre todo, impacto social.
Si bien aún se encuentra en sus primeras etapas, tales reglas prospectivas podrían afectar no solo a las poderosas empresas tecnológicas que construyen y comercializan la inteligencia artificial en sus productos y servicios, sino también a las marcas y las personas que la utilizan.
Europa ha dado los mayores pasos en los esfuerzos por establecer nuevas regulaciones de IA.
El miércoles 14 de junio, la Unión Europea aprobó un borrador de su Ley de IA, una norma destinada a imponer límites en el uso de la IA, en particular el software de reconocimiento facial, y para hacer cumplir la transparencia de las empresas de IA.
Se espera que una versión final de la ley se apruebe a finales de este año. Aunque hay que tener en cuenta que falta tanto tiempo para finales de 2023 en términos de avances en IA, que quizás ya sea muy tarde.
El progreso ha sido un poco más lento en los Estados Unidos (imagínate cómo será de lento en América Latina). Aún así, tanto el sector público como el privado del país que gobierna Joe Biden están comenzando a adoptar la idea de regular la IA.
En octubre de 2022, poco antes del lanzamiento de ChatGPT, el modelo de IA de generación de texto que ha sido en gran parte responsable de desencadenar la conversación global actual sobre la necesidad de salvaguardas de IA, la Casa Blanca publicó su “Plan para una Declaración de Derechos de IA”.
Se trata de un documento redactado en un esfuerzo por “guiar el diseño, uso e implementación de sistemas automatizados para proteger al público estadounidense en la era de la inteligencia artificial”.
Si eres estudiante de marketing, debes saber que no ha avanzado demasiado.
Qué deben saber los estudiantes de marketing sobre a la regulación de la IA
Algunos líderes de la industria de la IA han comenzado a instar abiertamente a los gobiernos a aprobar nuevas leyes para imponer barreras a la IA.
El mes pasado, por ejemplo, el director ejecutivo de OpenAI (la empresa respaldada por Microsoft detrás de ChatGPT), Sam Altman, testificó ante el Congreso y les dijo a los legisladores que “si [la inteligencia artificial] sale mal, puede salir bastante mal”, y que su empresa estaba comprometida “a trabajar con el gobierno para evitar que eso suceda”.
En mayo, Altman y una cohorte de otros líderes de AI firmaron una carta abierta en la que afirmaban que AI representa un “riesgo existencial para la humanidad” y que mitigarlo “debería ser una prioridad global junto con otros riesgos a escala social, como pandemias y problemas nucleares y guerras”. Lo publicamos en Merca2.0.
En un artículo de opinión publicado en The New York Times, el autor e historiador Yuval Noah Harari, argumentó que la incapacidad actual de la sociedad global para regular o controlar los impactos psicológicamente dañinos y políticamente divisivos de IA significa malas noticias para la nueva ola de modelos de IA más avanzados como ChatGPT.
“Las redes sociales fueron el primer contacto entre la IA y la humanidad, y la humanidad se perdió”, escribió el autor. “El primer contacto nos ha dado el sabor amargo de lo que vendrá”.
EE.UU: divergencias en cómo abordar la regulación de IA
Altman (OpenAI) aboga por la formación de una nueva agencia gubernamental dedicada específicamente a la supervisión de la IA.
La profesora de derecho e ingeniería de la Universidad de Florida, Barbara Evans, por el contrario, dice que la creación de nuevas agencias reguladoras “requiere un nivel de consenso que probablemente no se pueda lograr en el actual entorno político”.
Pero “incluso si hubiera un consenso”, argumenta Evans, “formar un solo organismo de supervisión de IA probablemente no sea una buena idea”.
“Los legisladores y la gente tienden a hablar de la ‘IA’ como si fuera un fenómeno único y unificado”, dice. “En realidad, ‘IA’ se refiere a miles de herramientas informáticas que se implementarán en una amplia variedad de entornos diferentes, cada uno de los cuales presenta diferentes riesgos y ofrece diferentes beneficios a la sociedad”.
Como resultado, según Evans, la regulación gubernamental de la IA “debe adaptarse a la configuración precisa donde se implementa la IA”.
En lugar de una sola agencia centrada en la IA, Evans dice que puede ser más efectivo “hacer que todas las agencias federales de EE. UU. actuales supervisen el uso de IA dentro de las industrias específicas que ya regulan; y, a partir de ahí, desarrollar instrucciones claras sobre quién está haciendo qué y cómo compartir responsabilidades entre ellos”.
Ahora lee:
Bud Light dona dinero a las compañías LGBTQ+ para calmar las críticas
Cannes Lions 2023: en el festival de la publicidad competirán 26.992 trabajos