- La Ley de Inteligencia Artificial de la UE está a punto de ser aprobada y clasifica las aplicaciones de AI en cuatro niveles de riesgo.
- La aprobación de la ley europea marca un hito en la regulación de la inteligencia artificial, que avanza más rápido que las normas en la materia.
- En China, nuevas leyes prohíben el uso de tecnologías de AI generativa para producir noticias falsas y un hombre fue arrestado por hacerlo con ChatGPT.
La Ley de Inteligencia Artificial de la Unión Europea está a un paso de ser aprobada luego de que votara por su conveniencia un comité de legisladores en el Parlamento.
Se trata del primer conjunto de normas occidentales para regular el funcionamiento y límites de programas de inteligencia artificial generativa, como ChatGPT, Bard y otros.
La aprobación marca un hito en la carrera entre los distintos gobiernos para controlar el avance de la inteligencia artificial, que evoluciona mucho más rápido que las normas en la materia.
La norma, conocida como Ley Europea de Inteligencia Artificial, es la primera para sistemas de AI en Occidente. Hay que recordar que China ya ha desarrollado normas referidas al control y la administración de empresas que llevan adelante productos de AI generativa, como ChatGPT.
Las reglas que avanzan en el Parlamento europeo, entre otras cosas, especifican los requisitos que deben cumplir los proveedores de los denominados “modelos básicos”, como ChatGPT y Bard, que se han transformado en una preocupación para los organismos reguladores debido a lo avanzados que se están volviendo.
Esto, además, del temor a que comiencen a impactar de manera masiva en la contratación de trabajadores calificados.
Qué dice la ley de inteligencia artificial de Europa
La Ley de Inteligencia Artificial de la Unión Europea, que aún debe ser aprobada por el pleno en asamblea, clasifica las aplicaciones de AI en 4 niveles de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o nulo.
Las aplicaciones llamadas de “riesgo inaceptable” estarán absolutamente prohibidas de manera predeterminada y no se podrán implementar en el bloque europeo.
En ese grupo se incluyen sistemas de AI que utilizan técnicas subliminales o técnicas de manipulación o engañosas para distorsionar el comportamiento. También sistemas de AI que exploten la vulnerabilidad de individuos o grupos específicos. En ese grupo prohibido, también estarán los sistemas de categorización biométrica basados en atributos o características sensibles y los utilizados para la calificación social o la evaluación de la confiabilidad.
Si bien algunos legisladores habían exigido que las medidas fueran más duras con la idea de que se garantizara que cubrieran a sistemas como el de ChatGPT, pero no fue así.
China y el control de ChatGPT
El avance en Occidente sigue los pasos de China, donde nuevas leyes relacionadas con el deepfake prohíben a los proveedores de servicios y a los usuarios usar esas tecnologías para producir, editar, divulgar y compartir en redes informaciones falsas.
Las normas, que están en vigencia desde enero de 2023, fueron diseñadas especialmente para detener el uso de las tecnologías de inteligencia artificial generativa que apunten a alterar el contenido en línea.
En esta línea, la semana pasada, como contamos en Merca2.0, fue detenido un hombre que vive en la provincia china de Gansu. Se trató de la primera persona de la historia en ser arrestado en ese país por, supuestamente, haber generado una noticia falsa con ChatGPT.
El sospechoso, de apellido Hong, redactó y editó noticias generadas por ChatGPT y las publicó en la plataforma propiedad de Baidu.
Ahora lee:
Pearson y Chegg tienen una grave amenaza llamada ChatGPT
Planifica sus vacaciones con ChatGPT y gastó 19 mil pesos para conocer Europa
Las acciones de esta compañía se desploman al admitir la amenaza de ChatGPT