- Estados Unidos, Gran Bretaña y 16 países acordaron medidas pioneras para garantizar seguridad en el diseño de inteligencia artificial.
- Aunque no vinculante, el acuerdo destaca la necesidad de priorizar la seguridad en el desarrollo de la IA.
- Con Chile como único representante latinoamericano, el acuerdo refleja la conciencia global sobre los riesgos asociados con la IA.
En un hito para la regulación de la inteligencia artificial (IA), Estados Unidos, Gran Bretaña y otros 16 países se unieron en un acuerdo sin precedentes para garantizar que la IA sea “segura por diseño”.
Este acuerdo, presentado en un documento de 20 páginas este domingo 26 de noviembre, busca establecer directrices internacionales detalladas para la creación y uso seguros de sistemas de IA, marcando un esfuerzo coordinado para prevenir el mal uso de esta tecnología.
Aunque no vinculante, el acuerdo subraya la necesidad de que las empresas diseñen y desplieguen la IA de manera que garantice la seguridad de los usuarios y del público en general.
Jen Easterly, máxima responsable de la Agencia de Seguridad, Infraestructura y Ciberseguridad de Estados Unidos destacó la importancia de priorizar la seguridad desde la fase de diseño, considerando este acuerdo como un hito que va más allá de simplemente ofrecer características atractivas, publica Reuters.
La IA y su diseño
En una declaración conjunta, los 18 países, que incluyen a Alemania, Italia, la República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur, acordaron principios generales, como la monitorización para detectar abusos, la protección de datos contra manipulaciones y la evaluación de proveedores de software.
En efecto, Chile es el único país de América Latina que firmó.
A pesar de no abordar temas controvertidos como el uso apropiado de la IA o la recopilación de datos, el marco propuesto aborda cuestiones clave sobre la seguridad, como la prevención del robo de tecnología de inteligencia artificial.
También incluye recomendaciones para publicar modelos solo después de pruebas de seguridad exhaustivas.
El acuerdo refleja una cada vez mayor conciencia de los riesgos asociados con el desarrollo de la IA y busca equilibrar la innovación con la seguridad.
A medida que la IA se integra más en la sociedad y la industria, las preocupaciones sobre su mal uso, como la manipulación electoral o la pérdida de empleos, han llevado a la comunidad internacional a buscar medidas para guiar su desarrollo y aplicación.
Antecedentes
Europa ya está tomando medidas en materia de regulación de la IA. Francia, Alemania e Italia recientemente acordaron regulaciones que respaldan la “autorregulación obligatoria a través de códigos de conducta” para modelos básicos de IA.
Por el contrario, la administración Biden en Estados Unidos ha enfrentado obstáculos en el Congreso para avanzar en el tema.
La creciente presión internacional para abordar los riesgos de la IA resalta la importancia de establecer normas y directrices globales.
Es que la falta de regulación puede dar lugar a brechas en la seguridad y la ética, creando un entorno propicio para el mal uso de la tecnología.
A medida que la IA continúa transformando la sociedad, es esencial un enfoque equilibrado que fomente la innovación mientras garantiza la seguridad y protección de los derechos.
Ahora lee:
La IA podría redefinir la semana laboral a tres días, según Bill Gates
Movilidad Inteligente: modificando la forma en que nos movemos
Advierten a Facebook y Youtube que deben aplicar sí o sí medidas anti deepfakes