- Las principales empresas de IA se comprometen con la Casa Blanca para garantizar seguridad en sus herramientas antes de su lanzamiento.
- La iniciativa incluye a Google, Microsoft, OpenAI, Amazon, Anthropic, Inflection y Meta.
- Los ejecutivos acordaron medidas como permitir a los consumidores identificar contenido generado por IA y colaborar con expertos independientes para evaluar la seguridad de sus sistemas.
Las principales empresas de inteligencia artificial, incluyendo Google, Microsoft y OpenAI, se unieron en una reunión en la Casa Blanca este viernes para asumir compromisos voluntarios que garanticen la seguridad de las herramientas de inteligencia artificial (IA) antes de sus lanzamientos públicos.
Amazon, Anthropic, Inflection y Meta también se sumaron a esta iniciativa.
Cada una de estas siete empresas acordó una serie de medidas, entre las que se incluye:
- permitir que los consumidores identifiquen contenido generado por IA,
- involucrar a expertos independientes para evaluar la seguridad de las herramientas,
- compartir información con otros actores de la industria y gobiernos
- y permitir que terceros busquen y reporten vulnerabilidades en sus sistemas.
La seguridad en el ámbito de la inteligencia artificial ha ganado relevancia tras el lanzamiento de ChatGPT por parte de OpenAI el año pasado, la herramienta de IA generativa capaz de responder con respuestas creativas y conversacionales.
La preocupación por los riesgos que puede acarrear esta tecnología ha llevado a los líderes de la industria a expresar temores públicos sobre el avance acelerado de la IA.
IA: ¿segura y confiable?
En un esfuerzo por garantizar el desarrollo seguro de la IA sin restringir la innovación, el presidente de los Estados Unidos, Joe Biden, está buscando establecer reglas y estándares en torno a esta tecnología.
Aunque el Congreso está considerando la implementación de normativas, su puesta en práctica podría tomar meses o incluso años debido a la necesidad de una comprensión completa de cómo funciona la tecnología y sus potenciales riesgos, dice CNBC.
De esta forma, los ejecutivos de Amazon Web Services, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI se reunieron en la Casa Blanca este viernes 21 de julio y asumieron estos compromisos.
Además, la Casa Blanca está negociando con otros países para asegurar normas internacionales relacionadas con la regulación de la IA.
La vicepresidenta de Estados Unidos, Kamala Harris, ya había sostenido reuniones previas con directores ejecutivos de empresas de IA y expertos en libertades civiles y laborales para evaluar los desafíos que implica el uso responsable de esta tecnología.
Con estos compromisos asumidos por las principales empresas de inteligencia artificial, se espera avanzar hacia un desarrollo seguro y ético de la IA, mitigando riesgos y garantizando un futuro tecnológico más confiable. ¿Podrá ocurrir eso?
Ahora lee:
Microsoft cobrará U$S 30 por mes por las funciones de inteligencia artificial
Un 42% de las empresas en LATAM ya usan IA en sus procesos
Experto en IA: La inteligencia artificial será la burbuja más grande de todos los tiempos