-
OpenAI lanzó GPT-4o en mayo de este año y ha publicado un informe extenso detallando las medidas de seguridad y la evaluación de riesgos asociada con el modelo.
-
La empresa clasifica el nivel de riesgo asociado con GPT-4o como “moderado”.
-
Se anticiparon problemas comunes en herramientas de IA, como la creación de clones de voz no autorizados, contenido inapropiado, y el uso indebido de material protegido por derechos de autor.
OpenAI ha dado a conocer las estrategias de seguridad que fueron implementadas en su nuevo modelo de lenguaje, GPT-4o, que salió al mercado en mayo de este año.
Y es que antes de lanzar GPT-4o, OpenAI llevó a cabo un exhaustivo análisis de riesgos con la ayuda de un equipo externo de expertos en seguridad. De hecho, los especialistas se enfocaron en identificar posibles fallos en el sistema, anticipando problemas que podrían surgir con la herramienta, como la generación no autorizada de clones de voz, la creación de contenido inapropiado o la utilización indebida de material con derechos de autor.
En ese sentido, está claro que la Inteligencia Artificial (IA), se destaca entre las tendencias de tecnología para este 2024, pues durante el año pasado este sector presentó un crecimiento de por lo menos un 20,4 por ciento, logrando una derrama económica de poco más de 16 mil 170 millones de dólares, cifra que se superó para finales del año pasado en casi un 22 por ciento.
Según los datos del estudio “Artificial Intelligence Index Report 2023”, publicado por la Universidad de Stanford, Estados Unidos es el principal mercado del mundo que ha invertido en inteligencia artificial entre 2013 y 2022 ya que empresas estadounidenses han destinado alrededor de 248.900 millones de dólares en inversiones privadas de este sector y es que es necesario tener en cuenta que la mayoría de las empresas líderes en tecnología, como Google, Amazon, Microsoft o IBM, tienen su sede en los Estados Unidos, por lo que se prevé que este país continúe siendo el líder a nivel global.
OpenAI revela el trabajo de seguridad antes del lanzamiento de GPT-4o
Durante varios meses, la compañía sometió a GPT-4o a rigurosas pruebas en escenarios hipotéticos, como la propagación de información errónea a gran escala y la posibilidad de que el modelo fuera manipulado por entidades maliciosas. La creciente inquietud entre usuarios y analistas sobre la seguridad de la inteligencia artificial ha impulsado a OpenAI a aumentar la transparencia en sus procesos.
El documento que fue recientemente publicado, tres meses después del lanzamiento de GPT-4o, destaca que, aunque se han tomado precauciones, el riesgo asociado con el modelo se mantiene en un nivel moderado. Los análisis han considerado factores como el impacto en la ciberseguridad, el potencial de generar amenazas biológicas, el poder de persuasión del modelo, y su grado de autonomía.
“Los riesgos potenciales del modelo se mitigaron mediante una combinación de métodos. Entrenamos el modelo para que se adhiriera a un comportamiento que redujera el riesgo mediante métodos posteriores al entrenamiento y también integramos clasificadores para bloquear generaciones específicas como parte del sistema implementado”, se lee en el informe.
“Entrenamos a GPT-4o para que rechace solicitudes de contenido protegido por derechos de autor, incluido el audio, de acuerdo con nuestras prácticas más generales. Para tener en cuenta la modalidad de audio de GPT-4o, también actualizamos ciertos filtros basados en texto para que funcionen en conversaciones de audio, creamos filtros para detectar y bloquear salidas que contengan música y, para nuestra versión alfa limitada del modo de voz avanzado de ChatGPT, le indicamos al modelo que no cante en absoluto. Tenemos la intención de realizar un seguimiento de la eficacia de estas mitigaciones y refinarlas con el tiempo”.
La creciente transparencia de OpenAI en este proceso es un paso positivo hacia la construcción de confianza con usuarios y analistas, destacando la importancia de abordar los desafíos asociados con la inteligencia artificial avanzada.