-
Google compartió sus nuevas políticas de uso de IA y excluyó la prohibición en el uso de armas.
-
Según Statista, al menos el 54 por ciento de las empresas en Latinoamérica usan IA.
-
El uso de la IA en algunas empresas lo hacen bajo un reglamento de ética.
La empresa de desarrollo en tecnología, Google, compartió esta semana su última actualización en el uso de la Inteligencia Artificial (IA), la cual por primera vez retiró sus políticas sobre la prohibición de implementación en el uso de armas, por lo que la empresa tiene abierta la posibilidad de poder participar en proyectos similares.
De acuerdo a datos de PWC, al menos el 54 por ciento de las empresas ha comenzado a utilizar la IA en sus procesos de producción.
Empresas como Google llevan años empleando la IA en áreas como el desarrollo de proyectos innovadores. Sin embargo, su avance también ha generado preocupaciones, particularmente en lo que respecta a su uso en ámbitos militares.
Originalmente, las principales compañías tecnológicas establecieron límites sobre cómo debía aplicarse la IA, comprometiéndose a evitar usos que vulneraran derechos humanos o representaran amenazas para la seguridad global.
En los últimos meses pareciera que la IA se comenzó a tomar con otros motivos, ya que OpenAI, firmó una alianza con Anduril, empresa dedicada a la fabricación de drones y misiles, aunque asegura que esta colaboración no contradice su política de desarrollo responsable.
En paralelo, Google ha actualizado su código ético en relación con la IA, eliminando restricciones que prohibían explícitamente su uso en sistemas de armamento y vigilancia.
Este cambio fue reportado por The Washington Post, el mismo medio que semanas atrás reveló documentos internos de Google que detallaban su apoyo a las fuerzas militares de Israel en el conflicto en Gaza, fortaleciendo sus servicios en la nube.
El rastreo de Internet Archive ha permitido constatar la modificación en los principios de la compañía. Hasta hace pocos días, Google mantenía cuatro categorías de aplicaciones vetadas: armamento, vigilancia, tecnologías con potencial de daño generalizado y usos que transgredieran normativas internacionales o derechos humanos.
Frente a estos cuestionamientos, Google ha señalado en su blog oficial que la revisión de sus políticas responde a la creciente adopción de IA en todo el mundo, además de que aseguró que su uso será para prevenir riesgos y para aumentar la seguridad en entorno s complejos.
Uso de la IA por empresas
La implementación de inteligencia artificial en las empresas ha traído grandes beneficios en eficiencia y personalización de servicios, pero también ha generado debates sobre la ética en su uso.
De acuerdo a datos de Exploding Topics, al menos el 82 por ciento de las empresas utilizan la IA para poder experimentar en nuevas utilidades, mientras que de acuerdo a Statista, la menos el 47 por ciento de las empresas en Latinoamérica utilizan IA.
Libro del día: Mercadotecnia Industrial
Para lograr un uso responsable de la IA, muchas empresas han adoptado principios éticos que incluyen la equidad en los algoritmos, la protección de datos y la rendición de cuentas.
Además, la supervisión humana sigue siendo clave para evitar sesgos y asegurar que la tecnología no afecte negativamente a ciertos grupos. La regulación y el cumplimiento de normativas, como el Reglamento General de Protección de Datos (GDPR) en Europa, también juegan un papel fundamental en la construcción de sistemas de IA más confiables.
IBM
Un ejemplo de esto es IBM, que ha desarrollado iniciativas para promover el uso responsable de la IA, asegurando que sus sistemas sean auditables y que las decisiones automatizadas sean explicables. Con este enfoque, la empresa busca fortalecer la confianza en la tecnología y demostrar que la innovación puede ir de la mano con la ética.
Lee también:
Libro del día: Mercadotecnia Industrial
Apple Invites: La aplicación para iPhone que reinventa encuentros
RP: La autenticidad del greenwashing