-
La IA se ha convertido en una de las herramientas más prometedoras para los esquemas de negocio
-
Sin embargo, debido a su método de aprendizaje automático y semi-supervisado, es fácil que surjan sesgos introducidos por seres humanos
-
En este sentido, es crucial un esfuerzo concreto de supervisión para asegurarse que el Machine Learning sea ético e inclusivo
Lentamente, empresas, individuos e instituciones han adoptado el concepto de la Inteligencia Artificial (IA) como parte de su realidad. No solo ha sido ampliamente usada para lidiar con el reto de la moderación de contenido en redes sociales. También es una pieza clave en muchas de las estrategias de personalización. Y tal es su potencial a futuro, que muchas marcas (entre ellas Microsoft) están empezando a invertir agresivamente en su desarrollo para el largo plazo.
Incluso con todo su poder y potencial, hay un problema enorme en el uso de la IA: la presencia de sesgos. Agentes como AI Multiple definen este fenómeno como una “anomalía en el output de los algoritmos de Machine Learning”. Básicamente se usa esta idea para denominar a los prejuicios que este software puede desarrollar, sin malicia alguna, en su funcionamiento. Éstos surgen por omisiones en el proceso de development, o durante el “entrenamiento” del sistema.
Un ejemplo muy sencillo de estos sesgos en la IA se puede ver en el sector del reconocimiento facial. Según el New York Times, la tecnología es imprecisa cuando quiere identificar personas de color o mujeres. Esto, porque la mayor parte de los algoritmos fueron entrenados usando bases de datos con fotografías, predominantemente, de hombres caucásicos y blancos. ¿Hay forma de lidiar con este fenómeno? Según IBM, hay cinco principios que deberían adoptarse:
Reforzar la alfabetización de IA en la sociedad
La mayor parte de las veces, estos sesgos surgen porque muchas de las personas que están involucradas en el desarrollo de este software no están conscientes de sus implicaciones. Es crucial que haya esfuerzos claros para que el grueso de la población entienda los sistemas de Machine Learning, no solo los especialistas en el tema. Esto permitirá que más expertos en temas de equidad puedan involucrarse en la discusión y lograr un development responsable.
Notas relacionadas
IA llega a McDonald’s, pero los clientes no están satisfechos
Requerir evaluaciones en proyectos de alto riesgo
No es lo mismo tener una IA que se encargue de personalizar una experiencia web y aquellos sistemas que otorgan (y bloquean) solicitudes de crédito automáticamente. Es crucial que se establezcan protocolos de monitoreo en la industria que revisen constantemente ciertos tipos de algoritmo. Especialmente los que podrían tener las consecuencias sociales más graves si presentan sesgos, como los que usan las instituciones financieras o de procuración de justicia.
Exigir transparencia en el desarrollo de IA
Uno de los grandes problemas del mercado es que muchas empresas se rehúsan a mostrar cómo funcionan sus algoritmos. Tiene sentido, pues su funcionamiento es, en muchas de las instancias, el secreto de su éxito. Sin embargo, es necesario que las compañías divulguen, al menos, qué factores están considerándose al momento de tomar una decisión sin intervención humana. Esto es, de nuevo, especialmente importante en el caso de proyectos de alto riesgo.
Retroalimentación de consumidores
No hay mejor forma de mejorar la IA que escuchando a aquellas personas que se verán más afectadas por su implementación: el usuario final. En este sentido, es importante que todas las marcas establezcan canales de comunicación bi-direccional con sus audiencias. Así, la gente no solo podrá hacer llegar sus quejas a las marcas sobre cómo desarrollan su software. A la vez, debería ser más sencillo detectar problemas sistemáticos que deben corregirse pronto.
Establecer limitaciones universales y prácticas responsables en IA
A lo largo de los años, se han ido dibujando situaciones donde claramente el uso de este tipo de software es éticamente reprochable. Por ejemplo, el usar el reconocimiento facial para una serie de tareas específicas en la procuración de justicia. Sin embargo, es crucial desarrollar un “reglamento” claro donde se especifiquen estos límites y casos de uso. De esta forma, será más fácil que las marcas se limiten al empleo del Machine Learning con más responsabilidad.