SuscrĆ­bete a Merca2.0. Haz clic aquĆ­

Amazon despidiĆ³ a su herramienta de inteligencia artificial para reclutamiento por sexista

La incorporaciĆ³n de la Inteligencia Artificial (IA) en el mundo de los negocios toma cada vez mayor relevancia, su implementaciĆ³n en procesos, productos o servicios se vuelve muy comĆŗn, mucho tiene que ver los beneficios y ventajas que ofrece este tipo de tecnologĆ­a.

La incorporaciĆ³n de la Inteligencia Artificial (IA) en el mundo de los negocios toma cada vez mayor relevancia, su implementaciĆ³n en procesos, productos o servicios se vuelve muy comĆŗn, mucho tiene que ver los beneficios y ventajas que ofrece este tipo de tecnologĆ­a.

Hablamos de un mercado con un potencial enorme, sĆ³lo para el cierre de este aƱo se estima que representarĆ” ingresos por alrededor de 7 mil 345 millones de dĆ³lares, pero crecerĆ” hasta superar los 25 mil 995 millones para 2021, de acuerdo con datos proyectados en Statista.

Su presencia, implementaciĆ³n y crecimiento en inversiĆ³n es muy notorio y en campos muy diversos. Uno de ellos apunta hacia los procesos de reclutamiento, al menos asĆ­ lo estaba implementando Amazon, sin embargo, tuvo que ā€˜borrarā€™ esta posibilidad.

De acuerdo con un reporte de Reuters, la compaƱƭa de Seattle contaba con un equipo de ingenierĆ­a en 2014 cuya funciĆ³n serĆ­a desarrollar un programa de machine-learning para revisar currĆ­culums de solicitantes de empleo.

Al parecer lograron programar una herramienta capaz procesar un una gran cantidad de CV, analizarlos, para despuĆ©s arrojar una propuesta de cinco candidatos -considerados- perfectos para su contrataciĆ³n.

Sin embargo, los especialistas encontraron una falla en el programa de IA ya que encontraron que habĆ­a desarrollado parĆ”metros de descarte o devaluaciĆ³n basados en criterios sexistas, de acuerdo con el reporte que cita varios testimonios de personas cercanas al caso.

ĀæCual fue el problema? Sucede que la herramienta fue programada con base patrones y caracterĆ­sticas en currĆ­culums que se habĆ­an recibido a lo largo de una dĆ©cada, cuando ciertamente la mayorĆ­a eran candidatos masculinos. Entonces, el software desarrollĆ³ criterios para arrojar resultados que favorecĆ­an sĆ³lo a un gĆ©nero y no era imparcial.

De acuerdo con la informaciĆ³n divulgada, los ingenieros corrigieron el problema, sin embargo, esto no garantizaba que el mismo sistema no desarrollara nuevos criterios de discriminaciĆ³n basados en gĆ©nero, de ahĆ­ que se haya sellado a la conclusiĆ³n de que ā€œdespedirā€ al programa era la mejor decisiĆ³n.

ObtƩn un mƩs gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografĆ­as.
AnƔlisis profundos y casos de estudio de Ʃxito.
Historial de la revista impresa en formato digital.

Ā”Disfruta de lo mejor del marketing sin costo alguno por un mes!

MĆ”s de 150,000 mercadĆ³logos inscritos en nuestros boletĆ­n de noticias diarias.

Premium

Populares

ƚnete a mĆ”s de 150,000 lectores

Regƭstrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias mƔs importantes de mercadotecnia, publicidad y medios en tu correo.

MƔs de Merca2.0

ArtĆ­culos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.