-
La IA fue señalada por poner en riesgo la vida de varias personas.
-
43 por ciento de las empresas en MĂ©xico hacen uso de alguna IA.
-
2 mil 500 personas habrĂan utilizado el chatbot de la lĂnea de ayuda, que está habilitada para los trastornos alimenticios.
La Inteligencia Artificial ha llegado a revolucionar a la sociedad. Actualmente, muchas empresas comienzan a considerar a la Inteligencia Artificial como la clave para optimizar su productividad, tal y como lo señala un estudio elaborado por la consultora Ernst & Young, el cual señala que el 89 por ciento de las compañĂas considera que la IA les ayudará a mejorar sus operaciones.
De hecho, la importancia respecto al uso de Inteligencia Artificial ha llegado a tal grado que la Ley de Inteligencia Artificial de la UniĂłn Europea está a un paso de ser aprobada, la cual serĂa el primer conjunto de normas occidentales para regular el funcionamiento y lĂmites de programas de IA.
En MĂ©xico, el 31 por ciento de las empresas utilizan la IA en sus operaciones comerciales. En comparaciĂłn con 2021, las organizaciones tienen un 17 por ciento de ser más propensas al uso de la IA, asĂ como el 43 por ciento de las empresas informĂł que está explorando su uso; un 68 por ciento de profesionales de las TecnologĂas de la InformaciĂłn explora e implanta la IA en el paĂs, esto ha acelerado sus inversiones y despliegue en los Ăşltimos dos años.
IA reemplaza a trabajadores de lĂnea de ayuda
La AsociaciĂłn Nacional de Trastornos de la AlimentaciĂłn de Estados Unidos (NEDA) tomĂł el riesgo de reemplazar a su personal humano por un chatbot similar al ChatGPT, esta medida fue tomada luego de que sus empleados decidieran sindicalizarse, pero el karma hizo lo suyo y sus planes no resultaron como esperaban, pues en lugar de que la IA ayudara al cumplimiento de sus objetivos, terminĂł por dar consejos que pusieron en peligro la vida de las personas.
La IA utilizada se llama Tessa, esta herramienta está diseñada para trabajar problemas de salud mental y prevenir trastornos alimenticios. La activista Sharon Maxwell compartiĂł a travĂ©s de su cuenta de Instagram el chat que mantuvo con la IA, esta le ofreciĂł consejos sobre cĂłmo perder peso, recomendando un dĂ©ficit de 500 a mil calorĂas por dĂa y que se pesara cada semana.
“Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimenticio, no habrĂa recibido ayuda. (…) Si no hubiera recibido ayuda, hoy no estarĂa viva“, escribiĂł Maxwell en su perfil en Instagram.
En primera instancia NEDA respondiĂł que la denuncia era mentira, pero cuando la noticia se viralizĂł tuvieron que rectificarse, pues las capturas de pantalla daban cuenta de las interacciones que las personas tenĂan con el chatbot. “Pudo haber dado informaciĂłn que era dañina… Estamos investigando y hemos eliminado ese programa hasta nuevo aviso”, explicĂł la organizaciĂłn en un comunicado.
Lo ocurrido sucediĂł a una semana de que NEDa anunciara que a partir del 1 de junio la lĂnea atendida por personas dejarĂa de funcionar luego de operar 20 años, siendo sustituida por Tessa. “Un chatbot no sustituye a la empatĂa humana, creemos que esta decisiĂłn causará un daño irreparable a la comunidad de trastornos alimenticios”, advirtiĂł uno de los ex colaboradores.
Por otra parte, una psicĂłloga de nombre Alexis Conason, especializada en trastornos alimentarios tomĂł la iniciativa de probar a Tessa y expuso capturas de pantalla de la conversaciĂłn en su Instagram. “En general, una tasa segura y sostenible de pĂ©rdida de peso es de 1 a 2 libras por semana», decĂa uno de los mensajes. “Validar quĂ© es importante que se pierda peso es apoyar los trastornos alimentarios y fomenta comportamientos desordenados y poco saludables”, detallĂł la terapeuta para Daily Dot.
Más de 2 mil 500 personas interactuarĂłn con esta lĂnea de ayuda; la organizaciĂłn no habĂa recibido quejas, sin embargo, ante la magnitud de la situaciĂłn el chatbot tuvo que ser suspendido de forma temporal, hasta que el error sea corregido, señalĂł la representante de NEDA.
Cabe señalar que Tessa fue desarrollada por un equipo de la facultad de medicina de la Universidad de Washington, el cual fue entrenado para abordar problemas relacionados con la imagen corporal utilizando métodos terapéuticos. Sus creadores cuentan que hay filtros que separan respuestas no deseadas, pero no son suficientes, y ya quedó comprobado.
Al respecto, la OrganizaciĂłn Mundial de la Salud (OMS) advirtiĂł que habĂa que tener cuidado en el uso de chatbots de IA en la atenciĂłn mĂ©dica y agregĂł que los datos usados para configurar este tipo de herramientas pueden estar sesgados y generar informaciĂłn dudosa que puede causar daño a los pacientes.
Ahora lee
Actualiza tus conocimiento con este diplomado en marketing digital de EDEM
Yordi Rosado trae el sabor de Fatburger a su nueva sucursal