- España está preocupada por las implicancias de ChatGPT y la seguridad de los datos de las personas.
- Se sospecha que ChatGPT podría estar compartiendo ilegalmente datos de usuarios con terceros.
- Se señalan debilidades en los sistemas de protección y falta de filtros para comprobar edades de usuarios.
Al igual que sucedió a finales de marzo en Italia, otro país europeo, España, también está preocupada por las implicancias de ChatGPT y la seguridad de los datos de las personas.
Con ese argumento, la Agencia Española de Protección de Datos dijo que han comenzado de oficio análisis previos de investigación a la compañía estadounidense OpenAI “por un posible incumplimiento de las normativas españolas”.
La agencia de ese país, según publican este viernes distintos medios españoles, considera que ChatGPT podría estar relevando y entregando a terceros de manera ilegal datos de usuarios.
Además, ofrece debilidades en sus sistemas de protección ante posibles ciberataques y no tiene filtros para comprobar las edades de los usuarios.
Los argumentos son bastante parecidos a los que usó la autoridad equivalente en Italia para bloquear la herramienta de inteligencia artificial regenerativa en ese país.
Además, la agencia española dice en el comunicado que le pidió al Comité Europeo de Protección de Datos que incluya a la plataforma de AI entre los asuntos a tratar en las próximas reuniones plenarias.
La AEPD dice que se necesita enfrentar de manera global el tema por el “impacto sobre los derechos de las personas”. Habla de “acciones armonizadas y coordinadas” a nivel de Europa.
España contra ChatGPT
La semana pasada, el organismo de Italia para la Protección de Datos Personales dijo que había abierto una investigación y que, mientras tanto, iba a bloquear la aplicación ChatGPT.
ChatGPT “no respeta la disciplina de la privacidad”, dijo el Gobierno de ese país en un comunicado.
En el comunicado, el organismo dijo que ChatGPT, el software de mayor difusión entre las diversas alternativas que hay en el mercado de AI y que puede simular conversaciones humanas que casi no se pueden diferenciar de unas reales, sufrió el 19 de marzo la pérdida de una serie de datos sobre usuarios y la información de pago de sus suscriptores.
En la resolución, la agencia italiana argumentó que el bloqueo se produjo por “la ausencia de información para usuarios y para todos los involucrados de quienes recoge datos OpenAI”.
También habló de “falta de bases jurídicas que justifiquen la recolección y conservación masiva de datos personales”.
Días antes, un grupo de abogados de los Estados Unidos le pidieron a la Comisión Federal de Comercio (FTC) que detenga nuevos lanzamientos de ChatGPT argumentando riesgos para la privacidad y seguridad pública.
Los abogados aseguran que GPT no cumple con los estándares de transparencia y responsabilidad de la FTC.
Ahora lee:
Inteligencia Artificial da retoque a primera imagen de agujero negro
El CEO de una Startup revela trucos para crear el CV ideal con ChatGPT