Hace algunos días, Apple anunció una nueva actualización que enloqueció a algunas personas en el mundo: querer revisar las fotografías de los usuarios de dispositivos con iOS 15, iPadOS15, WatchOS 8 y MacOS Monterey.
El último gran anuncio de Apple: revisará las imágenes de tu iPhone en busca de fotografías prohibidas a partir de las próximas actualizaciones por medio de una herramienta de Machine Learning llamada neuralMatch.
El neuralMatch revisará absolutamente todas las imágenes que guardas en dispositivos como tu iPhone y en caso de tener contenido prohibido te denunciará.
Las razones de Apple
La intención de la empresa tecnológica no es otra más que hacer frente a delitos de pederastia y abuso infantil, donde este tipo de imágenes evidencian conductas delictivas contra menores de edad, sin embargo, abre la puerta a dudas sobre la seguridad y privacidad de los usuarios.
Esta nueva herramienta de Apple comenzará a usarse en el iMessage de los dispositivos móviles, en búsqueda de imágenes donde se cometan delitos o abusos contra menores de edad.
El machine learning, detrás de este desarrollo, es uno de los recursos más populares en marketing digital y que servirá para identificar imágenes prohibidas sin desencriptar los mensajes de sus usuarios.
Cuando se encuentren este tipo de imágenes, serán revisadas por supervisores humanos y en caso de dar positivo a contenido delictivo se reportará a las autoridades.
Los problemas
Las nuevas actualizaciones abren una puerta al espionaje dentro de algunos gobiernos, sobre todo en en países con regímenes autoritarios como Rusia, China y diversas naciones de África, según The Economist Democracy Index.
Matthew Green, académico en encriptación en la universidad Johns Hopkins, criticó que lo presentado por Apple, en manos de gobiernos autoritarios como China, puede convertirse en un pésimo antecedente en el manejo de la tecnología.
“Cuando Apple desarrolla una tecnología que es capaz de escanear contenido encriptado, no puede simplemente decir ‘bueno, me pregunto qué haría el gobierno chino con esa tecnología’. No es teórico”, lamentó el especialista y cifras de Newzoo recrudecen su declaración, pues hasta 2017 existían 728 millones de usuarios de productos como el iPhone en el mundo, por lo que el riesgo a la libertad es potencial.
Lo anterior pone en riesgo esta promesa de privacidad que la creadora del año lleva años defendiendo.
Apple responde a críticas y dudas
Ante la ola de preocupaciones acerca de sus nuevas medidas contra el abuso infantil, la empresa de tecnología aseguró le envío un mensaje al mundo desde una nueva respuesta en preguntas frecuentes:
“Seamos claros, esta tecnología se limita a detectar CSAM [material de abuso sexual infantil] almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirlo”, escribe la compañía.
La compañía de Tim Cook aseguró que se tienen todas las medidas necesarias para evitar que sus sistemas se utilicen para detectar otra cosa que no sean imágenes de abuso sexual.
Señaló que su lista de imágenes prohibidas solo funciona con base en los datos e imágenes es proporcionados por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil. Asimismo, indicó que no se agregarán otro tipo de imágenes a esta lista, la cual es la misma para cualquier dispositivo en el mundo para evitar la orientación individual de los usuarios.
Asimismo, la compañía indicó que rechazará toda demanda de los gobiernos por agregar imágenes que no tengan relación con CSAM a la lista de su sistema,
“Hemos enfrentado demandas para construir e implementar cambios exigidos por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas. Continuaremos rechazándolos en el futuro ”, dice.
Sin embargo, The Verge asegura que la compañía ha hecho algunas excepciones en el pasado con tal de no perder un mercado, como distribuir iPhones sin Facetime en países donde las llamadas telefónicas encriptadas están prohibidas y la eliminación de centenas de apps en China.
La respuesta de Apple parece un poco vaga e inconclusa a las decenas de dudas que han surgido sobre cómo funciona esta nueva actualización y si los usuarios están dispuestos a que se revisen sus fotografías, sin saber que esto solo se enfoca a imágenes sexualmente explícitas.
La EFE indicó que la puerta trasera de Apple podría ampliarse con facilidad, pues solo es necesario ampliar los parámetros de aprendizaje automático para añadir nuevo contenido a la búsqueda, lo que sin duda podría resultar en un riesgo para algunos o quizá en varios mal entendidos.
LEER MÁS