Una de las razones por las que millones de usuarios en el mundo eligen los dispositivos de Apple es la privacidad . Desde sus comienzos la compañía se ha caracterizado por ser una plataforma cerrada para dar más seguridad a los usuarios. Pero ahora la marca está en medio de la polémica porque planea r evisar las imágenes en los iPhone y en iCloud en busca de pornografía infantil

De acuerdo con información de Financial Times, planea escanear las fotografías almacenadas en su nube y sus teléfonos inteligentes para encontrar imágenes de abuso infantil c on la intención de ayudar a las fuerzas del orden en investigaciones penales.

Sin embargo, la noticia está generando polémica e, incluso, puede abrir la puerta a una de las mayores demandas legales y gubernamentales relacionadas con el manejo de datos de los usuarios.

Según los datos de la Financial Times, el escaneo de las imágene s se realizará mediante un sistema llamado neuralMatch que "alertará proactivamente a un equipo de revisores humanos si cree que se detectan imágenes ilegales , quienes luego se pondrán en contacto con las autoridades si el material puede ser verificado".

Hay que decir que neuralMatch fue entrenado con 200 mil imágenes conocidas de abuso sexual infantil las cuales fueron proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados, es decir que ese contenido servirá como base para comparar las fotografías.

Apple planea revisar las imágenes en los iPhone en busca de pornografía infantil
Apple planea revisar las imágenes en los iPhone en busca de pornografía infantil

¿Cómo funcionará?

La se lanzará primero en los Estados Unidos. Según las personas que conocen los planes de la compañía, cada foto cargada en iCloud en aquel país recibirá un “vale de seguridad”, que indica si es sospechosa o no. "Una vez que un cierto número de fotos se marcan como sospechosas , Apple permitirá que todas las imágenes se descifren y, si aparentemente son ilegales , se transmitirán a las autoridades pertinentes", publicó el Financial Times.

Recordemos que Apple ya compara los archivos de iCloud con las imágenes conocidas de abuso infantil, como lo hace cualquier otro proveedor importante de servicios en la nube. Sin embargo, el sistema neuralMatch iría más allá, permitiendo el acceso central al almacenamiento local.

El profesor y criptógrafo de la Universidad John Hopkins, Matthew Green, expresó su preocupación sobre el sistema en . “Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas. ¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?". Añadió: "Incluso si crees que Apple no permitirá que estas herramientas se utilicen incorrectamente, todavía hay mucho de qué preocuparse. Estos sistemas se basan en una base de datos de 'hash de medios problemáticos' que usted, como consumidor, no puede revisar".

Y es que, aunque como ya mencionamos, el proceso de revisión ya existe, extender el alcance del sistema, a pesar de estar orientado al abuso infantil, podría abrir la puerta a intentar detectar otros delitos , lo que supone una preocupación particular en países como China.

Aun así Apple defiende sus intenciones y dijo que está dispuesta discutir el tema con algunos académicos estadounidenses. Además dijo que planea compartir más sobre el sistema en los próximos días.

La actualización se implementará en el futuro, junto con varias otras características de seguridad para niños, incluidos nuevos que pueden detectar fotos explícitas en los mensajes de los niños.

Finalmente recordemos que Apple tuvo un famoso enfrentamiento con el FBI en 2016 después de que se negó a desbloquear un iPhone perteneciente al hombre detrás del ataque terrorista de San Bernardino. Por lo que ahora se espera que aclara cómo es que su nuevo sistema no va en contra de las políticas de defiende.

Google News

TEMAS RELACIONADOS

Noticias según tus intereses