Apple ha detallado las dos tecnologías que empleará para reducir la distribución de material de abuso sexual infantil en su aplicación Messages y en su servicio en la nube iCloud, ambas anunciadas la semana pasada y diferentes entre sí.
Messages alertará los usuarios de la recepción y el envío de material sexualmente explícito en la nueva característica de Seguridad de la Comunicación. Estará disponible para las cuentas de niños vinculadas al plan ‘En Familia’, y que empleará el análisis mediante aprendizaje automático en el propio dispositivo.
Será una característica opcional, que los padres o tutores deberán habilitar, como explica la compañía en una serie de ‘Preguntas y respuestas’ sobre las nuevas protecciones infantiles que va a implementar. Asegura que no acceden al contenido la comunicación, ni reciben ningún tipo de información de ella.
La tecnología implementada en Messages es diferente de la que Apple va a emplear en iCloud para analizar el material de abuso sexual infantil, que solo funcionará con las fotos que el usuario “elige subir” a este almacenamiento en la nube, no con todas las fotos allí guardadas ni con las que están en el dispositivo.
Apple buscará coincidencias
El sistema buscará coincidencias entre las imágenes que el usuario sube a iCloud Fotos y las que se encuentran en la base de datos de organizaciones policiales o de seguridad infantil. Pero para ello no analizará las imágenes como tal, sino ‘hashes’, un tipo de huella digital.
“Estos ‘hashes’ son cadenas de números que representan imágenes de material de abuso sexual infantil conocidas, pero no es posible leer o convertir esos ‘hashes’ en las imágenes del material de abuso sexual infantil en las que se basan”, explican desde Apple.
Este sistema solo funciona con los ‘hashes’ del material de abuso sexual infantil, ya que según la compañía, está diseñado para evitar que analice cualquier otro tipo de contenido subido a iCloud Fotos, y tampoco admite la adición de imágenes de otro tipo.
Fuente: Bio Bio Chile