Noticias

Apple anuncia herramientas para detectar imágenes de pornografía infantil en sus iPhones

Apple presentó recientemente dos nuevas herramientas destinadas a combatir la pornografía infantil.

La primera será en su aplicación de mensajes y la segunda, en su servicio en la nube iCloud.

“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, dijo la compañía.

Así, Messages alertará los usuarios de la recepción y el envío de material sexualmente explícito en la nueva característica de Seguridad de la Comunicación.

Estará disponible para las cuentas de niños vinculadas al plan ‘En Familia’, y empleará el análisis mediante aprendizaje automático en el propio dispositivo.

Será una característica opcional, que los padres o tutores deberán habilitar. Y la compañía asegura que no accederán al contenido de la comunicación, ni recibirán ningún tipo de información de ella.

Apple subraya que la encriptación de extremo a extremo se mantendrá. “Si la característica se ha habilitado para la cuenta del niño, el dispositivo evaluará las imágenes en Messages y presentará una intervención si se determina que la imagen es sexualmente explícita”, explica la compañía.

Los padres o tutores recibirán, además, una notificación (también opcional) cada vez que el niño envíe o reciba una imagen con contenido sexual explícito, pero esto ocurre después de que el niño reciba una advertencia en la que se informa sobre que si procede a ver dicha imagen, sus padres serán notificados.

Buscando coincidencias

La tecnología implementada en Messages será diferente a la empleada en iCloud para analizar el material de abuso sexual infantil, que solo funcionará con las fotos que el usuario “elige subir” a este almacenamiento en la nube. No con todas las fotos allí guardadas ni con las que están en el dispositivo.

El sistema buscará coincidencias entre las imágenes que el usuario sube a iCloud Fotos y las que se encuentran en la base de datos de organizaciones policiales o de seguridad infantil. Pero para ello no analizará las imágenes como tal, sino ‘hashes’, un tipo de huella digital.

“Utilizando nuevas aplicaciones de criptografía, Apple puede utilizar estos ‘hashes’ para obtener información únicamente sobre las cuentas de iCloud Fotos que almacenan colecciones de fotos que coinciden con estas imágenes de material de abuso sexual infantil conocidas y, luego, solo puede obtener información sobre las fotos que se conocen como material de abuso sexual infantil, sin conocer ni ver otras fotos”.

Este sistema solo funciona con los ‘hashes’ del material de abuso sexual infantil, ya que según la compañía, está diseñado para evitar que analice cualquier otro tipo de contenido subido a iCloud Fotos.

Estas herramientas estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos en iPhone, iPad, iWatch e iMac.