Apple utilizaría un algoritmo de ‘hash’ neuronal para detectar contenidos ilegales en los iPhone sin afectar la privacidad de los usuarios.
Apple va a anunciar nuevas funciones de identificación de fotos que utilizarán algoritmos hash para comparar el contenido de las fotos de la carpeta de imágenes de los usuarios con materiales conocidos de abuso infantil, como la pornografía infantil.
El sistema de Apple se implantará en el cliente -en el dispositivo del usuario- en nombre de la privacidad, de modo que el iPhone descargará un conjunto de huellas dactilares que representan el contenido ilegal y luego cotejará cada foto del archivo del usuario con esa lista. Es de suponer que cualquier coincidencia se notificaría para su revisión por parte de personas.
Apple dijo anteriormente que emplea técnicas de hash cuando las fotos se suben a iCloud. Este nuevo sistema se implementará en el dispositivo del usuario del cliente. Apple aún no ha anunciado oficialmente esta nueva iniciativa.
A alto nivel, este tipo de sistema es similar a las funciones de aprendizaje automático para la identificación de objetos y escenas que ya funcionan en Apple Photos. El análisis se realiza en el dispositivo, y los usuarios pueden aprovechar una mejor funcionalidad de búsqueda.
Sin embargo, el experto en criptografía y seguridad Matthew Green señala que las implicaciones de esta función son complicadas. Los algoritmos de hashing no son infalibles y pueden dar lugar a falsos positivos. Si Apple permite que los gobiernos controlen la base de datos de contenido de huellas digitales, tal vez podrían utilizar el sistema para detectar imágenes de cosas distintas al contenido infantil claramente ilegal, como por ejemplo para reprimir el activismo político.
Sin embargo, hay que tener en cuenta que, de todas formas, todas las fotos que se suben a Fotos de iCloud para la copia de seguridad y la sincronización no se almacenan cifradas de extremo a extremo. Las fotos se almacenan de forma encriptada en las granjas de servidores de Apple, pero las claves para desencriptarlas también son propiedad de Apple. Esto significa que las fuerzas del orden pueden citar a Apple y ver todas las fotos subidas por un usuario. Esto no es inusual, todos los servicios fotográficos de terceros funcionan así.
Es posible que en el futuro Apple ponga en marcha sistemas similares para escanear contenidos en el lado del cliente, que luego se almacenarían en un servidor de forma cifrada de extremo a extremo. Muchos gobiernos han hecho campaña a favor de un sistema de este tipo de aplicaciones de mensajería privada E2E como iMessage y WhatsApp, ya que les preocupa que el creciente cambio a las comunicaciones cifradas dificulte a las fuerzas de seguridad la localización y persecución de los casos de abuso infantil.