Manzana anunciado que comenzará a escanear todas las fotos subidas a iCloud en busca de posible material de abuso sexual infantil (CSAM). Esto ha sido objeto de un gran escrutinio y ha generado cierta indignación, incluso por parte de los empleados de Apple. Esto es lo que hay que saber sobre la nuevo tecnología antes de que se ponga en marcha a finales de este año.
Apple y el escáner CSAM: Las últimas novedades
21 de abril de 2022: El La función de seguridad de las conversaciones para Mensajes llega al Reino Unido ., aunque no se ha establecido un calendario anunciado .
15 de diciembre de 2021: Manzana eliminado referencias al sistema CSAM de su sitio web. Apple dice que el La función CSAM sigue «retrasada» y no cancelado .
14 de diciembre de 2021: Manzana liberado el Función de seguridad en las conversaciones para Mensajes en la actualización oficial de iOS 15.2 . La función CSAM no fue liberada.
10 de noviembre de 2021: El La beta 2 de iOS 15.2 tiene la función de seguridad de las conversaciones para Mensajes, menos controvertida . Se basa en el escaneo de imágenes en el dispositivo, pero no hace coincidir las imágenes con una base de datos conocida y no está habilitada a menos que una cuenta principal la habilite. Esto es diferente de CSAM. Conoce los detalles .
3 de septiembre de 2021: Manzana anunciado que se retrasar el lanzamiento de sus funciones CSAM in iOS 15, iPadOS 15, watchOS 8, and macOS 12 Monterey until later this year. The features will be part of an OS update.
24 de agosto de 2021: Apple ha confirmó a 9to5Mac que ya esscanning iCloud emails for CSAM utilizando la tecnología de comparación de imágenes.
19 de agosto de 2021: Nearly 100 policy and rights groups publicó una carta abierta instando a Apple a abandonar los planes de implantación del sistema in iOS 15.
18 de agosto de 2021: Tras un informe que el sistema NeuralHash en el que se basa la tecnología CSAM de Apple fue falsificado , Apple dijo que el sistema «se comporta como se describe».
13 de agosto de 2021: En una entrevista con Joanna Stern de The Wall Street Journal El vicepresidente senior de Ingeniería de Software, Craig Federighi, dijo que la nueva tecnología de Apple es «ampliamente malinterpretada». Él explicó con más detalle el funcionamiento del sistema como se indica a continuación. Apple también publicó un documento con más detalles sobre las características de seguridad de los mensajes y la función de detección de CSAM.
Lo básico
¿Cuáles son las tecnologías que Apple está desplegando?
Apple desplegará nuevas funciones anti-CSAM en tres áreas: Mensajes, Fotos de iCloud y Siri y Búsqueda. A continuación se explica cómo se implementará cada una de ellas, según Apple.
Mensajes: La aplicación Mensajes utilizará el aprendizaje automático en el dispositivo para advertir a los niños y a los padres sobre el contenido sensible.
Fotos de iCloud: Antes de almacenar una imagen en Fotos de iCloud, se realiza un proceso de cotejo en el dispositivo para esa imagen con los hashes conocidos de CSAM.
Siri y la búsqueda: Siri y Search proporcionarán recursos adicionales para ayudar a los niños y a los padres a mantenerse seguros en línea y a obtener ayuda en situaciones inseguras.
¿Cuándo llegará el sistema?
Apple anunció a principios de septiembre que el sistema no estará disponible en el lanzamiento de otoño de iOS 15, iPadOS 15, watchOS 8 y macOS 12 Monterey. Las funciones estarán disponibles en las actualizaciones del sistema operativo a finales de este año.

Las nuevas herramientas de detección del CSAM llegarán con los nuevos sistemas operativos a finales de este año.
Manzana
¿Por qué se libera ahora el sistema?
En una entrevista con Joanna Stern del Wall Street Journal , Craig Federighi dijo que la razón por la que se lanza en iOS 15 es que «lo hemos resuelto».
Escaneo CSAM
¿La tecnología de escaneo significa que Apple podrá ver mis fotos?
No exactamente. Así es como Apple explica la tecnología: En lugar de escanear las imágenes en la nube, el sistema realiza el cotejo en el dispositivo utilizando una base de datos de hashes de imágenes CSAM conocidas proporcionada por el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC) y otras organizaciones de seguridad infantil. Además, Apple transforma esta base de datos en un conjunto ilegible de hashes que se almacena de forma segura en los dispositivos de los usuarios. Como explica Apple, el sistema busca estrictamente imágenes «específicas y conocidas». Un empleado de Apple sólo verá las fotos que estén etiquetadas con el hash y, aun así, sólo cuando se cumpla un umbral.
Pero Apple está escaneando las fotos de mi dispositivo, ¿verdad?
Yes and no. The system is multi-faceted. For one, Apple says the system does not work for users who have iCloud Photos disabled, though it’s not totally clear if that scanning is only performed on images uploaded to iCloud Photos, or all images are scanned and compared but the resultados of the scan (a hash match or not) are only sent along with the photo when it’s uploaded to iCloud Photos. Federighi said “the cloud does the other half of the algorithm,” so while photos are scanned on the device it requires iCloud to fully work. Federighi emphatically stated that the system is “literally part of the pipeline for storing images in iCloud.”
¿Qué ocurre si el sistema detecta imágenes CSAM?
Dado que el sistema solo funciona con los hashtags de imágenes CSAM proporcionados por el NCMEC, solo informará de las fotos que sean CSAM conocidas en Fotos de iCloud. Si detecta CSAM por encima de un determinado umbral -Federighi dijo que es «algo del orden de 30», Apple llevará a cabo una revisión humana antes de decidir si hacer un informe al NCMEC. Apple dice que no hay una notificación automática a las fuerzas del orden, aunque informará de cualquier caso a las autoridades competentes.
¿Puede el sistema confundir una foto real de mi hijo con el CSAM?
Es extremadamente improbable. Dado que el sistema sólo busca imágenes conocidas, Apple afirma que la probabilidad de que el sistema marque incorrectamente una cuenta determinada es inferior a una entre un billón por año. Y si ocurriera, una revisión humana lo detectaría antes de que se elevara a las autoridades. Además, existe un proceso de apelación para quien considere que su cuenta ha sido marcada y desactivada por error.
Sin embargo, un informe de agosto parece demostrar que el sistema es falible. Usuario de GitHub AsuharietYgva Según se informa, los detalles del sistema NeuralHash que Apple utiliza mientras el usuario dxoigmn que aparentemente afirmaba tener engañó al sistema con dos imágenes diferentes que crearon el mismo hash. En respuesta, Apple defendió el sistema, diciendo a Motherboard que una utilizada «es una versión genérica y no la versión final que se utilizará para la detección de CSAM de Fotos de iCloud.» En un documento que analiza la amenaza a la seguridad , Apple dijo: «El algoritmo NeuralHash [… está] incluido como parte del código del sistema operativo firmado [y] los investigadores de seguridad pueden verificar que se comporta como se describe».
¿Puedo excluirme del escaneo CSAM de Fotos de iCloud?
No, pero puedes desactivar Fotos de iCloud para evitar que la función funcione. No está claro si hacerlo desactivaría por completo el escaneo de fotos en el dispositivo de Apple, pero los resultados de esos escaneos (que coincidan con un hash o no) solo los recibe Apple cuando la imagen se sube a Fotos de iCloud.

Manzana
Mensajes
¿Apple está escaneando todas mis fotos en Mensajes también?
No exactamente. Las medidas de seguridad de Apple en Mensajes están diseñadas para proteger a los niños y sólo están disponibles para las cuentas infantiles configuradas como familias en iCloud.
¿Cómo funciona?
La seguridad de la comunicación en Mensajes es una tecnología completamente diferente a la del escaneo CSAM para Fotos de iCloud. En lugar de utilizar hashtags de imágenes para compararlas con imágenes conocidas de abuso sexual infantil, analiza las imágenes enviadas o recibidas por Mensajes utilizando un algoritmo de aprendizaje automático para cualquier contenido sexualmente explícito. Las imágenes son no compartidos con Apple o cualquier otro organismo, incluido el NCMEC. Se trata de un sistema que los padres pueden habilitar en las cuentas de los niños para darles (y al niño) una advertencia si están a punto de recibir o enviar material sexualmente explícito.
¿Pueden los padres optar por no participar?
Los padres tienen que habilitar específicamente la nueva función de escaneo de imágenes de Mensajes en las cuentas que han configurado para sus hijos, y se puede desactivar en cualquier momento.
¿Seguirán los iMessages encriptados de extremo a extremo?
Yes. Apple says communication safety in Messages doesn’t change the privacy features baked into messages, and Apple never gains access to communications. Furthermore, none of the communications, image evaluation, interventions, or notifications are available to Apple.
¿Qué ocurre si se descubre una imagen sexualmente explícita?
When the parent has this feature enabled for their child’s account and the child sends or receives sexually explicit images, the photo will be blurred and the child will be warned, presented with resources, and reassured it is okay if they do not want to view or send the photo. For accounts of children age 12 and under, parents can set up parental notifications that will be sent if the child confirms and sends or views an image that has been determined to be sexually explicit.
Siri y la búsqueda
¿Qué hay de nuevo en Siri y en la búsqueda?
Apple está mejorando Siri y Search para ayudar a las personas a encontrar recursos para denunciar el CSAM y ampliar la orientación en Siri y Search proporcionando recursos adicionales para ayudar a los niños y a los padres a mantenerse seguros en línea y obtener ayuda en situaciones inseguras. Apple también está actualizando Siri y Search para intervenir cuando los usuarios realicen búsquedas relacionadas con el CSAM. Apple dice que las intervenciones incluirán la explicación a los usuarios de que el interés por este tema es perjudicial y problemático y proporcionará recursos de socios para obtener ayuda con este asunto.
La controversia
So why are people upset?
Aunque la mayoría de la gente está de acuerdo en que el sistema de Apple tiene un alcance adecuadamente limitado, los expertos, los organismos de control y los defensores de la privacidad están preocupados por la potencial para el abuso. Por ejemplo, Edward Snowden, que sacó a la luz los programas de vigilancia mundial de la NSA y vive en el exilio, tuiteó «No importa lo bien intencionado que sea, Apple está desplegando la vigilancia masiva a todo el mundo con esto. No te equivoques: si hoy pueden escanear porno infantil, mañana pueden escanear cualquier cosa». Además, la Electronic Frontier Foundation criticó el sistema y Matthew Green, profesor de criptografía en Johns Hopkins, explicaron el potencial de uso indebido del sistema que utiliza Apple.
A la gente también le preocupa que Apple esté sacrificando la privacidad integrada en el iPhone al utilizar el dispositivo para buscar imágenes CSAM. Aunque muchos otros servicios escanean en busca de imágenes CSAM, el sistema de Apple es único porque utiliza la coincidencia en el dispositivo en lugar de imágenes subidas a la nube.
¿Se puede utilizar el sistema CSAM para escanear otros tipos de imágenes?
Por el momento, no. Apple dice que el sistema sólo está diseñado para buscar imágenes CSAM. Sin embargo, Apple podría teóricamente aumentar la lista de hash para buscar imágenes conocidas relacionadas con otras cosas, como el contenido LGBTQ+, pero ha dicho repetidamente que el sistema sólo está diseñado para CSAM.
¿Apple está analizando otras aplicaciones o servicios?
Apple ha confirmado recientemente que ha estado escaneando los correos electrónicos de iCloud mediante una tecnología de comparación de imágenes en sus servidores. Sin embargo, insiste en que las copias de seguridad y las fotos de iCloud no forman parte de este sistema. Cabe destacar que los correos electrónicos de iCloud no están cifrados en los servidores de Apple, por lo que el escaneo de imágenes es un proceso más sencillo.
¿Y si un gobierno obliga a Apple a buscar otras imágenes?
Apple dice que rechazará tales demandas.

Manzana
¿Exploran otras empresas las imágenes del CSAM?
Sí, la mayoría de los servicios en la nube, incluido Dropbox, Google y Microsoft así como Facebook también tienen sistemas para detectar imágenes CSAM. Todos ellos funcionan descifrando sus imágenes en la nube para escanearlas.
¿Puede la tecnología de los mensajes cometer un error?
Federighi dice que el sistema «es muy difícil» de engañar. Sin embargo, aunque dijo que a Apple «le costó mucho» idear imágenes para engañar al sistema de Mensajes, admitió que no es infalible.
¿Podría bloquearse a Apple para que aplique su sistema de detección CSAM?
Es difícil decirlo, pero es probable que haya batallas legales tanto antes como después de la implantación de las nuevas tecnologías. El 19 de agosto, más de 90 grupos políticos y de derechos publicó una carta abierta instando a Apple a abandonar el sistema: «Aunque estas funciones pretenden proteger a los niños y reducir la difusión de material de abuso sexual infantil, nos preocupa que se utilicen para censurar la expresión protegida, amenazar la privacidad y la seguridad de personas de todo el mundo y tener consecuencias desastrosas para muchos niños», dice la carta.