Mucho después de su anuncio inicial en agosto, y tras una considerable controversia sobre un componente aún no lanzado, Apple está ampliando al Reino Unido una función del iPhone diseñada para proteger a los niños contra el envío o la recepción de contenido sexual.
La seguridad de las comunicaciones en los mensajes se lanzó finalmente como parte de la actualización puntual de iOS 15.2 en diciembre. Hasta ahora, sin embargo, se ha limitado a los Estados Unidos. The Guardian publicó la noticia de que Apple había anunciado planes para llevar esta función al Reino Unido, aunque el calendario sigue sin estar claro.
Cuando se activa en el dispositivo de un niño, la función utiliza una herramienta de IA en el dispositivo para escanear todas las fotos recibidas a través de Mensajes en busca de desnudos. Si se encuentra alguno, la imagen se difumina y el usuario recibe una advertencia de que puede contener contenido sensible, así como enlaces a recursos útiles. Del mismo modo, la herramienta escanea las fotos enviadas por el niño, y si se detecta algún desnudo se les aconseja que no envíen el material y que se pongan en contacto con un adulto.
«Mensajes analiza los archivos adjuntos de imágenes y determina si una foto contiene desnudos, a la vez que mantiene el cifrado de extremo a extremo de los mensajes», Apple explica . «La función está diseñada para que ninguna indicación de la detección de desnudez salga nunca del dispositivo. Apple no tiene acceso a los mensajes y no se envían notificaciones a los padres ni a nadie más».
Como reflejo del rechazo que ha recibido Apple por parte de los grupos de defensa de la privacidad, la función se ha suavizado con respecto a los planes iniciales. En su concepción original, la función debía notificar automáticamente a los padres si se detectaban desnudos en imágenes enviadas o recibidas por niños menores de 13 años, pero ese controvertido aspecto se ha eliminado. La función ofrece ahora a los niños la posibilidad de enviar un mensaje a un adulto de confianza si así lo desean, independientemente de la decisión de ver la imagen.
Un conjunto de características de seguridad para niños -que también incluía una controvertida herramienta de IA para escanear las fotos subidas a iCloud mediante hashtags y compararlas con una base de datos de material conocido de abuso sexual infantil- estaba previsto que apareciera como parte de la actualización del software iOS 15 del año pasado. Apple retrasó el componente CSAM a finales del año pasado y aún no lo ha implementado.
¿Qué significa esto para mí?
Los lectores de EE.UU. no se ven afectados por esta noticia, ya que la función está activa desde iOS 15.2. Si la Seguridad de las Comunicaciones en Mensajes se expande a un segundo país, podemos deducir que Apple está tranquila con los resultados y es poco probable que dé marcha atrás y la elimine en Estados Unidos. Esta función sólo afecta a las imágenes recibidas en Mensajes y no escanea las fotos almacenadas en la Fototeca de tu hijo.
Los lectores del Reino Unido que tengan hijos pronto tendrán la opción (está desactivada por defecto) de habilitar la función en los teléfonos de sus hijos y, por tanto, activar el escaneo en el dispositivo en busca de contenido potencialmente sexual. Sin embargo, como hemos explicado anteriormente, los resultados de estos escaneos no se compartirán automáticamente con los padres, aunque si usted planea activar la función, sería prudente hacerla parte de una discusión más amplia sobre lo que se debe y no se debe compartir digitalmente.