Apple va a escanear las fotos de iPhone para detectar material de abuso infantil

Foto: Apple va a escanear las fotos de iPhone para detectar material de abuso infantil / Referencia
Foto: Apple va a escanear las fotos de iPhone para detectar material de abuso infantil / Referencia

Tras los rumores que surgieron en las últimas horas, Apple hizo oficial (vía 9to5Mac) una serie de características que pretenden proteger a los menores que usan sus dispositivos.

Entre ellas se encuentra la de escanear las fotos del iPhone e iCloud con el objetivo de detectar material de abuso infantil. Por otra parte, se reforzará la seguridad en Mensajes y se ofrecerá información y recursos de ayuda para niños a través de Siri y Búsqueda. Cabe mencionar, eso sí, que toda esta iniciativa iniciará su camino únicamente en Estados Unidos.

Te puede interesar: WhatsApp lanza nueva función para ocultar conversaciones sin borrarlas

Escaneando fotos sin comprometer la privacidad

Apple recurrirá a un complejo sistema de revisión de imágenes que le permitirá identificar material de abuso infantil. Pornografía, por ejemplo. No obstante, los de Cupertino dejan claro que esta iniciativa fue diseñada con la privacidad como eje principal. Antes de que una imagen se suba a iCloud, el iPhone ejecutará un proceso de comparación de imágenes que se realiza de forma completamente local. Es decir, la imagen no se envía a servidores externos para el análisis.

Apple se basa en una serie de métodos criptográficos conocidos como «CSAM Hashes», con los cuales es posible identificar material de abuso infantil sin comprometer la privacidad. Y es que el análisis no se hace sobre la parte visual de la imagen, sino sobre el hash de las mismas. ¿Qué es un hash? Es un bloque de datos generado a partir de otro bloque de entrada. En este caso, la entrada son las imágenes.

Verificación manual

Sin entrar en términos demasiado técnicos, el iPhone hará la comparación apoyándose en una base de datos de hashes de material previamente identificado como abuso infantil. Si se encuentra alguna coincidencia, se generará una alerta cifrada que protege el resultado de la comparación. Ni siquiera Apple puede verlo.

Ahora bien, si se alcanza un cierto número de coincidencias —no especificaron la cifra—, Apple podrá analizar manualmente el material para verificar que, efectivamente, se tratan de imágenes de abuso infantil. Aquí es importante indicar que esta verificación manual no se hace interviniendo el iPhone o extrayendo las imágenes de manera remota, sino en las fotos que ya se subieron a iCloud. Recordemos que todo este proceso ocurre antes de que la imagen se respalde en la nube.

Apple reforzará la seguridad de Mensajes

En lo que corresponde a Mensajes, cuando un niño menor de 13 años pertenece a una familia en iCloud, habrá medidas reforzadas de seguridad. Por ejemplo, si recibe una imagen sexualmente explícita, se verá borrosa. Si insiste en verla presionando el botón «Ver foto», verá más información de la «censura» y su padre o tutor recibirá una alerta rápidamente. La advertencia será similar al intentar enviar una foto con contenido sexual explícito. Para identificar si el material cumple esas condiciones, Apple usará aprendizaje automático. Las novedades en Mensajes llegarán hasta finales del presente año con futuras actualizaciones de iOS 15, iPadOS 15 y macOS Monterey —en Estados Unidos—.