Apple combatirá el contenido de abuso infantil en la nube

La compañía revisará el almacenamiento del teléfono de los usuarios que estén vinculados con iCloud para monitorear y eliminar contenido de abuso sexual infantil además de otorgar un sistema de protección en las opciones de sus dispositivos 

Luis Méndez Zaldívar 

La compañía Apple revisará la biblioteca de fotos de iCloud en línea de sus usuarios en búsqueda de imágenes clasificadas como abuso infantil, lo anunció el día de ayer Reuters.

El sitio Seguridad Infantil – Apple explica que implementará el sistema de protección a través de tres áreas: la aplicación Mensajes utilizará el aprendizaje automático para analizar las imágenes y detectar si es contenido explícito, si es así, advertirá que es contenido sensible, la imagen se verá borrosa y se le asegurará al usuario que está bien si no quiere verla. 

Después los sistemas criptográficos private set intersection realizarán una comparación entre la imagen con los hashtags CSAM (material sobre abuso sexual infantil) sin revelar el resultado, lo enviará a otra tecnología llamada threshold secret sharing que identificará a la cuenta y la deshabilitará, esta tecnología es tan precisa que garantiza un error de entre 1 billon de posibilidades al año. Si el usuario considera errónea la deshabilitación podrá presentar una apelación. 

También te puede interesar: Facebook e Instagram resguardan a menores de edad de anunciantes y adultos 

Por último, las actualizaciones de Siri y Search brindarán información amplia sobre el tema e incluso intervendrán cuando los usuarios intenten buscar datos y temáticas   relacionadas al abuso sexual infantil, esta actualización estará en los dispositivos iOS 15, iPadOS 15, watchOS 8 y macOS Monterey. 

¿Cuál es el problema? 

El sistema de tecnología que implementará Apple requiere de superar un “umbral” específico en número de imágenes con este contenido para que la cuenta llegue a revisión manual “sólo cuando se excede el umbral, la tecnología criptográfica permite a Apple interpretar el contenido de los vales de seguridad asociados con las imágenes CSAM coincidentes. Luego, Apple revisa manualmente cada informe para confirmar que hay una coincidencia”, se lee en la página.  

También te puede interesar: Apple extiende vida útil de versiones anteriores de iPhone 

Además, Julie Cordua, directora ejecutiva de Thorn, que ha creado tecnología para apoyar a funcionarios a cumplir la ley respecto al tráfico sexual, señaló que aproximadamente la mitad del material de abuso sexual está en videos, los cuales el sistema de Apple no verifica hasta que cargan en la nube de la compañía, menciona Reuters. 

Ante esto, la compañía declaró que planea expandir su sistema para cubrir este problema, aunque no especificó cómo.