Coalición pide a Apple que abandone el desarrollo de herramientas de vigilancia en sus productos

Una coalición internacional de más de 90 organizaciones de la sociedad civil se unió en una carta dirigida a Apple, pidiendo que abandone sus planes para desarrollar capacidades de vigilancia en iPhones, iPads y otros productos de la empresa

Alejandro Wong García

Grupos de la sociedad civil como la Red en Defensa de los Derechos Digitales (R3D) de México, y otras 89 organizaciones de países como Alemania, Argentina, Brasil, Canadá, Estados Unidos, Japón, entre otros, escribieron y firmaron una misiva pidiéndole a Apple abandonar los planes que anunció el 5 de agosto de 2021 para permitir capacidades de vigilancia en iPhones, iPads y otros productos, argumentando que se puede utilizar para atentar contra la privacidad de los usuarios.  

También te puede interesar: Nuevas políticas de Apple en iCloud abren la puerta a vigilancia de gobiernos autoritarios

La compañía anunció que los sistemas criptográficos private set intersection realizarán una comparación entre la imagen con los hashtags CSAM (material sobre abuso sexual infantil), propocionados por el Centro Nacional para Niños Desaparecidos y Explotados en Estados Unidos y otras organizaciones de seguridad infantil, posteriormente, sin revelar el resultado, lo enviará a otra tecnología llamada threshold secret sharing que identificará a la cuenta y la deshabilitará.

“Aunque estas herrramientas están destinadas a proteger a los niños y reducir la propagación del abuso sexual infantil y material de pornografía de menores, nos preocupa que se utilicen para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo, y tienen consecuencias desastrosas para muchos niños”, inicia el escrito.

También te puede interesar: Apple combatirá el contenido de abuso infantil en la nube

Según lo que apelan las organizaciones, los algoritmos diseñados para detectar material sexualmente explícito no son muy fiables, son propensos a marcar erróneamente el arte, la información de salud, los recursos educativos, los mensajes de promoción, y otras imágenes, además avisan a la persona que ellos asumen es la encargada del celular, lo que puede resultar peligroso para un niño dentro de una situación de explotación sexual. 

“El sistema que Apple ha desarrollado asume que las cuentas ‘padre’ e ‘hijo’ involucradas en realidad pertenecen a un adulto que es el padre de un niño, y que esas personas tienen una relación sana. Esto puede no ser siempre el caso; un adulto abusivo puede ser el organizador de la cuenta, y las consecuencias de la notificación a los padres podrían poner en peligro la seguridad y el bienestar del niño”, aseguraron. 

También te puede interesar: INAI investiga uso de información personal por parte de plataformas tecnológicas

Una vez que esta capacidad se incorpore a los productos de Apple, la empresa y sus competidores “se enfrentarán a enorme presión, y potencialmente requisitos legales de los gobiernos de todo el mundo para escanear fotos no solo para CSAM, sino también para otras imágenes que un gobierno considere objetables. Esas imágenes pueden ser de abusos a los derechos humanos, protestas políticas, imágenes que las empresas tienen etiquetado como ‘terrorista’ o contenido extremista violento, o incluso imágenes poco favorables para los políticos que presionarán a la empresa para que las busquen”, se puede leer en el texto enviado a Apple. 

Los grupos civiles destacaron que apoyan los esfuerzos para proteger a los niños y se oponen a la proliferación de acciones que los dañen, pero los cambios que Apple ha anunciado los ponen en riesgo, “instamos a Apple a que abandone esos cambios y reafirme el compromiso de la empresa protegiendo a sus usuarios con cifrado de extremo a extremo”.

También pidieron a la corporación consultar con más regularidad a las ONGs para saber el impacto de sus acciones.