Apple detiene planes para el escanear imágenes en iCloud; organizaciones y expertos celebran

El plan de la compañía es usar el escaneo para detectar contenido de abuso sexual infantil, pero se señaló que tiene deficiencias importantes y puede ser fácilmente corrompido

Eduardo Rivas

La compañía multimillonaria de tecnología Apple anunció a través de una actualización en su apartado de seguridad para niños que pospondrá por al menos unos meses los planes anunciados para el escaneo de imágenes en iCloud Photos con el objetivo de detectar material de abuso sexual infantil (CSAM por su sigla en inglés), debido a la presión de organizaciones de la sociedad civil en relación a la tecnología.

La actualización añadida el pasado 3 de septiembre corresponde, según afirma la compañía, “sobre los comentarios de los clientes, grupos de defensa, investigadores y otros” que levantaron la voz cuando la medida fue anunciada a principios de agosto y que indicaron que esta tecnología podría ser más perjudicial que benéfica, al punto en que 90 organizaciones de alrededor del mundo enviaron una carta a la compañía pidiéndole que abandonara sus planes.

También te puede interesar: Apple busca crear un espacio seguro para usuarios infantiles

Los críticos señalaron que, por una parte esta nueva tecnología suele ser inefectiva, marca erróneamente contenidos artísticos, educativos, entre otros como ofensivos o criminales, que si la compañía informa a la persona que asumen es la encargada del celular que se detectó el contenido prohibido puede poner en riesgo a un menor que esté en una situación de abuso y que la empresa podría ser vulnerable a ser utilizada por gobiernos represores para buscar otro tipo de contenido incómodo como activistas, organizaciones terroristas o incluso contenido poco favorable para el propio gobierno, por lo cual “preocupa que se utilicen para censurar el discurso protegido”.

Tomando en cuenta todo esto, la actualización lee: “Anteriormente, anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos y para ayudar a limitar la propagación de material de abuso sexual infantil (…) Hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”.

También te puede interesar: Resultados de la 4T contra la pornografía infantil y el fraude en el ciberespacio

Reacciones ante la decisión de Apple 

Ante esto, diversas organizaciones y personas celebraron la decisión de la compañía, entre ellas, el investigador de ciberseguridad en la Universidad Johns Hopkins, Matthew Green, quien había criticado la medida anteriormente, expresó en un hilo en Twitter: “También estoy muy agradecido con Apple por tomarse un tiempo para pausar su implementación y pensarlo detenidamente”.

El CEO de Epic Games, Tim Sweeney, también se pronunció al respecto: “Gran movimiento de Apple reconsiderar el espionaje de fotos de iCloud. El escaneo de contenido en busca de legalidad pertenece a un contexto de publicación  —donde uno lo comparte con el público— no en el dispositivo de un cliente, y no cuando se almacenan los efectos personales”. 

Por otro lado, organizaciones como Electronic Frontier Foundation (EFF) consideraron que el retraso de la medida no es suficiente y que es imperativo que la compañía abandone completamente la iniciativa, “la empresa debe ir más allá de solo escuchar y abandonar sus planes de poner una puerta trasera en su cifrado por completo”. Asimismo, declararon que su petición para que la compañía abandone sus planes alcanzó 25,000 firmas (27,450 al cierre de esta investigación), sin embargo la compañía no ha revelado más al respecto.