Apple retrasa la controvertida función de 'seguridad infantil' después de la protesta de privacidad


Apple está retrasando un controvertido plan para escanear las fotos de los usuarios en busca de pornografía infantil después de la protesta generalizada de los defensores de la privacidad y las libertades civiles.

La herramienta, llamada "neuralMatch", está diseñada para escanear imágenes en los dispositivos de los usuarios de Apple antes de que se carguen en iCloud. La compañía también dijo que planeaba escanear los mensajes cifrados de los usuarios en busca de pornografía infantil.

Después de que Apple anunció el esfuerzo en agosto , los defensores de la privacidad respondieron a la compañía.

La Electronic Frontier Foundation acumuló más de 25.000 firmas en una petición contra la herramienta, mientras que la Unión Estadounidense de Libertades Civiles dijo en una carta que la herramienta "censuraría el discurso protegido, amenazaría la privacidad y la seguridad de las personas en todo el mundo y tendría consecuencias desastrosas". consecuencias para muchos niños ".

Los críticos dicen que la herramienta podría ser fácilmente utilizada indebidamente por gobiernos represivos para rastrear y castigar a los usuarios por todo tipo de contenido, no solo por pornografía infantil. Algunos han señalado la relación aparentemente complaciente de Apple con el gobierno chino como evidencia de que la compañía permitiría que se utilizara la herramienta.

Apple ha dicho que la herramienta solo marcará imágenes que ya estén en una base de datos de pornografía infantil conocida.
Apple ha dicho que la herramienta solo marcará imágenes que ya estén en una base de datos de pornografía infantil conocida.
manzana

Ahora, Apple parece estar escuchando a sus críticos.

"El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil", dijo Apple en un comunicado a varios medios de comunicación. "Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica".

No está claro cuándo la compañía planea lanzar las funciones o qué cambios se realizarán.

Grupos como Electric Frontier Foundation y American Civil Liberties Union condenaron la medida de Apple.
Grupos como Electric Frontier Foundation y American Civil Liberties Union condenaron la medida de Apple.
manzana

Apple ha dicho que la herramienta solo marcará las imágenes que ya están en una base de datos de pornografía infantil conocida, lo que significa que los padres que toman fotos de sus hijos bañándose no serán marcados, por ejemplo.