23 de January de 2022

EFF le pide a Apple que detenga por completo su función de escaneo CSAM

[ad_1]

Tras la reacción que siguió al anuncio de que Apple lanzaría una función de escaneo CSAM que escanearía las fotos de sus usuarios, la compañía anunció que pospondría el lanzamiento. Originalmente, se suponía que la función se lanzaría junto con iOS 15, pero desde entonces se pospuso.

Sin embargo, parece que el retraso no es lo suficientemente bueno para algunos. Desde entonces, Electronic Frontier Foundation ha escrito en su blog pidiendo a la compañía que finalice la función por completo. Ahora debe tenerse en cuenta que nadie está en contra de escanear CSAM. De hecho, los planes de Apple son en realidad algo bueno que puede ayudar en la lucha contra las personas o grupos que distribuyen dicho contenido.

El problema con esto, sin embargo, es que si Apple pudiera escanear sus fotos en busca de contenido CSAM, ¿qué evitaría que los gobiernos ingresen sus propios hashes que escanearían en busca de otras cosas? Se han presentado argumentos en los que algunos temen que la herramienta pueda ser mal utilizada para buscar otro tipo de imágenes que puedan usarse para identificar a la oposición política, disidentes, grupos minoritarios y más.

La EFF señala que es bueno que Apple esté escuchando las preocupaciones del público, pero aún cree que es la forma correcta de abandonar finalmente sus planes.

“EFF está entusiasmada de que Apple esté escuchando las preocupaciones de los clientes, investigadores, organizaciones de derechos civiles, activistas de derechos humanos, personas LGBTQ, líderes juveniles y otros grupos sobre los peligros que plantean sus herramientas de escaneo telefónico. Pero la compañía tiene que ir más allá de simplemente escuchar y abandonar sus planes para agregar una puerta trasera a su cifrado “.

Archivado en Apple> General. Lea más sobre la ley y la protección de datos. Fuente: eff.org

[ad_2]