17 de October de 2021

Apple está retrasando el lanzamiento de la función CSAM para realizar mejoras y escuchar comentarios

[ad_1]

Parece que tendremos que esperar un poco más para ver las funciones de seguridad infantil de Apple en acción. La compañía ha anunciado que pospondrá la introducción de esta nueva función después de innumerables comentarios negativos.

El mes pasado, Apple anunció que estaba implementando nuevas funciones de seguridad para niños que estarán disponibles para iOS 15, iPadOS 15 y macOS Monterrey. Estos nuevos cambios permitirían a Cupertino escanear las fotos de los usuarios en la biblioteca de iCloud y en iMessages para buscar contenido que pudiera indicar un posible abuso infantil. Ahora Apple ha declarado que estos escaneos solo se realizarían en el dispositivo, pero eso no ha impedido que los usuarios de Apple y los investigadores de seguridad se preocupen.

Desde entonces, Apple ha estado en el ojo de la tormenta. Ha recibido muchas reacciones negativas por parte de los investigadores de seguridad. Y también se ha confirmado que la compañía ha estado escaneando iCloud Mail en busca de contenido CSAM y otros datos desde 2019.
“Apple se compromete a proteger a los niños en todo nuestro ecosistema, dondequiera que se utilicen nuestros productos, y continuamos apoyando la innovación en esta área. Hemos desarrollado medidas de protección sólidas en todos los niveles de nuestra plataforma de software y en toda nuestra cadena de suministro. Como parte de este compromiso, Apple utiliza tecnología de coincidencia de imágenes para encontrar y denunciar la explotación infantil. Al igual que los filtros de correo no deseado en el correo electrónico, nuestros sistemas utilizan firmas electrónicas para detectar sospechas de explotación infantil. Validamos cada partido con una calificación individual. Las cuentas con contenido relacionado con la explotación infantil violan nuestros Términos de uso y se inhabilitarán todas las cuentas que encontremos con este material “.

Ahora, Apple parece creer que la mejor manera de hacerlo es suspender esta nueva función, ya que la compañía ha recibido comentarios de clientes, organizaciones sin fines de lucro y partes interesadas, investigadores y otros. La idea es darle a Apple más tiempo para mejorar la forma en que funciona esta nueva función y evitar más problemas.

“El mes pasado anunciamos planes de funciones para ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y para limitar la distribución de material de abuso sexual infantil. Basándonos en los comentarios de los clientes, las partes interesadas, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar comentarios y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica “.

Ahora todo lo que tenemos que hacer es esperar y ver cuándo se implementará esta nueva función, ya que aparentemente Apple decidió incluirla en futuras actualizaciones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.

Fuente MacRumors


Samuel Martinez

Una ex maestra bilingüe que dejó las aulas para unirse al equipo de Pocketnow como editora de noticias y creadora de contenido para la audiencia española. Artista por naturaleza que disfruta de los videojuegos, las guitarras, los muñecos de acción, la cocina, la pintura, el dibujo y la buena música.



[ad_2]