Después de recibir abundantes críticas en torno a la privacidad de los usuarios, Apple decidió retrasar los planes para implementar la tecnología de detección de abuso sexual infantil (CSAM, por sus siglas en inglés).

Las nuevas herramientas estaban previstas para ser lanzadas a finales de este año y tenían el objetivo de detectar e informar a las autoridades sobre la circulación de contenido de abuso sexual infantil en las fotografías de iCloud , no obstante, esto generó preocupación entre grupos preocupados por la privacidad de los usuarios.

En términos generales, la tecnología Neural Hash podría ser capaz de escanear imágenes y reconocer contenido conocido por estar relacionado con el abuso sexual infantil. Esto, desde la perspectiva de Apple, tiene la finalidad de proteger a los niños que usan sus productos y servicios bloqueando las fotos potencialmente portadoras de contenido sexual explícito enviadas y recibidas por iMessage.

Apple publicó un comunicado en donde destacaron que estas funciones estaban “destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, además de limitar la propagación de material sobre abuso sexual infantil”, pero desistió por ahora, de implementarlo.