Después de recibir abundantes críticas en torno a la privacidad de los usuarios, Apple decidió retrasar los planes para implementar la tecnología de detección de abuso sexual infantil (CSAM, por sus siglas en inglés).

Las nuevas herramientas estaban previstas para ser lanzadas a finales de este año y tenían el objetivo de detectar e informar a las autoridades sobre la circulación de contenido de abuso sexual infantil en las fotografías de iCloud , no obstante, esto generó preocupación entre grupos preocupados por la privacidad de los usuarios.