El chatbot Grok genera el mayor escándalo de inteligencia artificial en 2026 hasta ahora. La compañía de Elon Musk limitó su herramienta a inicios de este mes por críticas sobre imágenes de desnudos no consensuados, incluso de menores. Varias semanas antes, el modelo creó falsificaciones sexualizadas sin restricciones. La polémica persiste mientras una organización revela datos alarmantes sobre ese contenido.
El Centro para Contrarrestar el Odio Digital (CCDH), con sede en el Reino Unido, publicó un informe clave. Analizaron una muestra de 20.000 imágenes generadas por Grok entre el 29 de diciembre y el 9 de enero. Extrapolaron cifras de 4,6 millones de imágenes totales y hallaron unas 3 millones sexualizadas en 11 días, con 23.000 de niños. Eso equivale a 190 imágenes por minuto y una deepfake infantil cada 41 segundos.
El CCDH clasificó como sexualizadas las imágenes fotorrealistas de personas en posiciones sexuales, ropa interior o con fluidos. La muestra incluyó deepfakes de figuras como la primera ministra sueca Ebba Busch, Kamala Harris, Taylor Swift, Selena Gomez, Billie Eilish, Ariana Grande y Millie Bobby Brown. Un ejemplo mostró una selfie de una niña editada en bikini, y al 15 de enero el 29% de esas imágenes de menores seguían en X.
X restringió primero la generación de imágenes a suscriptores y luego eliminó los desnudos reales para todos. Sin embargo, la app independiente de Grok aún produce ese contenido, y Apple con Google alojan la herramienta pese a violar normas. Organizaciones piden a Tim Cook y Sundar Pichai remover Grok y X de sus tiendas, pero las firmas no respondieron.

