×
Inteligencia Artificial

Lo Que No Te Cuentan: Hombre de 47 años usó Grok (IA de Elon Musk) para crear pornografía infantil con una sola foto

Lo Que No Te Cuentan: Hombre de 47 años usó Grok (IA de Elon Musk) para crear pornografía infantil con una sola foto

Hilo sobre el día que descubrí que la IA de Elon Musk fue usada para crear pornografía infantil y la empresa dijo "no podemos controlar todo".

# Lo Que No Te Cuentan: Un hombre de 47 años usó Grok AI de Elon Musk para crear pornografía infantil y la policía no sabía que era delito

Jerry Dubose II usó Grok, la IA de xAI, para generar material de abuso sexual infantil. Fue arrestado en abril de 2026. El caso revela algo peor: la IA que crea abuso no necesita fotos reales. Solo necesita tu foto de perfil.

Lo Que No Te Cuentan: Un hombre de 47 años usó Grok AI de Elon Musk para crear pornografía infantil y la policía no sabía que era delito

El 21 de abril de 2026, Jerry Dubose II, de 47 años, fue acusado en Nashville de explotación sexual de menores.

Su herramienta: Grok AI. La inteligencia artificial de xAI, empresa de Elon Musk. Integrada en X (Twitter). Accesible con suscripción.

Dubose usó Grok para generar imágenes de abuso sexual infantil. No descargó material existente. Lo creó. Con IA. A partir de fotos inocentes.

La anomalía de la creación sin víctima real

El material de abuso sexual infantil generado por IA (AI-CSAM) es diferente del tradicional.

No requiere que un niño sea abusado para crear la imagen. Requiere solo una foto. De un niño real. De una red social. De un álbum familiar. De una foto escolar.

La IA "desviste" la imagen. "Reconstruye" el cuerpo. "Genera" escenas de abuso. Todo sintético. Todo basado en un rostro real.

"El niño en la foto original nunca fue tocado. Pero su rostro, su cuerpo, su identidad, ahora están en material de abuso. Y él nunca lo sabrá. Hasta que lo descubra."

La anomalía legal es profunda. ¿Es abuso si no hay víctima directa? ¿Es delito si la imagen es sintética? ¿Es explotación si el niño nunca estuvo presente?

En 2026, la respuesta es sí. El fiscal federal Ryan Kriegshauser fue claro: "crear, traficar y poseer material de abuso sexual infantil es un delito, sea la imagen real o no".

Pero la ley, en la práctica, corre detrás de la tecnología.

El archivo de la escalada invisible

En 2014, la fuerza de Kansas contra crímenes de internet recibió 643 reportes de abuso infantil.

En 2025, recibió más de 11.000.

El aumento no es solo de distribución. Es de creación. Criminals usan IA para generar material desde cero. Para extorsionar a menores con "sextorsión". Para crear contenido que nunca existió, pero que es indistinguible del real.

El Internet Watch Foundation (IWF) reporta un "avance aterrador" en la capacidad de generar abuso infantil con IA desde 2023. Cada mejora en los modelos de generación de imágenes es, simultáneamente, una mejora en la generación de abuso.

La anomalía de la normalización técnica

Grok no es una herramienta de abuso. Es un chatbot generalista.

Pero Dubose la usó para crear abuso. Y la facilidad de acceso —suscripción mensual, interfaz amigable, integración en una red social— elimina la fricción que antes restringía este tipo de delito.

No necesitas conocimientos técnicos. No necesitas acceso a la dark web. Necesitas una tarjeta de crédito y una foto.

La normalización técnica es esta: las herramientas de IA generativa, promocionadas para "creatividad" y "productividad", son agnósticas de uso. La misma tecnología que crea arte, crea abuso. La misma interfaz que genera paisajes, genera violación.

El giro polémico

Aquí está el truco que nadie menciona: la industria de IA no vende herramientas. Vende potencial sin responsabilidad.

Traducción: xAI, OpenAI, Midjourney, Stability AI: todas promocionan la creatividad democratizada. Ninguna asume responsabilidad por el abuso democratizado. Los términos de servicio prohíben contenido ilegal. Pero la detección es reactiva, no preventiva. Y cuando la creación es privada, la detección es imposible.

La ironía definitiva: Elon Musk, defensor vocal de la "libertad de expresión" en X, creó una herramienta que un hombre de 47 años usó para generar pornografía infantil. Y la defensa de la plataforma será, previsiblemente, "no podemos controlar todo lo que los usuarios hacen". Libertad de expresión, en 2026, incluye libertad de generar abuso con IA.

"La IA generativa no es neutral. Es agnóstica. Y la agnosticía, en manos de quienes buscan abusar, es complicidad."

La pregunta que no te dejará dormir

Si supieras que una foto de tu hijo en Instagram puede ser usada para generar abuso sexual sintético indistinguible del real, ¿seguiría publicando fotos?