Lo que no te cuentan: Cómo DeepSeek V4 Está Cambiando el Precio de la IA

Hilo sobre el día que China lanzó un modelo de IA de 1,6 billones de parámetros por $1,74 y nadie supo si era verdad. Pero todo el mundo lo descargó.
# Todo es mentira: DeepSeek dice que su IA de 1,6 billones de parámetros supera a Google y Anthropic. La prueba real no existe.
China lanzó el modelo open source más grande de la historia. 1,6 billones de parámetros. 85% más barato que la competencia. Los benchmarks son internos. Y Occidente no sabe si aplaudir o bloquear.
Todo es mentira: DeepSeek dice que su IA de 1,6 billones de parámetros supera a Google y Anthropic. La prueba real no existe.
DeepSeek lanzó el 24 de abril de 2026 su V4 Preview.
Dos modelos. Uno masivo. Otro ligero. Ambos open source.
DeepSeek-V4-Pro: 1,6 billones de parámetros totales, 49.000 millones activos. El mayor modelo open weight disponible, superando a Kimi K 2.6 de Moonshot AI (1,1 billón) y duplicando a DeepSeek V3.2 (671.000 millones).
DeepSeek-V4-Flash: 284.000 millones de parámetros totales, 13.000 millones activos.
Ambos con ventana de contexto de 1 millón de tokens.
Ambos bajo licencia MIT.
Y ambos con un detalle que nadie menciona: los benchmarks que los coronan los publicó DeepSeek.
El modelo que no necesita permiso
DeepSeek V4 no es solo grande. Es estratégico.
La arquitectura Mixture of Experts activa solo una fracción de parámetros por tarea. Eso reduce los costes de inferencia drásticamente. Pero la cifra total —1,6 billones— impresiona en titulares.
Y los titulares importan.
"DeepSeek no compite en eficiencia. Compite en cifras que asustan a inversores y seducen a desarrolladores."
El modelo soporta tres modos de razonamiento: Non-think (rápido, sin cadena de pensamiento), Think High (razonamiento explícito) y Think Max (esfuerzo máximo, requiere 384K tokens de contexto).
La novedad real no es el tamaño. Es el diseño para tareas agénticas: coding, tool calls, contextos largos. DeepSeek integra V4 con Claude Code, OpenClaw y OpenCode.
Pero hay una limitación que los benchmarks ocultan: solo procesa texto. No audio, no vídeo, no imágenes. Mientras Google, OpenAI y Anthropic ofrecen multimodalidad, DeepSeek apuesta todo a una sola carta.
La guerra de los números que nadie verifica
DeepSeek publicó benchmarks internos que sitúan V4-Pro-Max por encima de GPT-5.2 y Gemini 3.0 Pro en razonamiento. "Comparable a GPT-5.4" en coding.
Pero en leaderboards independientes como Arena y Artificial Analysis, V4 aún está por detrás de los modelos frontier.
TechCrunch señala una "trayectoria de desarrollo que se queda 3-6 meses por detrás del estado del arte".
La brecha no es técnica. Es de confianza.
Cuando OpenAI publica una cifra, la comunidad la audita. Cuando DeepSeek la publica, la comunidad la cita. La diferencia es abismal.
Y sin embargo, los medios españoles tradujeron los benchmarks de DeepSeek como verdad. Los inversores reaccionaron. El mercado se movió.
El precio que no tiene competencia
Aquí está el dato que sí importa.
DeepSeek V4 Pro cuesta $1,74 por millón de tokens de entrada y $3,48 de salida.
GPT-5.5 cuesta $5 de entrada y $30 de salida.
Claude Opus 4.7 cuesta $5 de entrada y $25 de salida.
Gemini 3.1 Pro cuesta $2 de entrada y $12 de salida.
Una tarea que cuesta $5,22 con DeepSeek cuesta $35 con GPT-5.5. Un 85 % menos.
V4 Flash es aún más agresivo: $0,14 por millón de entrada, $0,28 de salida. Menos que GPT-5.4 Nano, Gemini 3.1 Flash y Claude Haiku 4.5.
Esa diferencia no es descuento. Es destrucción del mercado.
Las startups no eligen DeepSeek por mejor. Eligen DeepSeek porque pueden permitírselo. Y cuando el 90 % de la calidad cuesta el 2 % del precio, el 10 % restante deja de importar.
El contexto que envenena el lanzamiento
El 23 de abril de 2026, un día antes del lanzamiento, la Casa Blanca acusó a China de robar propiedad intelectual de laboratorios americanos "a escala industrial" usando miles de cuentas proxy.
DeepSeek había sido previamente acusado por Anthropic y OpenAI de "destilación" —copiar sus modelos— para crear los suyos.
El timing no es casual. Es geopolítica con fecha de caducidad.
China responde a las acusaciones estadounidenses lanzando el modelo open source más grande de la historia. Gratis. Accesible. Imposible de bloquear por sanciones comerciales.
"DeepSeek no vende IA. Vende la imposibilidad de que Occidente controle la IA."
El giro polémico
Aquí está el truco que nadie menciona: DeepSeek no necesita que sus benchmarks sean reales. Necesita que sean creíbles durante el tiempo suficiente para cambiar el mercado.
Traducción: la verificación independiente llegará tarde. Cuando los laboratorios externos publiquen sus tests, V4 ya habrá captado millones de usuarios. Ya habrá entrado en pipelines empresariales. Ya habrá redefinido las expectativas de precio.
La ironía definitiva: el modelo que promete transparencia open source publica benchmarks que no se pueden auditar. Y la comunidad que exige código abierto acepta cifras cerradas sin pregunta.
Pero hay algo peor. DeepSeek V4 es texto puro en un mundo que ya es multimodal. No ve. No oye. No genera imágenes. Mientras tanto, GPT-5.5, Claude 4.7 y Gemini 3.1 Pro entienden el mundo en todos sus formatos.
DeepSeek no compite en capacidad. Compite en precio. Y el precio bajo es la estrategia perfecta para mercados que no pueden pagar lo otro.
"DeepSeek no es el futuro de la IA. Es el futuro de la IA barata. Y eso es exactamente lo que necesita China para dominar la adopción global."
La pregunta que no te dejará dormir
Si descubrieras que tu modelo de IA favorito es un 30 % peor de lo anunciado, pero un 85 % más barato y completamente gratis para descargar, ¿seguiría siendo tu favorito?
