Lo que no te cuentan: La Verdad Oculta De La IA Militar Google Y El Pentágono

Hilo sobre el día que 600 ingenieros de Google descubrieron que su CEO negociaba vender IA al Pentágono y ellos no podían detenerlo.
# Lo Que No Te Cuentan: 600 trabajadores de Google dicen que su IA militar matará y Sundar Pichai no les responde
Casi 1.000 empleados de Google y OpenAI firmaron una carta conjunta. El Pentágono presiona para usar IA en vigilancia masiva y armas autónomas. Anthropic dijo no. Google y OpenAI negocian decir sí. Y los ingenieros que construyen la tecnología, gritan.
Lo Que No Te Cuentan: 600 trabajadores de Google dicen que su IA militar matará y Sundar Pichai no les responde
El 27 de abril de 2026, 600 empleados de Google enviaron una carta a Sundar Pichai.
No era una petición de aumento. No era una queja sobre la cafetería.
Era una advertencia.
"Rechace el uso secreto e inhumano de la IA militar".
La carta, publicada el mismo día, revela que Google está negociando con el Pentágono un acuerdo para usar IA en defensa y vigilancia. Un acuerdo similar al que Anthropic rechazó semanas antes.
Y Anthropic, por negarse, fue designada "riesgo para la cadena de suministro" por el Departamento de Defensa.
La anomalía de los ingenieros que gritan
Los firmantes no son activistas externos. Son los ingenieros que construyen los modelos de IA que el Pentágono quiere usar.
Saben lo que la tecnología puede hacer. Saben lo que no puede controlar. Saben que un modelo de lenguaje, conectado a sistemas de armas, no "decide" cómo un humano. Optimiza, y la optimización, en guerra, no distingue entre civil y combatiente.
"No somos conscientes de que el Pentágono esté presionando a Google para abandonar ciertos límites éticos. Pero si lo están haciendo, debemos resistir."
La carta, firmada por casi 1.000 empleados de Google y OpenAI, usa un lenguaje inusualmente directo para la industria.
"Están intentando dividir a cada empresa con el miedo de que la otra ceda. Esa estrategia solo funciona si ninguno de nosotros sabe dónde se sitúan los demás".
"Esta carta sirve para crear comprensión compartida y solidaridad frente a esta presión del Departamento de Guerra".
El archivo de la solidaridad entre rivales
Google y OpenAI son competidores feroces.
Se demandan mutuamente. Se roban talento. Se acusan de copiar tecnología. Son Apple y Microsoft en los 90; son Tesla y Ford en los 20.
Y ahora, sus empleados firman juntos.
La carta conjunta es histórica. No porque sea larga. Porque une a quienes normalmente no se hablan. A quienes compiten por salarios, por papers, por atención de la prensa tecnológica.
El archivo de 2026 es este: cuando la tecnología que construyes puede matar, la rivalidad corporativa se vuelve irrelevante. La solidaridad técnica, en cambio, se vuelve existencial.
La escenografía del Pentágono que divide y vencerá
El Departamento de Defensa, según la carta, usa una estrategia clásica: divide y vencerá.
Presiona a cada empresa individualmente. Crea miedo de que la competencia acepte primero. Genera carrera por contratos militares. Y las empresas, en esa carrera, abandonan salvaguardas éticas que antes prometieron.
Anthropic fue el ejemplo. Rechazó usar su tecnología para "vigilancia masiva doméstica o armas totalmente autónomas".
El Pentágono respondió designándola "riesgo para la cadena de suministro".
El mensaje, implícito: quien no coopera, se excluye. Y quien se excluye, pierde mercado. Pierde influencia. Pierde acceso.
El giro polémico
Aquí está el truco que nadie menciona: Google no está negociando con el Pentágono por dinero. Está negociando por miedo.
Traducción: el contrato militar no es el objetivo. Es la herramienta de presión. El Pentágono no necesita la IA de Google para vigilar. Ya vigila. Necesita la legitimidad de Google. La marca. La cobertura mediática de "Google coopera con defensa nacional".
La ironía definitiva: los empleados de Google, que construyen la tecnología más poderosa del planeta, tienen menos poder de decisión que un contrato de licitación pública. Su carta, su solidaridad, su advertencia, son ruido de fondo en una negociación donde la única voz que cuenta es la del CEO.
"Google prometió 'no hacer daño'. Ahora negocia con quienes definen 'daño' como 'objetivo militar'."
La pregunta que no te dejará dormir
Si supieras que la IA que usas cada día podría ser redirigida para vigilar a ciudadanos o dirigir armas sin supervisión humana, ¿seguiría usando Gmail?
