Claude y ChatGPT, conocidos como chatbots de uso cotidiano, ya operan en redes militares clasificadas. El choque estalló cuando el Departamento de Defensa presionó a Anthropic —creadora de Claude— para eliminar restricciones y permitir cualquier uso “legal”, con riesgos de habilitar vigilancia masiva y reducir controles humanos en usos militares: la empresa se negó y demandó. OpenAI entró en el mismo mercado con un acuerdo cuyo alcance sigue bajo secreto. En paralelo, Palantir afianza su rol como infraestructura de guerra y control migratorio.
Por :Juan Sebastián Lozano
La IA que muchos utilizan para chatear, contar sus problemas o sentirse acompañados también es usada por el aparato militar estadounidense para aumentar su capacidad operativa en las guerras que emprende. Mientras ChatGPT o Claude se presentan como herramientas “amables” para el usuario, estos sistemas pueden facilitar el bombardeo de objetivos y operaciones de inteligencia, incluidas acciones contra gobiernos de países rivales.
El 3 de enero de 2026, fuerzas especiales estadounidenses atacaron Caracas y capturaron al presidente venezolano Nicolás Maduro. La operación dejó al menos 83 muertos, según el Ministerio de Defensa venezolano. Maduro y su esposa fueron llevados a la Corte Federal de Manhattan a enfrentar cargos de narcoterrorismo y tráfico de drogas. Según el Wall Street Journal y Axios, Claude —el chatbot de Anthropic— fue usado durante la operación para apoyar el análisis de imágenes satelitales y la lectura de inteligencia en tiempo real, aunque ni el gobierno de EE. UU. ni Anthropic han confirmado públicamente el rol preciso. Lo que sí quedó claro, de acuerdo con esos soportes, es que Anthropic no tenía el cuadro completo de cómo su herramienta había sido desplegada, y que cuando intentó averiguarlo, desató una crisis.
El contrato y la trampa
Dario Amodei es el CEO de Anthropic. En julio de 2025, la empresa firmó un contrato con el Pentágono valorado en hasta 200 millones de dólares. Con eso, Claude se convirtió en el primer modelo de inteligencia artificial habilitado para operar en las redes clasificadas de las fuerzas militares estadounidenses —no el Claude de un celular, sino una versión integrada en el corazón digital del ejército más poderoso del mundo. El contrato incluía dos límites explícitos, que el propio Pentágono aceptó y respetó durante meses: Claude no podía ser usado para vigilancia masiva de ciudadanos ni para controlar armas autónomas sin supervisión humana. El problema fue que, meses después, el gobierno quiso eliminar exactamente esos dos límites.
Al enterarse de que Claude había sido usado en la captura de Maduro, Amodei empezó a hacer preguntas sobre el alcance del despliegue. Ese gesto —razonable, elemental— desató una crisis. Según el Pentágono, citado por Axios, un ejecutivo de Anthropic contactó a Palantir de una manera que el contratista interpretó como una posible desaprobación del operativo. Anthropic lo niega. Sea cual sea la versión, la alarma llegó arriba. Emil Michael, jefe de IA del Pentágono, le dijo a Fortune: "Me dije, dios mío, ¿qué pasa si en el próximo combate el software se cae, se activa alguna restricción, o el modelo se niega?" Y el Pentágono tomó nota.
A finales de febrero, Pete Hegseth, secretario de defensa, le dio un ultimátum a Amodei: firme un nuevo contrato que permita usar Claude para cualquier uso legal, sin restricciones adicionales. Amodei se negó: esa cláusula, dijo, podría habilitar vigilancia masiva y reducir controles humanos en decisiones de ataque. Respondió públicamente: "No podemos en buena conciencia ceder ante su solicitud."
Amodei se ganó el aplauso de muchos progresistas. Pero la pregunta incómoda se quedó flotando: ¿fue ingenuo al firmar el contrato inicial? ¿La ambición económica estuvo primero, y los principios vinieron después? No existe ninguna ley que obligue a estas empresas a pactar con el gobierno. Sin embargo, el gobierno puede presionarlas de maneras muy efectivas. En este caso usó la designación de "riesgo para la cadena de suministro", un mecanismo inusual aplicado públicamente contra una empresa estadounidense —históricamente reservado para compañías vinculadas a Rusia o China. Cuando el cliente más grande del mundo te etiqueta como amenaza, los demás también empiezan a dudar.
Trump la emprendió contra Amodei
La represalia fue veloz. Trump ordenó que todas las agencias federales dejaran de usar Claude, designó a Anthropic como "riesgo para la cadena de suministro" y le dio seis meses al Pentágono para hacer la transición, aunque reportes indican que Claude seguía siendo usado en operaciones contra Irán horas después. En las redes, Trump llamó a Anthropic empresa de "izquierdistas fanáticos". Amodei respondió con un memo filtrado señalando las razones reales: Anthropic no había donado a Trump —Greg Brockman, presidente de OpenAI, y su esposa donaron 25 millones al súper PAC de Trump; Sam Altman (director ejecutivo), un millón— ni le había prodigado "elogios de estilo dictatorial, como Sam sí ha hecho".
El 9 de marzo, Anthropic llevó el caso a los tribunales en dos demandas simultáneas, alegando una "campaña ilegal de represalia" que vulnera su Primera Enmienda. El CFO Krishna Rao declaró que las acciones del gobierno podrían reducir los ingresos de la empresa en varios miles de millones de dólares solo en 2026. La Casa Blanca prometió que Trump "nunca permitirá" que una empresa tecnológica le diga al ejército cómo operar. Anthropic dijo que el litigio no cambia su voluntad de llegar a un acuerdo.
OpenAI aprovechó el desorden
Y aquí aparece en escena Sam Altman, CEO de OpenAI, cuyo producto estrella es ChatGPT, usado para recetas, consejos sentimentales, trabajos escolares y ahora también en acuerdos con el Departamento de Defensa, en un giro que expone el doble uso de estas tecnologías: asistencia cotidiana y maquinaria estatal de guerra.
Pocas horas después, OpenAI anunció su propio acuerdo con el Departamento de Defensa. Altman declaró que mantenía las mismas líneas rojas. El problema fue doble: el momento —el anuncio llegó la misma noche en que comenzaban los ataques contra Irán— y lo que decía realmente el contrato. En el papel, prohíbe usar la IA para vigilancia masiva. Pero solo prohíbe hacerlo "intencionalmente" —y el gobierno lleva décadas argumentando ante los tribunales que su vigilancia masiva ocurre "incidentalmente", lo que debilita esa protección. Además, si el Pentágono decide que un uso es legal, OpenAI no tiene derecho a vetarlo. Como resumió el exabogado del Departamento de Justicia Alan Rozenshtein: "No hay nada que OpenAI pueda hacer para aclarar esto excepto publicar el contrato." Y el contrato sigue siendo secreto.
La reacción fue inmediata. Caitlin Kalinowski, líder de hardware de robótica de OpenAI, renunció públicamente. Casi 900 empleados de OpenAI y Google firmaron una carta abierta exigiendo que sus empresas rechazaran desplegar IA para vigilancia masiva o selección autónoma de blancos militares. Altman admitió que el anuncio "se veía oportunista y descuidado". Según Sensor Tower, las desinstalaciones de ChatGPT se dispararon un 295% en un solo día y las reseñas de una estrella subieron un 775%. Claude llegó al número uno en la App Store de Apple en Estados Unidos por primera vez, con descargas que crecieron un 51% en un día. El conflicto con el Pentágono le trajo a Amodei más usuarios que cualquier campaña de marketing.
Palantir: el que nunca tuvo escrúpulos
Mientras Anthropic y OpenAI protagonizaban este drama, una tercera empresa consolidaba en silencio su posición dominante. Palantir fue cofundada en 2003 por Peter Thiel, un multimillonario libertario que en 2009 escribió que "ya no cree que la libertad y la democracia son compatibles" y que señaló el voto de las mujeres como factor del "declive del optimismo político" —son sus palabras, publicadas en el Instituto Cato. Thiel donó 1,25 millones a Trump en 2016, fue el artífice de la candidatura senatorial de JD Vance con 15 millones de dólares y tiene al menos 17 excolaboradores —incluyendo al propio Vance— en los niveles más altos del gobierno Trump.
Con financiación inicial de la CIA, Palantir firmó en julio de 2025 un acuerdo de 10 años con el Ejército de EE.UU. valorado en hasta 10.000 millones de dólares. Su sistema Maven Smart System usa IA para analizar datos de múltiples fuentes y ayudar a los comandantes a decidir más rápido; en esas mismas redes clasificadas opera Claude, aunque el grado exacto de integración entre ambos no ha sido confirmado públicamente. La acción de Palantir subió un 15% la semana en que comenzaron los ataques contra Irán. Su CEO Alex Karp lo resume con la ideología de película de acción que comparten varios de sus colegas: para él, o Occidente gana la carrera tecnológica, o la gana alguien con valores que no son los suyos.
Pero Palantir no solo opera en campos de batalla lejanos. ICE, la agencia federal de inmigración, le pagó 30 millones de dólares para construir "ImmigrationOS": un sistema que rastrea migrantes en tiempo casi real, cruza registros fiscales, datos de seguridad social, biometría, redes sociales y ubicación de teléfonos para seleccionar objetivos de deportación. Los contratos de Palantir con ICE suman 287 millones acumulados desde 2014. El sistema está diseñado para que un dato —una publicación en redes, un viaje registrado— desencadene automáticamente una cadena que termina en deportación, con pocos mecanismos de corrección. Stephen Miller, el arquitecto de la política migratoria de Trump, declaró tener entre 100.000 y 250.000 dólares en acciones de Palantir.
No son los únicos
El ecosistema es mucho más amplio. Google eliminó en febrero de 2025 su compromiso de no desarrollar tecnología para armas —el mismo que sus empleados habían arrancado a la empresa con protestas en 2018. Amazon Web Services provee infraestructura de nube a la CIA. Microsoft tiene contratos de defensa por miles de millones. Meta se alió con la empresa de armamento Anduril para construir el casco EagleEye, un sistema de realidad aumentada con IA para soldados. xAI, la empresa de Elon Musk, firmó en febrero de 2026 su propio acuerdo con el Pentágono —aunque el New York Times reportó que su modelo "no es considerado tan avanzado ni tan confiable como el de Anthropic". El Pentágono eligió lealtad política sobre calidad técnica. La excusa compartida es siempre la misma guerra de imperios: si Estados Unidos no se impone, lo hará China o Rusia. Tienen una idea del mundo como de Rambo, en el mejor caso de Star Wars.
Lo que la IA hizo en Irán
A finales de febrero de 2026, la inteligencia artificial demostró en Irán una efectividad que hubiera sido imposible hace una década. Según el Washington Post, Claude integrado en el Maven Smart System generó alrededor de 1.000 objetivos priorizados el primer día, con coordenadas GPS precisas y recomendaciones de armas, transformando semanas de planificación en decisiones en tiempo real. "El cambio de paradigma clave es que la IA permite al ejército desarrollar paquetes de objetivos a velocidad de máquina en lugar de velocidad humana", dijo Paul Scharre, del Center for a New American Security. Lo que no resuelve la velocidad son los errores: un misil Tomahawk golpeó una escuela de niñas adyacente a una base naval iraní, matando alrededor de 175 personas, la mayoría estudiantes. Nadie ha respondido todavía una pregunta central: quién responde cuando esa verificación falla.
¿Y nosotros?
Con la ayuda de la IA, el gobierno de EE.UU. demuestra efectividad en sus operaciones militares. Trump ya amenazó con bombardeos e intervenciones a otros países de América Latina, como México y Colombia, con la excusa del narcotráfico. Ya tildó al presidente Petro de narcotraficante, sin prueba alguna. La IA podría servir para identificar objetivos y bombardear nuestros países con una precisión antes imposible.
Mientras tanto, muchos usan los chatbots para agilizar su trabajo, como consultorio sentimental, como médico, abogado, psiquiatra. ¿Valdrá la pena seguir usando estos sistemas sabiendo que nuestro uso contribuye a fortalecer el aparato militar estadounidense? Y esto sin entrar en la afectación laboral y el impacto ambiental que genera su uso masivo.
No hay una respuesta sencilla. Pero sí hay una pregunta que vale la pena hacerse antes de abrir el chat la próxima vez.
