- Anthropic rechaza el uso de su IA Claude en vigilancia masiva y armas autónomas sin supervisión humana.
- El Pentágono amenaza con declarar la empresa como riesgo de suministro e invocar la Ley de Producción de Defensa.
- Rivales como OpenAI, Google y xAI ya aceptaron los términos militares.
- Anthropic rechaza el uso de su IA Claude en vigilancia masiva y armas autónomas sin supervisión humana.
- El Pentágono amenaza con declarar la empresa como riesgo de suministro e invocar la Ley de Producción de Defensa.
- Rivales como OpenAI, Google y xAI ya aceptaron los términos militares.
El ecosistema tecnológico y militar de Estados Unidos se encuentra al borde de una ruptura. Anthropic, la empresa de inteligencia artificial valorada en US$380.000 millones, ha rechazado formalmente la última oferta del Pentágono, negándose a otorgar un control irrestricto sobre su tecnología. A escasas horas de que venza el plazo límite impuesto por el gobierno (viernes a las 5:01 p.m. ET), la compañía ha decidido mantenerse firme en sus principios éticos, asumiendo el riesgo de perder importantes contratos gubernamentales.
Dario Amodei, CEO de Anthropic, fue tajante en su declaración: "Estas amenazas no cambian nuestra posición: no podemos, en buena conciencia, acceder a su petición".
El conflicto radica en la exigencia del Departamento de Defensa de operar bajo un estándar de cualquier uso legal. Sin embargo, Anthropic mantiene dos líneas innegociables. Su IA no puede ser utilizada para compilar datos de vigilancia doméstica masiva, ni para operar sistemas de armamento totalmente autónomos. La empresa argumenta que la tecnología actual de IA frontera "simplemente no es lo suficientemente confiable" y podría poner en riesgo a civiles y militares si se elimina la supervisión humana.
Paradoja de la seguridad
La postura de Anthropic ha enfurecido a las altas esferas militares, quienes recientemente lanzaron una nueva estrategia para convertir a las Fuerzas Armadas en una fuerza AI-first (prioridad en IA). Emil Michael, Subsecretario de Defensa para Investigación e Ingeniería, lanzó un duro ataque personal contra Amodei a través de la red social X, acusándolo de tener un complejo de Dios y de "querer controlar personalmente al Ejército de los EE. UU., arriesgando la seguridad de la nación".
Si Anthropic no retira sus barreras de uso, será designada oficialmente como un riesgo para la cadena de suministro, lo que le impediría trabajar con cualquier otro contratista de defensa. Simultáneamente, el gobierno amenaza con invocar la Ley de Producción de Defensa (una legislación de la Guerra Fría) para forzar el uso del software.
Desde Anthropic han señalado la ironía de esta doble amenaza, ya que el gobierno los etiqueta como un riesgo de seguridad, pero al mismo tiempo los considera un proveedor tan esencial que busca obligarlos legalmente a entregar su tecnología.
OpenAI, xAI y Palantir
Anthropic hizo historia al ser la primera compañía de IA en recibir autorización del Pentágono para manejar material clasificado en la nube con su herramienta Claude Gov. Sin embargo, su resistencia ética está abriendo posibilidades a sus competidores. Están en riesgo contratos militares por hasta US$200 millones. Mientras Anthropic se resiste, rivales como OpenAI, Google (Gemini) y xAI (Grok) de Elon Musk ya han firmado acuerdos aceptando el marco de cualquier uso legal del Pentágono.
Mientras Anthropic se niega a la vigilancia ciudadana masiva citando valores democráticos, empresas como Palantir acaban de asegurar un contrato de US$30 millones para desarrollar ImmigrationOS, una plataforma respaldada por IA diseñada para identificar, rastrear y deportar a ciudadanos no documentados.
Apertura americana: El alza del petróleo y el PPI presionan a Wall Street
Blue Owl Capital se desploma hacia su peor mes en cuatro años por crisis en el crédito privado
🔴ANÁLISIS INTRADAY DE MERCADOS (27.02.2026)
Paramount derrota a Netflix en la batalla por Hollywood y el streaming
"Este informe se proporciona sólo con fines de información general y con fines educativos. Cualquier opinión, análisis, precio u otro contenido no constituyen asesoramiento de inversión o recomendación en entendimiento de la ley de Belice. El rendimiento en el pasado no indica necesariamente los resultados futuros, y cualquier persona que actúe sobre esta información lo hace bajo su propio riesgo. XTB no aceptará responsabilidad por ninguna pérdida o daño, incluida, sin limitación, cualquier pérdida de beneficio, que pueda surgir directa o indirectamente del uso o la confianza de dicha información. Los contratos por diferencias (""CFDs"") son productos con apalancamiento y acarrean un alto nivel de riesgo. Asegúrese de comprender los riesgos asociados. "