lee mas
14:11 · 3 de marzo de 2026

OpenAI vs. Anthropic: el Pentágono abre la mayor brecha ética de la era de la IA

Conclusiones clave
Conclusiones clave
  • El contrato con el Pentágono ha abierto una brecha ética entre OpenAI y Anthropic, con esta última capitalizando la narrativa de responsabilidad y principios.
  • La rivalidad entre ambas compañías se traslada al terreno político y militar, donde las decisiones tienen implicaciones globales y marcan un punto de inflexión para la IA.

Vigilancia masiva mediante reconocimiento facial, armas capaces de disparar sin intervención humana o sistemas militares que toman decisiones autónomas. Estas son solo algunas de las aplicaciones de inteligencia artificial que han encendido todas las alarmas en el debate sobre el uso militar de la tecnología.

En este contexto, se ha producido una inesperada batalla entre los dos gigantes de la IA, OpenAI y Anthropic, por un contrato millonario con el Departamento de Defensa de Estados Unidos. 

Lo sorprendente no es solo quién ha terminado firmando, sino cómo se ha firmado. La resolución del concurso ha desencadenado tensiones internas, choques éticos y una rivalidad empresarial sin precedentes.

¿Qué está pasando realmente entre la IA y el Pentágono?

Una imagen generada por computadora de una bola de cuerda

Un contrato clave: del “no” ético de Anthropic al Pentágono al acuerdo improvisado de OpenAI

El origen del conflicto está en un contrato para desplegar modelos avanzados de IA dentro de las redes clasificadas del Pentágono, con aplicaciones que incluyen inteligencia militar, análisis de amenazas y operaciones estratégicas.

Anthropic fue la primera empresa en recibir la propuesta de 200 millones de inversión a cambio de aplicar su tecnología a actividades militares del pentágono, pero se negó frontalmente a participar en proyectos que pudieran derivar en:

  • Vigilancia masiva
  • Armas autónomas
  • Aplicaciones militares sin supervisión humana

Su rechazo abrió la puerta a OpenAI, que aceptó el acuerdo. Sin embargo, Sam Altman reconoció después que el pacto se cerró de forma algo precipitada, admitiendo que no se siguieron los estándares habituales de rigor.

Tras la polémica, OpenAI está modificando el contrato para incluir líneas rojas. Principalmente implementar la prohibición de usar sus modelos para vigilancia doméstica, limitar el acceso de agencias como la NSA y reforzar los principios éticos del acuerdo. 

La admisión pública de Altman es inusual y refleja la enorme cantidad de críticas recibidas por parte los usuarios de la aplicación.

Claude, la IA de Anthropic se dispara en descargas y reputación

Mientras OpenAI intenta contener el daño reputacional, Anthropic está viviendo un momento de auge. Tras la disputa con el Pentágono, Claude se convirtió en la app más descargada del App Store, un salto enorme si tenemos en cuenta que en enero estaba fuera del top 100 y en febrero rondaba el top 20.

Los usuarios gratuitos crecieron más del 60% desde enero y los suscriptores de pago se han duplicado desde octubre. Incluso la caída temporal del servicio se interpretó como señal de demanda explosiva.

En la narrativa pública, Anthropic aparece como la empresa que defendió principios éticos frente a la presión militar, mientras OpenAI es vista como la que cedió.

Una persona sosteniendo un teléfono inteligente en la mano

La rivalidad entre OpenAI y Anthropic entra en territorio político y militar

La relación entre ambas compañías ya era tensa desde hace tiempo, pero este episodio la ha llevado a un nuevo nivel. Anthropic se ha posicionado como la alternativa más ética y segura, mientras que OpenAI ha sido criticada por ceder ante la presión militar.

La rivalidad ya no es solo tecnológica: ahora es reputacional, ética y política. Los puntos clave de esta escalada incluyen:

  • El veto del Pentágono a Anthropic tras negarse a colaborar
  • Comentarios negativos hacia Anthropic por parte de figuras políticas
  • OpenAI ocupando su lugar con un acuerdo polémico
  • Comparaciones constantes entre Sam Altman y Dario Amodei
  • Claude Code superando a Codex en adopción empresarial

La batalla ha pasado del mercado de consumo al terreno gubernamental, donde las implicaciones son mucho mayores. De hecho,  el acuerdo con el Pentágono ha generado inquietud dentro de OpenAI, que ha convocado una reunión interna para abordar los temores sobre el uso militar de sus modelos y los riesgos reputacionales. En ella, además, se tratará la percepción de que la compañía está sacrificando principios y sobre las comparaciones constantes con Anthropic. 

La IA militar se acelera: un mercado que ya no se puede ignorar

El contexto político explica parte de la presión. El Pentágono está acelerando la adopción de IA avanzada para competir con China y modernizar su infraestructura militar.

El gasto en IA del Departamento de Defensa ha pasado de 178 millones en 2016 a más de 1.200 millones previstos para 2025, multiplicándose casi por siete en menos de una década.

En este escenario, empresas como OpenAI y Anthropic están siendo empujadas a posicionarse en un terreno éticamente delicado, donde cada decisión tiene implicaciones globales. El conflicto entre ambas firmas y el Pentágono marca un punto de inflexión en la historia de la inteligencia artificial. Por primera vez, los grandes modelos se encuentran en el centro de un debate que mezcla innovación, ética, poder militar y rivalidad empresarial.

La pregunta que queda abierta es si la IA del futuro estará guiada por principios éticos o por intereses estratégicos. La respuesta dependerá de cómo evolucione esta batalla entre Silicon Valley y el Pentágono en los próximos meses.


 
2 de marzo de 2026, 11:50

Claves de la semana: Tensión máxima en Oriente Medio: petróleo, oro y defensa vuelven al centro del tablero

26 de febrero de 2026, 15:03

El futuro ya no está en el software: esta es la nueva apuesta tecnológica en bolsa

26 de febrero de 2026, 13:36

▶️¡Nadie está hablando de ESTO tras los resultados de Nvidia!

26 de febrero de 2026, 12:47

¿Está perdiendo el mercado la fe en el software?

El contenido que se presenta en la sección de FORMACIÓN sólo tiene fines informativos, educativos y de apoyo para utilizar la plataforma. El material presentado, incluyendo los análisis, precios, opiniones u otros contenidos, no es una recomendación de inversión o información que recomiende o sugiera una estrategia de inversión ni se incluye en el ámbito del asesoramiento en materia de inversión recogido en la Ley 6/2023 de los Mercados de Valores y de los Servicios de Inversión (artículo 125.1 g). Este vídeo se ha preparado sin tener en cuenta las necesidades del cliente ni su situación financiera individual.
XTB no aceptará responsabilidad por ningún tipo de pérdidas o daños, incluyendo, entre otros, cualquier lucro cesante, que pueda surgir directa o indirectamente del uso o dependencia de la información incluida en este vídeo. XTB S.A. no es responsable de las acciones u omisiones del cliente, especialmente por la adquisición o disposición de instrumentos financieros, realizados con base en la información que contiene este vídeo.
El rendimiento pasado no es necesariamente indicativo de resultados futuros y cualquier persona que actúe sobre esta información lo hace bajo su propio riesgo.
Copyright © XTB S.A. Todos los derechos reservados. Está prohibido copiar, modificar y distribuir este vídeo sin el consentimiento expreso de XTB S.A.

Únete a más de 2.000.000 de Clientes de todo el mundo