Los tres grandes del cloud —Microsoft, Google y Amazon— han salido a calmar a sus clientes: la IA Claude, de la startup estadounidense Anthropic, seguirá disponible para proyectos comerciales, pese a que el Pentágono la ha señalado como un riesgo para su cadena de suministro.
La decisiĂłn del Departamento de Defensa de EEUU (el Pentágono) ha encendido las alarmas en el sector, pero no ha cerrado la puerta a su uso fuera del ámbito militar. El mensaje de las tecnolĂłgicas es nĂtido: las restricciones afectan al trabajo vinculado a Defensa, no al resto del mercado.
Qué significa el “riesgo de la cadena de suministro” que invoca el Pentágono
La etiqueta de “riesgo de la cadena de suministro” es una clasificaciĂłn con la que el Pentágono limita proveedores que considera potencialmente problemáticos para la seguridad nacional. Suele aplicarse a actores extranjeros, pero en este caso ha recaĂdo sobre una empresa estadounidense: Anthropic.
SegĂşn el planteamiento que ha trascendido, el choque llega por el acceso a la tecnologĂa. Anthropic habrĂa rechazado conceder un acceso ilimitado a sus sistemas para usos considerados no seguros, y eso ha derivado en restricciones dentro del ecosistema de Defensa.
El caso ilustra una tensión cada vez más habitual: la carrera por integrar IA avanzada en entornos sensibles frente a las exigencias de control y seguridad del Estado. Y, en paralelo, el interés del sector privado por seguir desplegando estas herramientas en productos y servicios.
Microsoft: continuidad para clientes no vinculados a Defensa
Microsoft ha sido de las primeras en mover ficha. La compañĂa ha comunicado que los modelos de Anthropic, incluido Claude, seguirán integrados en sus servicios para clientes que no trabajen para el Departamento de Defensa.
La empresa sostiene que, tras revisar el encaje legal, la designación del Pentágono no impide mantener la colaboración con Anthropic en proyectos comerciales. Para sus clientes, el punto clave es evitar interrupciones en herramientas ya incorporadas a flujos de trabajo diarios.
Además, Microsoft tiene un incentivo evidente para sostener el vĂnculo: se habla de una inversiĂłn potencial de hasta 5.000 millones de dĂłlares en Anthropic, una apuesta que refuerza el peso estratĂ©gico de esta alianza en plena competencia por la IA.
Google: el acuerdo sigue en pie en Google Cloud
Google tambiĂ©n ha confirmado que la tecnologĂa de Anthropic continuará disponible para proyectos empresariales en Google Cloud. La compañĂa, con sede en Mountain View, ha invertido 3.000 millones de dĂłlares en la startup y no quiere que el episodio con Defensa descarrile esa hoja de ruta.
Para Google, mantener la continuidad es especialmente relevante en su ecosistema de servicios de datos, marketing y publicidad, donde la IA se usa para automatizar tareas, analizar informaciĂłn y mejorar segmentaciones. Cortar el acceso a Claude tendrĂa un impacto directo en desarrolladores y anunciantes.
En el trasfondo está la batalla por el liderazgo en IA: integrar modelos punteros en la nube es una ventaja competitiva, y Google no está dispuesto a ceder terreno por una restricción circunscrita al ámbito militar.
Amazon: Claude seguirá en AWS salvo para trabajos del Departamento de Defensa
Amazon, lĂder del cloud pĂşblico con AWS, ha reiterado que Claude seguirá disponible para sus clientes, con una excepciĂłn clara: los trabajos relacionados con el Departamento de Defensa de EEUU.
La relaciĂłn entre Amazon y Anthropic es una de las más estrechas del sector. La inversiĂłn anunciada por Amazon alcanza los 8.000 millones de dĂłlares, y AWS actĂşa como socio clave para desplegar y escalar la tecnologĂa de la startup.
Para Amazon, el mensaje busca proteger dos frentes: la confianza de los clientes empresariales y la estabilidad de un socio tecnolĂłgico que se ha convertido en pieza central de su oferta de IA.
Un aviso para toda la industria: seguridad nacional frente a negocio
El respaldo pĂşblico de Microsoft, Google y Amazon a Anthropic marca un precedente: los gigantes del cloud están dispuestos a sostener a sus socios incluso cuando chocan con decisiones del Gobierno estadounidense, siempre que el perĂmetro de uso quede fuera de Defensa.
Este episodio puede empujar a otras empresas a revisar polĂticas de seguridad, contratos y dependencias tecnolĂłgicas para no verse atrapadas en restricciones similares. TambiĂ©n abre la puerta a un debate más transparente sobre cĂłmo deben cooperar administraciones y tecnolĂłgicas sin frenar la innovaciĂłn.
La IA ya no es solo una herramienta de productividad: es infraestructura estratégica. Y lo que hoy se limita en el ámbito militar puede acabar redefiniendo, mañana, cómo se construyen y se certifican los grandes sistemas digitales que usan empresas y ciudadanos.
Puntos clave
- Anthropic sigue siendo accesible para proyectos no relacionados con la defensa a pesar de su inclusiĂłn en la lista negra.
- Microsoft, Google y Amazon apoyan activamente su asociaciĂłn con Anthropic.
- La situaciĂłn pone de relieve las tensiones entre la seguridad nacional y los intereses comerciales.
Preguntas frecuentes
¿Qué es la designación de riesgo de la cadena de suministro?
Es una clasificación utilizada por el Pentágono para identificar a las empresas consideradas riesgos potenciales para la seguridad nacional, generalmente aplicada a adversarios extranjeros.
¿Por qué Microsoft, Google y Amazon siguen trabajando con Anthropic?
Estas empresas consideran que la designación no les impide colaborar con Anthropic en proyectos no relacionados con la defensa, debido a la importancia estratégica de la IA en el comercio.
Fuentes
- After Microsoft and Amazon, Google tells users: Anthropic is …
- Google, Microsoft To Continue Work With Blacklisted Anthropic On …
- Amazon says Anthropic remains available outside of defense work
- Microsoft, Google, Amazon say Anthropic Claude remains available …
- Amazon says customers can keep using Anthropic's Claude on its …
En tant que jeune média indépendant, The Inquirer 🇫🇷 a besoin de votre aide. Soutenez-nous en nous suivant et en nous ajoutant à vos favoris sur Google News. Merci !

















