En medio de la creciente tensión entre la administración Trump y Anthropic, Microsoft, Google y Amazon emitieron comunicados aclarando que Claude, el modelo de IA de Anthropic, continuará disponible para todos sus clientes no relacionados con el Departamento de Defensa de Estados Unidos.
La disputa surgió después de que el Departamento de Defensa (DoD) anunciara que evaluaría el uso de modelos de IA en aplicaciones militares, lo que generó presión pública sobre Anthropic para que restringiera el acceso. Anthropic respondió actualizando su política de uso aceptable para prohibir explícitamente el uso de Claude en sistemas de armas autónomos y aplicaciones militares de toma de decisiones letales.
Esta decisión tensionó la relación con el gobierno de Trump, que ha presionado a las empresas de IA para cooperar con objetivos de defensa nacional. Sin embargo, la restricción de Anthropic no afecta a la inmensa mayoría de casos de uso empresarial y comercial.
Para la comunidad tech latinoamericana, este episodio subraya la creciente politización de los modelos de IA de frontera. Las empresas de la región que dependen de Claude a través de AWS Bedrock, Azure AI o Google Cloud pueden continuar operando con normalidad.
Los tres proveedores de nube fueron enfáticos: Claude sigue disponible para healthcare, fintech, educación, servicios al consumidor, y la gran mayoría de aplicaciones enterprise. La restricción aplica exclusivamente a contratos del DoD que impliquen sistemas de armas o decisiones de combate.
El episodio plantea preguntas más amplias sobre la autonomía de las empresas de IA frente a la presión gubernamental, y qué significa para el ecosistema global cuando los modelos más avanzados quedan atrapados en disputas geopolíticas entre EEUU y sus propias agencias.