El pulso legal entre Anthropic y el Department of War por Claude 4.5
Anthropic mantiene un bloqueo técnico en Claude 4.5 Opus para impedir su uso en vigilancia masiva doméstica y armamento autónomo (fuente: Dossier UsedBy). Esta postura ha llevado al gobierno a amenaza

El Pitch
Anthropic se enfrenta a una amenaza directa del Department of War para eliminar las salvaguardas de seguridad de Claude 4.5 Opus y adaptarlo a fines bélicos (fuente: Anthropic News / HN Thread Feb 2026). La herramienta es actualmente el estándar de privacidad para 247 empresas en nuestra base de datos, incluyendo nombres como Notion, DuckDuckGo y Quora. Ver ficha de Claude.
Bajo el capó
Anthropic mantiene un bloqueo técnico en Claude 4.5 Opus para impedir su uso en vigilancia masiva doméstica y armamento autónomo (fuente: Dossier UsedBy). Esta postura ha llevado al gobierno a amenazar con invocar la Defense Production Act (DPA) para forzar una versión a medida del modelo, llegando a calificar a la empresa como un "riesgo para la cadena de suministro" (fuente: HN Statement by Dario Amodei).
Lo que funciona:
- El frente unido de la industria: empleados de los equipos de GPT-5 en OpenAI y Gemini 2.5 en Google han firmado la carta "We Will Not Be Divided" en apoyo a Anthropic (fuente: notdivided.org).
- La arquitectura de seguridad actual sigue resistiendo intentos de bypass para aplicaciones militares letales (fuente: Dossier UsedBy).
Lo que falla:
- La "ambigüedad estratégica": críticos señalan que la negativa de Anthropic se basa en la "falta de fiabilidad actual" del modelo, lo que sugiere que Claude 5 o modelos posteriores sí podrían usarse en combate si son más precisos (fuente: HN Comment analysis).
- El uso de la palabra "doméstica" en su rechazo a la vigilancia deja un vacío legal para operaciones en el extranjero (fuente: Dossier UsedBy).
Lo que aún no sabemos:
- Los requisitos de datos de entrenamiento específicos que los militares están exigiendo para su versión personalizada (missing_info).
- La respuesta oficial o acciones legales inmediatas que tomará el Department of War tras las últimas declaraciones (missing_info).
- La fecha exacta en la que se ejecutaría la intervención mediante la DPA (missing_info).
La opinión de Diego
Seguid usando Claude 4.5 Opus en producción, pero tened un plan de contingencia de 24 horas para migrar a GPT-5 o Gemini 2.5 si la situación escala. Si el gobierno finalmente designa a Anthropic como riesgo de suministro, empresas como DuckDuckGo o Quora tendrán una presión legal insostenible para desconectar sus APIs (Dossier UsedBy). Claude es el modelo más robusto ahora mismo, pero si sus pesos acaban en manos del estado bajo la DPA, la privacidad que compramos dejará de existir por decreto ley.
Código limpio siempre,
Diego.

Diego Navarro - Early Adopter Tech Analyst at UsedBy.ai
Artículos relacionados

Tin Can: VoIP analógico para niños con graves deudas técnicas y de privacidad
Tin Can es un teléfono fijo físico basado en Wi-Fi diseñado para que los niños realicen llamadas a contactos aprobados sin usar pantallas. El hardware busca ofrecer independencia infantil mediante una

PC Gamer: Análisis de rendimiento en la guía de lectores RSS 2026
PC Gamer ha lanzado su guía curada de los mejores lectores RSS para 2026 con la promesa de ayudar a los usuarios a evitar el ruido de los algoritmos de redes sociales. El artículo se posiciona como un

POSSE: Estrategia de soberanía de contenido y federación nativa
POSSE (Publish on your Own Site, Syndicate Elsewhere) es un modelo de arquitectura de contenido que prioriza la propiedad del dato publicando primero en dominio propio. El ecosistema técnico ha vuelto
Mantente al día con las tendencias de adopción de IA
Recibe nuestros últimos informes y análisis en tu correo. Sin spam, solo datos.