Ir al contenido principal
UsedBy.ai
Todos los artículos
Análisis de tendencias3 min de lectura
Publicado: 6 de febrero de 2026

Claude Opus 4.6: ventana de 1M de tokens y equipos de agentes nativos

Anthropic ha lanzado Claude Opus 4.6 introduciendo una ventana de contexto de 1M de tokens y la capacidad experimental "Agent Teams" en su CLI, Claude Code. El sistema busca automatizar flujos complet

Diego Navarro
Diego Navarro
Early Adopter Tech Analyst

El Pitch

Anthropic ha lanzado Claude Opus 4.6 introduciendo una ventana de contexto de 1M de tokens y la capacidad experimental "Agent Teams" en su CLI, Claude Code. El sistema busca automatizar flujos completos de ingeniería de software mediante la colaboración de múltiples agentes integrados (fuente: anthropic.com).

Bajo el capó

La capacidad de recuperación de datos (retrieval) en contextos masivos es sólida, logrando recordar 49 de 50 elementos específicos en pruebas de 733K tokens (fuente: Hacker News). En términos de razonamiento profesional, el modelo supera a GPT-5.2 por 144 puntos Elo en el benchmark GDPval-AA, posicionándose como una opción robusta para tareas de conocimiento económico (fuente: Anthropic System Card).

Sin embargo, el despliegue técnico presenta fricciones importantes. Los usuarios han reportado "instruction drift" (deriva de instrucciones), donde el modelo ignora revisiones o correcciones a planes complejos para ceñirse a los borradores iniciales (fuente: HN). Además, la versión 2.1.32 de Claude Code presenta errores de conexión con Chrome en entornos Windows, lo que complica su adopción inmediata en ciertos setups de desarrollo (fuente: Reddit).

El coste operativo es otro factor crítico para cualquier CTO. El precio escala de los $5/$25 estándar a $10/$37.50 por millón de tokens cuando el contexto supera los 200k, lo que puede agotar límites diarios de uso en apenas un par de consultas intensivas (fuente: Trending Topics). Ver ficha de Claude, que ya cuenta con 247 empresas usuarias como Notion y DuckDuckGo.

Actualmente, no disponemos de información pública sobre el coste específico de la función "Agent Teams" fuera de los planes API/Max, ni existen verificaciones independientes de los resultados de GDPval-AA más allá de los datos internos de Anthropic (fuente: Dossier UsedBy). Aunque Opus 4.6 lideró brevemente el Terminal-Bench 2.0 con un 65.4%, fue superado minutos después por GPT-5.3 Codex (fuente: OfficeChai).

La opinión de Diego

No lo metas en producción todavía. Aunque el millón de tokens suena bien en el papel, el "instruction drift" es un problema real que te hará perder más tiempo corrigiendo al modelo que escribiendo código. Es una herramienta excelente para side-projects donde quieras experimentar con la colaboración multi-agente usando CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1, pero la volatilidad de los benchmarks y el precio prohibitivo del contexto largo lo hacen poco práctico para el día a día de un equipo de ingeniería. Si buscas eficiencia de costes, quédate en contextos cortos o espera a que estabilicen la persistencia de las instrucciones en tareas largas.


Código limpio siempre,
Diego.

Diego Navarro
Diego Navarro

Diego Navarro - Early Adopter Tech Analyst at UsedBy.ai

Artículos relacionados

Mantente al día con las tendencias de adopción de IA

Recibe nuestros últimos informes y análisis en tu correo. Sin spam, solo datos.