- Nuevo modo automático de Claude Code que ejecuta tareas de programación con menos solicitudes de permiso.
- Un clasificador de IA revisa cada llamada a herramienta y bloquea acciones potencialmente destructivas o de exfiltración de datos.
- Funciona por ahora con Sonnet 4.6 y Opus 4.6, en vista previa para clientes Team y con llegada prevista a Enterprise y API.
- Anthropic insiste en usarlo en entornos aislados: reduce el riesgo frente a dangerously skip permissions, pero no lo elimina.

El lanzamiento del modo automático de Claude Code vuelve a poner sobre la mesa una de las grandes dudas de la programación asistida por IA: ¿hasta dónde dejar que la máquina actúe por su cuenta sin poner en riesgo proyectos enteros? Anthropic ha apostado por una vía intermedia que intenta cuadrar el círculo: menos interrupciones, pero con un sistema de frenos basado en otro modelo de inteligencia artificial.
Este nuevo enfoque llega en un momento en el que los agentes de código ya no se limitan a autocompletar funciones, sino que crean carpetas, mueven archivos, ejecutan comandos de terminal e interactúan con repositorios completos. En Europa y España, donde la preocupación por la seguridad, la protección de datos y el cumplimiento normativo es especialmente sensible, el equilibrio entre autonomía y control resulta clave para que este tipo de herramientas se integren en equipos de desarrollo reales.
Qué pretende resolver el modo automático de Claude Code
El nuevo modo automático se presenta como una «vía de en medio» entre la revisión manual constante y la libertad total. Hasta ahora, muchos desarrolladores que trabajaban con Claude Code se encontraban atrapados entre dos extremos: aceptar un flujo de trabajo plagado de solicitudes de permiso o activar el ajuste más agresivo, conocido como dangerously skip permissions, que reduce las comprobaciones y acelera el ritmo a costa de aumentar los riesgos.
Con esta función, Anthropic intenta que las tareas largas de programación puedan ejecutarse con menos fricciones. En lugar de preguntar por casi cada paso, el sistema deja que la IA avance sola cuando detecta operaciones de bajo riesgo, pero introduce una capa automática de vigilancia para frenar aquellas acciones que puedan resultar peligrosas para el entorno de trabajo o para los datos que maneja el proyecto.
La idea conecta con una realidad cotidiana en muchos equipos de software europeos: proyectos alojados en repositorios Git, integraciones continuas, despliegues en la nube y entornos donde un comando mal planteado puede borrar directorios críticos o exponer información sensible. No se trata solo de no romper el sistema operativo, sino de evitar daños en código de negocio, servicios internos o aplicaciones en producción.
En ese escenario, el modo automático aspira a mantener fluida la sesión con la IA sin obligar a desarrolladores y empresas a renunciar por completo a la sensación de control. Es un intento de adaptar la herramienta a un uso diario en el que el tiempo perdido aceptando permisos uno a uno se traduce en costes reales.
Cómo funciona el clasificador que vigila a Claude
El corazón del modo automático es un clasificador de IA que revisa cada llamada a herramienta antes de ejecutarse. Cada vez que Claude Code quiere escribir un archivo, ejecutar un comando de shell, modificar directorios o interactuar con el repositorio, esa acción pasa primero por un filtro automatizado que evalúa el nivel de riesgo.
Según ha explicado Anthropic, este filtro busca, entre otros patrones, operaciones destructivas a gran escala, movimientos sospechosos de datos y ejecución potencialmente maliciosa. En la práctica, el sistema intenta detectar situaciones como un borrado masivo de archivos, la extracción de información sensible hacia fuera del entorno de trabajo o la respuesta a instrucciones inyectadas de forma encubierta en el código o la documentación.
Si el clasificador interpreta que la acción es segura, la deja pasar sin pedir confirmación al usuario. Si, por el contrario, la considera peligrosa, la bloquea antes de que tenga efecto. Claude no se queda parado ante ese bloqueo: intenta buscar otra forma de completar la tarea, por ejemplo, reformulando los pasos o modificando el enfoque para evitar el comportamiento que ha sido marcado como de alto riesgo.
Cuando el asistente insiste una y otra vez en operaciones que continúan encontrando el muro del clasificador, el flujo se detiene: el sistema eleva la situación al usuario mediante una nueva solicitud de permiso. De este modo, la IA no se queda atrapada en un bucle de intentos fallidos sin que nadie se entere, pero tampoco obliga a revisar manualmente todo desde el principio.
Esta arquitectura introduce una novedad importante: parte de la confianza se desplaza desde el modelo de código principal hacia el modelo que lo supervisa. En vez de confiar siempre en el juicio directo del agente que escribe y ejecuta comandos, el usuario pasa a depender también de la calidad del sistema que decide qué es peligroso y qué no dentro del entorno de desarrollo.
Permisos, entornos aislados y riesgos que se mantienen
Anthropic ha sido explícita al recalcar que el modo automático reduce el riesgo frente a la opción de saltarse permisos, pero no lo elimina. La compañía sigue recomendando trabajar en entornos aislados, algo muy habitual en empresas europeas que separan con cuidado los sistemas de pruebas de los sistemas de producción por razones tanto técnicas como regulatorias.
En la práctica, esto implica que el asistente suele operar sobre una jerarquía concreta de carpetas o dentro de contenedores y máquinas de desarrollo preparadas para experimentar. Aun así, dentro de ese espacio acotado podría dañarse un repositorio entero, sobre todo si un error afecta a archivos nucleares del proyecto o a componentes compartidos por varios equipos.
Experiencias documentadas por probadores tempranos muestran que, incluso con límites claros, Claude Code ha llegado a corromper bases de código en sesiones previas. Estos precedentes explican por qué el debate sobre permisos no es una cuestión meramente académica: quienes ya han vivido un percance con una IA demasiado confiada miran con cierta cautela cualquier función que amplíe su autonomía.
Otra advertencia que hace la propia Anthropic es que el clasificador puede equivocarse. No se descarta que ciertas acciones realmente peligrosas se cuelen por el filtro si el contexto no queda bien interpretado, ni que operaciones inocuas queden bloqueadas por exceso de celo. Para entornos europeos con requisitos de auditabilidad, esa posibilidad obliga a mantener buenas prácticas de copia de seguridad y revisión técnica.
En ese punto, el papel del desarrollador y de los responsables de sistemas sigue siendo imprescindible: la función automatizada ayuda, pero no sustituye la supervisión humana ni las políticas de seguridad internas. Muchas empresas seguirán combinando la nueva función con copias diarias, snapshots o sistemas de control de versiones reforzados para minimizar las consecuencias de cualquier error.
Modelos compatibles, disponibilidad y coste operativo
En esta fase inicial, Anthropic ha lanzado el modo automático como vista previa de investigación para clientes del plan Team. Según la información compartida por la compañía, la función se irá ampliando en los próximos días a usuarios de planes Enterprise y a quienes integran Claude Code vía API, un canal especialmente relevante para empresas europeas que conectan la herramienta con sus propios sistemas internos.
Por ahora, la compatibilidad se limita a dos modelos concretos: Sonnet 4.6 y Opus 4.6. Esto significa que organizaciones que trabajen con otras variantes de Claude tendrán que ajustar su configuración si quieren probar el modo automático en su flujo de desarrollo. No se ha anunciado de momento soporte para modelos de gamas anteriores.
Anthropic también ha avisado de que la capa adicional de clasificación tiene un coste. Cada acción de herramienta pasa por un proceso de evaluación extra que incrementa ligeramente tanto el consumo de tokens como la latencia. En entornos con cientos de llamadas a herramientas por sesión, ese sobrecoste puede hacerse visible tanto en la factura como en los tiempos de respuesta.
Para empresas europeas que ya controlan de cerca el gasto en servicios de IA en la nube, este detalle no es menor. La decisión de activar o no el modo automático probablemente pasará por un análisis de coste-beneficio: menos interrupciones y algo más de seguridad, a cambio de un incremento moderado en consumo y tiempos. En organizaciones grandes, el equilibrio podría variar según el tipo de proyecto o el entorno (desarrollo, pruebas, staging, producción).
En cuanto a la gestión y gobierno interno, la compañía ha previsto mecanismos para que los administradores puedan limitar o desactivar el uso del modo automático en determinados contextos, algo especialmente relevante en empresas que operan en varios países de la UE con marcos regulatorios y políticas de seguridad diferenciadas.
Un paso más hacia agentes de código más autónomos
El movimiento de Anthropic se enmarca en una competencia creciente por ofrecer agentes de desarrollo cada vez más autónomos. Herramientas como GitHub Copilot, soluciones de OpenAI o editores especializados están evolucionando desde el autocompletado hacia sistemas capaces de llevar a cabo tareas de principio a fin con mínima intervención humana.
En ese panorama, el modo automático de Claude Code funciona casi como un experimento de cómo debería ser la autonomía controlada en entornos profesionales de software. En lugar de prometer libertad total, la propuesta está más cerca de un pacto: la IA ejecuta todo lo que entra dentro de un marco razonable de seguridad, y deriva al usuario lo que se sale de esos límites.
Este enfoque puede resultar especialmente atractivo para equipos técnicos europeos acostumbrados a convivir con auditorías, requisitos de trazabilidad y marcos normativos estrictos. Disponer de un agente que no solo actúa, sino que está a su vez vigilado por otro modelo, encaja mejor con una cultura de control por capas que con la idea de dejarlo todo en manos de una única IA todopoderosa.
La propia Anthropic reconoce que el sistema evolucionará con el tiempo. Claude Code lleva relativamente poco en el mercado, pero ya ha influido en la forma de trabajar de muchos desarrolladores. La incorporación de este modo automático podría convertirse en un elemento más de ese cambio, siempre que la experiencia en casos reales muestre que los falsos positivos y negativos del clasificador se mantienen en niveles aceptables.
Mientras tanto, las empresas europeas interesadas en probar la función tendrán que valorar si sus procesos y políticas internas están preparados para integrar un agente de este tipo: separar entornos, ajustar permisos, documentar el uso y, sobre todo, definir qué grado de autonomía están dispuestas a conceder a una IA dentro de su ciclo de desarrollo.
Con este modo automático, Anthropic se suma a la carrera por agentes de programación más independientes, pero lo hace apostando por una estrategia de autonomía supervisada, basada en un clasificador que actúa como guardarraíl entre la productividad y el riesgo. Para estudios, startups y equipos consolidados en España y el resto de Europa, la herramienta abre la puerta a flujos de trabajo más ágiles, siempre que se combine con buenas prácticas de seguridad, control de costes y una dosis realista de confianza en lo que la IA puede hacer hoy sin poner en juego la estabilidad del código.
Soy un apasionado de la tecnología que ha convertido sus intereses «frikis» en profesión. Llevo más de 10 años de mi vida utilizando tecnología de vanguardia y trasteando todo tipo de programas por pura curiosidad. Ahora me he especializado en tecnología de ordenador y videojuegos. Esto es por que desde hace más de 5 años que trabajo redactando para varias webs en materia de tecnología y videojuegos, creando artículos que buscan darte la información que necesitas con un lenguaje entendible por todos.
Si tienes cualquier pregunta, mis conocimientos van desde todo lo relacionado con el sistema operativo Windows así como Android para móviles. Y es que mi compromiso es contigo, siempre estoy dispuesto a dedicarte unos minutos y ayudarte a resolver cualquier duda que tengas en este mundo de internet.


