Tu editor AI no sabe realmente qué estás haciendo
Un artículo circulado en Hacker News señala el límite estructural que comparten todos los asistentes de código: actúan sin entender el proyecto en su conjunto.
Hay un problema que cualquier desarrollador que lleve semanas usando Claude Code, Cursor o Copilot conoce de sobra: el asistente te resuelve la función que le pides, pero no tiene ni idea de por qué esa función existe, qué decisión de arquitectura la rodea ni qué restricción de negocio la condiciona. Un artículo publicado el 5 de mayo en el blog personal de hashino, y que circuló por Hacker News ese mismo día, lo articula con precisión: tu editor AI no sabe qué estás haciendo.
La tesis no es nueva, pero la formulación es útil porque desplaza el foco. El problema no es que el modelo cometa errores —eso ya lo asumimos—, sino que opera sin modelo mental del proyecto. Puede leer los archivos que le das, puede inferir patrones del código visible, pero no accede a la intención detrás de cada decisión, al historial de por qué se descartó una aproximación anterior, ni al contexto organizativo que da sentido a ciertas restricciones.
El límite no es de capacidad, es de contexto
Es tentador pensar que este problema desaparecerá con ventanas de contexto más grandes. Claude Opus 4.7 ya trabaja con hasta 1 millón de tokens, lo que permite cargar repositorios enteros en una sola sesión. Y aun así, el problema persiste porque la mayor parte del conocimiento relevante no está en los archivos: está en las cabezas del equipo, en conversaciones de Slack de hace seis meses, en una decisión tomada en una reunión que nadie documentó.
Lo que el artículo describe es, en el fondo, la diferencia entre contexto sintáctico y contexto semántico. El primero —el que se puede meter en un prompt— es el que los LLMs procesan bien. El segundo —el que da sentido a las elecciones técnicas— es el que sigue siendo territorio humano.
Esto no significa que los asistentes sean inútiles. Significa que su utilidad tiene una geografía concreta: brillan en tareas autocontenidas, en refactorizaciones acotadas, en generación de tests para funciones bien definidas. Flaquean cuando el trabajo requiere razonar sobre la totalidad del sistema o sobre decisiones que no están escritas en ningún sitio.
Qué pueden hacer las herramientas (y qué no)
Algunos de los mecanismos que Anthropic ha incorporado en Claude Code apuntan precisamente a mitigar este gap. Los skills permiten empaquetar instrucciones y contexto reutilizable que el agente puede invocar bajo demanda, lo que ayuda a transferir conocimiento tácito de forma estructurada. Los hooks permiten inyectar información en momentos concretos del ciclo de vida de una tarea. Los MCP servers abren la puerta a conectar el agente con fuentes de verdad externas —documentación interna, wikis, sistemas de tickets— que amplían el contexto más allá del repositorio.
Pero todas estas soluciones requieren que alguien, en algún momento, haya externalizado el conocimiento tácito en algún formato legible por la máquina. Si el equipo no documenta sus decisiones de arquitectura, ningún MCP server va a rescatarlas.
Para quién importa más este problema
El artículo resuena especialmente en tres perfiles:
- Desarrolladores que trabajan en proyectos legacy: el código acumula decisiones sin documentar desde hace años. Pedirle a un AI editor que toque ese código sin contexto es una invitación a regresiones sutiles.
- Equipos distribuidos: donde el conocimiento está más fragmentado y la documentación suele ir por detrás de la realidad del código.
- Ingenieros junior que delegan demasiado pronto: pueden generar código funcionalmente correcto pero arquitectónicamente desalineado, sin saberlo.
Opinión EP
El artículo no aporta una solución nueva, pero el diagnóstico es honesto y vale la pena que circule. Mientras la industria vende los editores AI como aceleradores universales, conviene recordar que su rendimiento está acotado por la calidad del contexto que el desarrollador es capaz de proveer —y eso, de momento, sigue siendo un problema humano.
Fuentes
Seguir leyendo
Reinventar la rueda tiene más sentido del que parece
Andrew Quinn argumenta que construir herramientas ya existentes es un paso necesario en el aprendizaje, no una pérdida de tiempo. Simon Willison lo recoge y merece atención.
Límites de uso en Claude empujan a usuarios hacia alternativas chinas de bajo coste
Un hilo en Hacker News refleja una tendencia creciente: desarrolladores que migran a GLM, Kimi o MiniMax ante los recortes de cuota en los planes de Claude.
Por qué HTML puede ser mejor que Markdown como output de Claude
Un ingeniero del equipo de Claude Code en Anthropic defiende HTML sobre Markdown como formato de salida. Ventanas de 1M tokens cambian el cálculo.