Share code with LLMs via Model Context Protocol or clipboard. Rule-based customization enables easy switching between different tasks (like code review and documentation). Includes smart code outlining.
- ✓Open-source license (Apache-2.0)
- ✓Actively maintained (<30d)
- ✓Healthy fork ratio
- ✓Clear description
- ✓Topics declared
- ✓Mature repo (>1y old)
{
"mcpServers": {
"llm-context-py": {
"command": "node",
"args": ["/path/to/llm-context.py/dist/index.js"]
}
}
}~/Library/Application Support/Claude/claude_desktop_config.json (Mac) or %APPDATA%\Claude\claude_desktop_config.json (Windows).<placeholder> values with your API keys or paths.Resumen de MCP Servers
Lo que la gente pregunta sobre llm-context.py
¿Qué es cyberchitta/llm-context.py?
+
cyberchitta/llm-context.py es mcp servers para el ecosistema de Claude AI. Share code with LLMs via Model Context Protocol or clipboard. Rule-based customization enables easy switching between different tasks (like code review and documentation). Includes smart code outlining. Tiene 299 estrellas en GitHub y se actualizó por última vez today.
¿Cómo se instala llm-context.py?
+
Puedes instalar llm-context.py clonando el repositorio (https://github.com/cyberchitta/llm-context.py) o siguiendo las instrucciones del README en GitHub. ClaudeWave también te ofrece bloques de instalación rápida en esta misma página.
¿Es seguro usar cyberchitta/llm-context.py?
+
Nuestro agente de seguridad ha analizado cyberchitta/llm-context.py y le ha asignado un Trust Score de 100/100 (tier: Verified). Revisa el desglose completo de comprobaciones superadas y flags en esta página.
¿Quién mantiene cyberchitta/llm-context.py?
+
cyberchitta/llm-context.py es mantenido por cyberchitta. La última actividad registrada en GitHub es de today, con 3 issues abiertos.
¿Hay alternativas a llm-context.py?
+
Sí. En ClaudeWave puedes explorar mcp servers similares en /categories/mcp, ordenados por popularidad o actividad reciente.
Despliega llm-context.py en tu cloud
Lleva este repo a producción en minutos. Cada plataforma genera su propio entorno con variables de entorno editables.
¿Mantienes este repo? Añade un badge a tu README
Pega el badge en tu README de GitHub para mostrar que está auditado por ClaudeWave. Cada badge enlaza de vuelta a esta página y muestra el Trust Score actual.
[](https://claudewave.com/repo/cyberchitta-llm-context-py)<a href="https://claudewave.com/repo/cyberchitta-llm-context-py"><img src="https://claudewave.com/api/badge/cyberchitta-llm-context-py" alt="Featured on ClaudeWave — cyberchitta/llm-context.py" width="320" height="64" /></a>Más MCP Servers
Fair-code workflow automation platform with native AI capabilities. Combine visual building with custom code, self-host or cloud, 400+ integrations.
User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
An open-source AI agent that brings the power of Gemini directly into your terminal.
A collection of MCP servers.
The fastest path to AI-powered full stack observability, even for lean teams.
The all-in-one AI productivity accelerator. On device and privacy first with no annoying setup or configuration.