OpenChat-RAG es un dashboard de IA local y API de chat robusta y agnóstica al modelo, diseñada para ser el backend de tus agentes CLI (Claude Code, etc.) o una alternativa auto-hospedada a ChatGPT. Expone un endpoint compatible con la API de OpenAI en /api/v1/chat, lo que significa que cualquier herramienta que ya use OpenAI puede apuntar a esta API sin cambios de código.
Características principales
- API First: endpoint compatible con OpenAI en
/api/v1/chat, listo para integrarse con cualquier agente o herramienta existente. - Pipeline RAG: worker en segundo plano (BullMQ) para procesar PDFs y documentos DOCX e incorporarlos al contexto de las respuestas.
- Base de datos vectorial: PostgreSQL con la extensión
pgvectorpara almacenamiento y búsqueda semántica eficiente. - Dashboard de gestión: interfaz web sencilla para administrar y probar el sistema.
- Dockerizado: arranca todo el stack con un solo comando.
Stack tecnológico
- Web Service: Next.js App Router (UI + API)
- Worker Service: proceso Node.js dedicado para RAG y generación de embeddings
- Base de datos: PostgreSQL con extensión
pgvector - Cola de trabajos: Redis + BullMQ para gestión de jobs asíncronos
Inicio rápido
# 1. Configurar variables de entorno
cp .env.example .env
# Editar .env con tus claves de API
# 2. Iniciar todo el stack
docker-compose up -d --build
Tras arrancar, accede al dashboard en http://localhost:3000 y al endpoint de la API en http://localhost:3000/api/v1/chat.
Prerrequisitos
- Docker y Docker Compose
- Una clave de API compatible con OpenAI (OpenAI, DeepSeek, vLLM, etc.)