Chat con LLMs Locales usando n8n y Ollama
Permite interactuar con modelos de lenguaje grandes (LLMs) autoalojados a través de una interfaz de chat en n8n. Conecta a Ollama para enviar prompts y recibir respuestas generadas por IA.
Nodos
Herramientas
Detalles
- ID
- 2384
- Nodos
- 5
- Conex.
- Sí
- Tipos
- 4
Pertenece a:
¿Qué hace este workflow?
Este workflow te permite establecer un canal de chat directamente en n8n para interactuar con modelos de lenguaje grandes (LLMs) que ejecutas localmente con Ollama. Recibe mensajes de chat, envíalos a tu modelo Ollama y presenta las respuestas generadas por IA de vuelta en la interfaz de n8n. Ideal para desarrolladores y empresas que buscan experimentar con LLMs de forma privada, construir prototipos rápidos o integrar capacidades de IA personalizadas sin depender de servicios en la nube externos. Ofrece un control total sobre tus datos y modelos, reduciendo costes y latencia, a la vez que asegura la confidencialidad de la información procesada.
¿Cómo funciona?
Este workflow usa 5 nodos conectados con 4 tipos diferentes: ChatTrigger, LmChatOllama, StickyNote, ChainLlm. La estructura está totalmente conectada — listo para importar.
¿Lo quieres en tu empresa?
→Lo implementamos por ti end-to-end: integración, deploy, mantenimiento y soporte. Consultoría B2B con Genai Sapiens.
Hablemos de tu proyecto¿Quieres aprender a hacerlo?
→Sprints de 30 días con companion IA + comunidad. Aprende n8n, automatización y agentes IA desde cero o nivel avanzado.
Ver formación Momentum