
Tu Echo Dot te escucha 24/7. Tu Google Home envía cada comando a los servidores de Mountain View. Y tú, mientras tanto, le pides que encienda la luz del salón sin saber que esos datos alimentan perfiles publicitarios. En 2026, hay otra forma: un asistente de voz con inteligencia artificial local que funciona sin internet, no comparte tus datos con nadie y —lo mejor— puedes personalizar hasta el último detalle. Hoy te enseño cómo montar uno paso a paso.
El elefante en la habitación: la privacidad de Alexa y Google Home
Cada vez que dices “Alexa, enciende la calefacción”, tu voz viaja a los servidores de Amazon, se transcribe, se procesa y —según sus propias políticas— se almacena. Google Home funciona igual. En 2024, Amazon admitió que empleados humanos revisaban grabaciones de Alexa para “mejorar el servicio”. ¿Te suena bien?
Pero el problema va más allá de la privacidad. Cuando el servidor de Amazon se cae (ha pasado varias veces), tu casa inteligente deja de funcionar. Dependes de una conexión a internet para encender una bombilla que está a 2 metros de ti. Absurdo.
La alternativa existe y cada vez es más viable: un LLM (Large Language Model) ejecutándose localmente en tu propia red, integrado con Home Assistant. Sin nube, sin suscripciones, sin que nadie escuche lo que pasa en tu casa. Si ya estás pensando en dejar Google Home, esto es el siguiente nivel.
¿Qué es un LLM local y por qué cambia las reglas?
Un LLM (Large Language Model) es el cerebro detrás de ChatGPT, Gemini o Claude. Son modelos de inteligencia artificial capaces de entender lenguaje natural y generar respuestas coherentes. La diferencia clave: normalmente se ejecutan en servidores remotos, pero los avances en optimización permiten correr versiones más pequeñas directamente en tu casa.
¿Qué ganas con un LLM local?
- Privacidad total — Tus comandos de voz nunca salen de tu red local. Punto.
- Funciona sin internet — Se cae la fibra y tu asistente sigue respondiendo.
- Personalización extrema — Puedes decirle que hable como un mayordomo británico, que solo responda en español, o que tenga contexto sobre tu casa.
- Sin suscripciones — Cero costes mensuales. Compras el hardware una vez y listo.
- Control de dispositivos — Integrado con Home Assistant, puede encender luces, activar escenas, consultar sensores y más.
Y no, no necesitas un servidor de 3.000€. Con un mini PC de 150-200€ ya puedes tener un asistente de voz totalmente funcional.
El hardware que necesitas (para cada bolsillo)
El hardware es la decisión más importante porque determina qué modelos de IA puedes ejecutar y con qué velocidad responderá tu asistente. Aquí van las tres opciones más habituales:
Opción económica: Intel N100 (desde 130€)
El procesador Intel N100 se ha convertido en el rey del bajo consumo para Home Assistant. Mini PCs como los Beelink Mini S12 Pro o los GMKtec NucBox llevan este chip y ofrecen un rendimiento sorprendente para su tamaño y precio.
- CPU: Intel N100 (4 núcleos, hasta 3.4 GHz)
- RAM recomendada: 16 GB DDR4 (imprescindible para LLM)
- Almacenamiento: SSD 256-512 GB
- Consumo: ~6-10W en carga — tu factura ni se entera
- Modelos que mueve: Qwen 2.5 3B, Gemma 3 4B, Llama 3.2 3B (modelos pequeños, respuesta en 3-8 segundos)
Ver Mini PCs Intel N100 en Amazon | Ver GMKtec N100 en Amazon
Opción equilibrada: Intel N150/N305 o AMD Ryzen 5 (200-350€)
Si quieres un asistente que responda más rápido y puedas ejecutar modelos de 7-9B parámetros con soltura, necesitas dar un salto. Los Intel N305 (8 núcleos) o los AMD Ryzen 5 en formato mini PC son la opción ideal.
- RAM recomendada: 16-32 GB DDR5
- Modelos que mueve: Qwen 2.5 7B, Llama 3.1 8B, Gemma 3 12B (respuesta en 2-5 segundos)
- Ventaja: Suficiente potencia para Whisper (STT) + LLM + Piper (TTS) simultáneamente
Ver Minisforum N305 en Amazon | Ver Beelink AMD Ryzen en Amazon
Opción potente: AMD Ryzen 7/9 + GPU dedicada (400-800€)
Para los que quieren el mejor asistente posible con modelos grandes (27B-70B parámetros) y respuestas casi instantáneas. Un mini PC con Ryzen 7 8845HS o Ryzen 9 y 32-64 GB de RAM, o un equipo con una GPU NVIDIA dedicada (RTX 3060 12GB o superior).
- RAM recomendada: 32-64 GB DDR5
- Modelos que mueve: Qwen 2.5 27B, Llama 3.1 70B (cuantizado), Gemma 3 27B
- Con GPU: Respuestas en menos de 1 segundo. La diferencia es brutal.
Ver Mini PCs Ryzen 7 en Amazon
Comparativa rápida de hardware
| Hardware | Precio aprox. | Modelo LLM máximo | Velocidad respuesta | Consumo |
|---|---|---|---|---|
| Intel N100 (16GB) | 130-180€ | 3-4B parámetros | 3-8 seg | ~8W |
| Intel N305 (32GB) | 200-300€ | 7-9B parámetros | 2-5 seg | ~15W |
| Ryzen 7 (32GB) | 350-500€ | 14-27B parámetros | 1-3 seg | ~25W |
| Ryzen 9 + RTX 3060 | 600-900€ | 27-70B parámetros | <1 seg | ~80W |
El stack de software: las piezas del puzle
Un asistente de voz local necesita cuatro componentes que trabajan en cadena. Piensa en ello como una línea de montaje donde tu voz pasa por cada estación:
- Wake Word (openWakeWord) — Detecta “Hey Jarvis”, “Oye casa” o la palabra clave que elijas. Funciona en local y consume mínimos recursos.
- Speech-to-Text / STT (Whisper) — Convierte tu voz en texto. El modelo Whisper de OpenAI es open source y funciona muy bien en español.
- LLM / Cerebro (Ollama) — Interpreta lo que has dicho, entiende el contexto y decide qué hacer. Aquí es donde ocurre la magia.
- Text-to-Speech / TTS (Piper) — Convierte la respuesta del LLM en voz natural. Voces en español incluidas.
Todo esto se conecta mediante el Wyoming Protocol, el estándar de Home Assistant para comunicar servicios de voz. Y la buena noticia: todos son add-ons oficiales o semioficiales que se instalan con un par de clics.
Modelos de LLM recomendados para Home Assistant
No todos los modelos funcionan igual de bien para controlar tu casa. Necesitas uno que entienda español, siga instrucciones concretas y no alucine inventando dispositivos que no tienes. Estos son los que mejor funcionan en 2026:
Qwen 2.5 (3B / 7B / 27B) — El mejor en español
Desarrollado por Alibaba, la familia Qwen 2.5 destaca por su excelente comprensión del español y su eficiencia. El modelo de 7B es el sweet spot: entiende comandos complejos, puede manejar contexto de tu casa y cabe en 16 GB de RAM sin problemas.
- 3B: Para N100. Básico pero funcional para comandos simples.
- 7B: Ideal para la mayoría. Gran calidad en español.
- 27B: Premium. Necesita 32GB+ RAM pero entiende contextos complejos.
Llama 3.1/3.2 (3B / 8B / 70B) — El más versátil
De Meta (Facebook), la familia Llama es probablemente el LLM open source más popular. El 8B es muy capaz y hay toneladas de versiones fine-tuneadas para asistentes de voz. En español funciona bien, aunque Qwen le gana ligeramente.
- 3B: Compacto, para hardware limitado.
- 8B: El caballo de batalla. Excelente equilibrio.
- 70B: Solo con GPU dedicada. Nivel ChatGPT en local.
Gemma 3 (4B / 12B / 27B) — El de Google, pero libre
Irónico: Google libera Gemma 3 como modelo open source mientras cobra por su asistente en la nube. Gemma 3 12B es especialmente interesante porque incluye capacidad multimodal y buen soporte de español.
- 4B: Ligero y rápido.
- 12B: Buen rendimiento general. La alternativa a Qwen 7B.
- 27B: Excelente calidad, necesita hardware potente.
Comparativa de modelos
| Modelo | RAM mínima | Español | Velocidad | Control HA | Mejor para |
|---|---|---|---|---|---|
| Qwen 2.5 7B | 8 GB | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | Uso general en español |
| Llama 3.1 8B | 8 GB | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | Control avanzado de HA |
| Gemma 3 12B | 12 GB | ⭐⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐⭐ | Multimodal + voz |
| Qwen 2.5 3B | 4 GB | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐ | Hardware limitado |
| Llama 3.1 70B Q4 | 40 GB | ⭐⭐⭐⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ | Máxima calidad |
Setup paso a paso: de cero a asistente local
Vamos al grano. Estos son los pasos exactos para montar tu asistente de voz con LLM local. Si ya tienes Home Assistant funcionando (y si no, aquí tienes nuestra guía de asistente de voz local), puedes ir directamente al paso 3.
Paso 1: Instalar Home Assistant OS
Si aún no tienes Home Assistant, la forma más sencilla es instalar Home Assistant OS en tu mini PC. Descarga la imagen desde home-assistant.io, grábala en un USB con Balena Etcher y arranca desde él. En 10 minutos tendrás HA funcionando.
Tip: Si prefieres más control, puedes instalar Home Assistant Supervised sobre Debian 12. Esto te da acceso directo al sistema operativo para instalar Ollama nativamente (más rendimiento).
Paso 2: Instalar los add-ons de voz
Desde Ajustes → Complementos → Tienda de complementos, instala estos tres:
- Whisper — Motor de speech-to-text. Selecciona el modelo
medium-int8para español (buen equilibrio entre velocidad y precisión). Si tienes hardware potente, usalarge-v3. - Piper — Motor de text-to-speech. Descarga una voz en español (recomendamos
es_ES-davefx-mediumoes_ES-sharvard-medium). - openWakeWord — Detección de palabra clave. Por defecto incluye “Hey Jarvis”, “Hey Nabu” y “OK Nabu”. Puedes entrenar palabras personalizadas.
Inicia los tres add-ons y comprueba que aparecen en Ajustes → Dispositivos y servicios como integraciones Wyoming detectadas automáticamente.
Paso 3: Instalar y configurar Ollama
Aquí hay dos opciones según tu instalación:
Opción A — Ollama como add-on de HA (más fácil):
Existe un repositorio comunitario de add-ons que incluye Ollama. Añade la URL del repositorio en la tienda de complementos y tendrás Ollama ejecutándose dentro de Home Assistant.
Opción B — Ollama nativo en el host (más rendimiento):
Si usas HA Supervised sobre Linux, instala Ollama directamente:
curl -fsSL https://ollama.com/install.sh | sh
Después, descarga el modelo que quieras:
ollama pull qwen2.5:7b
Configura Ollama para que escuche en la red local editando la variable de entorno OLLAMA_HOST=0.0.0.0:11434.
Paso 4: Conectar Ollama con Home Assistant
Ve a Ajustes → Dispositivos y servicios → Añadir integración y busca “Ollama”. Introduce la URL de tu servidor (normalmente http://localhost:11434 o la IP de tu máquina) y selecciona el modelo descargado.
En las opciones de la integración, activa “Controlar Home Assistant” para que el LLM pueda interactuar con tus dispositivos. Luego ve a Ajustes → Asistentes de voz y expone las entidades que quieres que el LLM controle (luces, termostatos, persianas, etc.).
Paso 5: Crear el pipeline de voz completo
Ve a Ajustes → Asistentes de voz y crea un nuevo asistente con esta configuración:
- Agente de conversación: Ollama (el modelo que instalaste)
- Speech-to-text: Whisper (faster-whisper, modelo medium)
- Text-to-speech: Piper (voz española seleccionada)
- Wake word: openWakeWord → “Hey Jarvis”
Dale a guardar y pruébalo desde la app de Home Assistant (icono de Assist arriba a la derecha) o desde un dispositivo de voz como el Voice PE o Atom Echo.
Paso 6: Automatizaciones básicas con tu asistente
Con el LLM conectado, puedes hacer cosas que Alexa ni sueña:
- “Prepara la casa para película” → El LLM interpreta el contexto: baja persianas, atenúa luces al 20%, enciende la TV.
- “¿Cuánta energía he gastado hoy?” → Consulta tus sensores de energía y te da un resumen.
- “¿Está cerrada la puerta del garaje?” → Comprueba el estado del sensor y responde.
- “Está haciendo frío, pon la calefacción cómoda” → Lee la temperatura actual y ajusta el termostato a tu rango preferido.
La clave está en las instrucciones del sistema (system prompt) que configuras en la integración de Ollama. Ahí puedes decirle al LLM cómo se llaman tus habitaciones, qué preferencias tienes y cómo debe responder.
Comparativa: LLM local vs Alexa vs Google vs ChatGPT en la nube
| Característica | LLM Local | Alexa/Google | ChatGPT (nube) |
|---|---|---|---|
| Privacidad | ✅ Total | ❌ Datos en la nube | ❌ Datos en la nube |
| Funciona offline | ✅ Sí | ❌ No | ❌ No |
| Coste mensual | ✅ 0€ | ✅ 0€ (con publicidad) | ❌ 20€/mes |
| Calidad respuesta | ⭐⭐⭐⭐ (depende del modelo) | ⭐⭐⭐ | ⭐⭐⭐⭐⭐ |
| Personalización | ✅ Total | ❌ Limitada | ⚠️ Parcial |
| Control HA nativo | ✅ Directo | ⚠️ Via skills/rutinas | ⚠️ Con integración |
| Skills/apps terceros | ❌ No | ✅ Miles disponibles | ❌ No |
| Música streaming | ❌ No nativo | ✅ Spotify, Amazon Music | ❌ No |
| Compras por voz | ❌ No | ✅ Sí | ❌ No |
| Velocidad | ⭐⭐⭐ (según hardware) | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
Limitaciones: qué NO puede hacer (todavía)
Seamos honestos. Un LLM local en Home Assistant es impresionante, pero no reemplaza al 100% a Alexa o Google Home en todos los escenarios:
- No hay skills de terceros — Olvídate de pedir un Uber o consultar el menú de Telepizza por voz.
- Música streaming limitada — No puedes decir “pon Spotify” directamente (aunque puedes configurar automatizaciones en HA que lancen reproducción en dispositivos multimedia).
- Compras por voz — No vas a comprar en Amazon con tu LLM local. Sinceramente, ¿alguien usaba esto?
- Latencia variable — En hardware económico, la respuesta puede tardar 5-8 segundos. Alexa responde en 1-2 segundos. Con buen hardware, la diferencia se reduce mucho.
- Multi-idioma limitado — Funciona bien en un idioma. Cambiar entre español e inglés al vuelo requiere configuración extra.
- Curva de aprendizaje — Necesitas saber moverte por Home Assistant. No es plug-and-play como un Echo Dot.
Dicho esto, cada mes aparecen mejoras. Los modelos son más rápidos, los add-ons más fáciles de configurar y la comunidad de Home Assistant no para de crear herramientas nuevas.
¿Para quién merece la pena? Mi recomendación
Sí, lánzate si:
- Ya usas Home Assistant (o quieres empezar)
- Te preocupa la privacidad y no quieres micrófonos de Amazon/Google en tu casa
- Disfrutas trasteando y personalizando tu sistema domótico
- Quieres un asistente que entienda el contexto de TU casa, no uno genérico
- Valoras la independencia: si Amazon cierra Alexa mañana, tu casa sigue funcionando
Quizá no es para ti si:
- Usas mucho las skills de Alexa (pedidos, recetas, juegos)
- Necesitas respuestas ultrarrápidas y no quieres invertir en hardware potente
- No te sientes cómodo con configuraciones técnicas
Mi recomendación concreta: Empieza con un mini PC Intel N100 con 16 GB de RAM (unos 150€) y el modelo Qwen 2.5 7B. Es la combinación con mejor relación calidad-precio para un asistente en español. Si te engancha —y lo hará—, siempre puedes escalar a hardware más potente después.
El futuro del hogar inteligente no está en la nube de nadie. Está en tu salón, en un mini PC silencioso, ejecutando una IA que solo te obedece a ti. 🏠
Precios actualizados a marzo 2026. Pueden variar. Este artículo contiene enlaces de afiliado — si compras a través de ellos, nos ayudas a mantener el blog sin coste adicional para ti.