
¿Cansado de automatizaciones “tontas” que no entienden el contexto? Las reglas if/then de siempre no distinguen entre un día de calor seco y uno húmedo, ni entre estar solo o con invitados. La IA local cambia eso: decisiones inteligentes, privacidad garantizada y cero dependencia de la nube.
¿Qué es la IA local y por qué cambia las reglas del juego?
La inteligencia artificial local ejecuta modelos de lenguaje (LLMs) directamente en tu hardware, sin enviar datos a servidores externos. En lugar de depender de ChatGPT, Alexa o Google Assistant — que procesan todo en la nube — un LLM local corre íntegramente en tu red doméstica. Esto significa varias ventajas importantes:
- Privacidad total: Tus datos de hogar nunca salen de tu red. Ni tus horarios, ni tu consumo energético, ni las conversaciones con tu asistente viajan a servidores externos
- Latencia mínima: Respuestas rápidas sin depender de la velocidad de tu conexión a internet ni de la disponibilidad de servicios cloud
- Coste fijo: Sin suscripciones mensuales ni límites de API. Una vez que tienes el hardware, el coste operativo es solo la electricidad
- Contexto real: La IA puede analizar múltiples variables simultáneamente y tomar decisiones que un sistema de reglas estáticas jamás contemplaría
- Disponibilidad offline: Tu hogar inteligente sigue funcionando aunque se caiga internet, algo que con servicios cloud no puedes garantizar
A diferencia de Alexa o Google Assistant, que procesan todo en la nube, un asistente local mantiene tus conversaciones y datos dentro de casa. Y lo mejor: los modelos open source actuales como Qwen, Llama o Mistral son sorprendentemente capaces para tareas domóticas.
La arquitectura: cómo conectar Ollama con Home Assistant
El stack más eficiente para correr IA local en Home Assistant combina tres componentes clave que trabajan juntos de forma elegante:
- Ollama: Servidor de LLMs que corre en tu máquina local. Soporta desde un Raspberry Pi 5 hasta servidores con GPUs dedicadas. Se instala con un solo comando y gestiona la descarga y ejecución de modelos automáticamente
- Wyoming Protocol: Estándar de Home Assistant para integrar servicios de voz — STT (speech-to-text), TTS (text-to-speech) y conversation. Es el puente que permite que HA hable con servicios externos de forma estandarizada
- OpenClaw Conversation: Integración disponible en HACS que conecta Ollama con Home Assistant como agente de conversación. Permite enviar prompts con contexto de sensores y recibir decisiones estructuradas
El flujo completo funciona así: Home Assistant detecta un evento o trigger → envía contexto (temperatura, humedad, presencia, hora, precio de luz) a OpenClaw → OpenClaw formatea el prompt y lo envía a Ollama → el LLM procesa y devuelve una respuesta JSON estructurada → Home Assistant ejecuta la acción recomendada (encender luces, ajustar termostato, cerrar persianas, etc.).
Para sensores complejos o integraciones que necesitan procesamiento intermedio, también puedes usar la integración REST de Home Assistant para enviar datos directamente a la API de Ollama y recibir decisiones procesadas. Esto es especialmente útil cuando quieres crear automatizaciones que consulten al LLM sin pasar por el agente de conversación.
4 casos de uso donde la IA supera a las reglas tradicionales
La diferencia fundamental entre reglas if/then y un LLM es el razonamiento contextual. Una regla solo puede evaluar las condiciones que tú has previsto. Un LLM puede considerar combinaciones que ni siquiera habías imaginado. Veamos ejemplos concretos:
1. Ventilación inteligente con contexto meteorológico
Una regla simple dice: “Si temperatura exterior es menor que la interior, abrir ventanas”. Parece lógica, pero falla en muchos escenarios reales. ¿Qué pasa cuando hay alta humedad exterior? Meter aire húmedo en casa puede ser peor que mantener el calor seco. ¿Y si se acerca una tormenta? Abrir las ventanas media hora antes de un chaparrón no es la mejor idea.
Con IA local: El modelo analiza simultáneamente temperatura interior y exterior, humedad relativa de ambos ambientes, predicción de lluvia para las próximas horas, dirección del viento, hora del día y si hay alguien en casa. Con toda esa información, puede decidir cosas como: “Abrir ventanas ahora 30 minutos para refrescar antes de la tormenta de tarde y luego cerrar automáticamente” o “Mantener cerrado, aunque fuera hace menos calor, porque el aire exterior tiene un 85% de humedad y empeoraría el confort interior”.
2. Calefacción adaptativa con precio de la luz
El enfoque tradicional es programar franjas horarias: “22°C de 18:00 a 23:00”. Funciona, pero ignora completamente el contexto real. La IA puede optimizar mucho más considerando múltiples factores:
- Precio actual del kWh y predicción del PVPC para las próximas horas
- Ocupación real de la casa mediante sensores de presencia y calendario familiar
- Tendencia de temperatura interior: ¿está subiendo o bajando rápido? ¿Cuánta inercia térmica tiene la vivienda?
- Hora de llegada estimada de los residentes según patrones habituales o geofencing
- Previsión meteorológica exterior para anticipar necesidades de calefacción
Resultado práctico: el sistema calienta durante las horas baratas si sabe que la casa estará ocupada por la tarde, o retrasa el calentamiento si detecta que está vacía y el precio bajará en dos horas. Esto puede suponer un ahorro del 15-25% respecto a franjas fijas programadas.
3. Gestión de potencia contratada
Cuando estás al límite de tu potencia contratada, una automatización simple apaga dispositivos de forma aleatoria o por orden fijo. Es funcional, pero frustrante. La IA puede priorizar de forma inteligente según el contexto del momento:
- Importancia del dispositivo en ese instante (la nevera tiene prioridad sobre el cargador del coche, pero no sobre la bomba de calor si hace -5°C)
- Tiempo restante hasta fin de tarea (no vas a cortar una lavadora a 10 minutos de terminar el ciclo si puedes apagar el horno que ya ha terminado)
- Preferencias aprendidas del usuario a lo largo del tiempo: si siempre reenciendes el calefactor del baño manualmente, el sistema aprende a no cortarlo
- Predicción de consumo: si sabe que el lavavajillas terminará en 5 minutos, puede esperar en lugar de cortar otro dispositivo
4. Detección de anomalías en consumo
Los sistemas NILM (Non-Intrusive Load Monitoring) como NILMTK identifican dispositivos individuales por sus firmas de consumo eléctrico, usando solo el medidor general. La IA local puede analizar estos datos y detectar situaciones anómalas:
- Electrodomésticos que consumen más de lo normal: una nevera con la puerta abierta, un aire acondicionado con el filtro obstruido, o una caldera que cicla demasiado
- Dispositivos encendidos que no deberían estarlo según el contexto: la plancha olvidada cuando no hay nadie en casa, el horno encendido a las 3 AM
- Patrones inusuales que indican desperfectos antes de que fallen: una bomba de calor con ciclos cada vez más cortos señala pérdida de refrigerante
- Consumo fantasma excesivo: detectar si el standby total de la casa supera lo esperado y recomendar desconectar regletas específicas
Hardware recomendado: desde económico a potente
No necesitas un servidor de miles de euros. Dependiendo de la complejidad de tus automatizaciones, hay opciones para todos los presupuestos:
| Setup | Hardware | Modelos soportados | Velocidad |
|---|---|---|---|
| Económico | Raspberry Pi 5 (8GB) | Qwen 2.5 7B, Llama 3.2 3B | 5-10 tokens/seg |
| Equilibrado | Intel N100/N305 + 16GB RAM | Qwen 2.5 14B, Llama 3.3 70B (cuantizado) | 15-25 tokens/seg |
| Potente | Mini PC + RTX 3060/4060 | Cualquier modelo local | 30-50+ tokens/seg |
Para la mayoría de automatizaciones domóticas, un Mini PC con Intel N100 y 16GB ofrece el mejor equilibrio precio/rendimiento. Corre modelos de 7B-14B parámetros con latencia aceptable para decisiones en tiempo real. Además, consume apenas 10-15W, por lo que puedes tenerlo encendido 24/7 sin que se note en la factura.
Si buscas máxima eficiencia energética y ya tienes un setup de Home Assistant funcionando, el Raspberry Pi 5 con 8GB puede ejecutar modelos pequeños (3B-7B) para tareas simples como clasificación de intenciones o análisis básico de contexto. No esperes respuestas largas y elaboradas, pero para devolver un JSON con una decisión binaria (encender/apagar, abrir/cerrar) funciona sorprendentemente bien.
Qué modelo elegir para empezar
Con tantos modelos disponibles, puede ser difícil saber por dónde empezar. Para automatizaciones domóticas, lo que necesitas es un modelo que sea bueno siguiendo instrucciones y devolviendo JSON estructurado. Nuestras recomendaciones:
- Qwen 3.5 8B: Excelente relación calidad/tamaño. Entiende bien español y es muy bueno generando JSON consistente. Ideal para empezar
- Llama 3.2 3B: Más ligero, perfecto para hardware limitado. Menos capaz en razonamiento complejo pero suficiente para decisiones binarias
- Mistral 7B: Muy bueno en razonamiento y rápido en inferencia. Una alternativa sólida a Qwen si prefieres ecosistema europeo
- Qwen 3.5 27B: Para quienes tienen hardware suficiente (16GB+ RAM). Notablemente mejor en razonamiento multi-variable y comprensión de contexto complejo
La clave es usar prompts bien estructurados que incluyan el contexto de tus sensores y pidan una respuesta en formato JSON específico. Así la automatización puede parsear la respuesta directamente sin procesamiento adicional.
Limitaciones y cuándo NO usar IA
La IA local no es mágica, y usarla donde no corresponde puede ser contraproducente. Evítala en estos casos:
- Seguridad crítica: Alarmas de incendio, detectores de gas o inundación deben usar sensores dedicados con respuesta garantizada en milisegundos. Un LLM que tarda 2 segundos en responder es inaceptable aquí
- Latencia extrema: Si necesitas respuesta en menos de 100ms, las reglas tradicionales de Home Assistant son instantáneas. La IA siempre añade latencia de inferencia
- Determinismo requerido: Los LLMs son probabilísticos por naturaleza. Para comportamientos que deben ser absolutamente idénticos cada vez, usa automatizaciones YAML tradicionales
- Recursos limitados: En hardware muy justo donde Home Assistant ya va raspado, añadir un LLM puede ralentizar todo el sistema. Prioriza la estabilidad de HA
- Automatizaciones simples: Si “cuando se abre la puerta, encender la luz” funciona perfecto con una regla, no necesitas IA. No compliques lo que ya funciona
Conclusión: el futuro es híbrido
La IA local no reemplaza las automatizaciones tradicionales: las complementa. La estrategia ideal es usar reglas simples y deterministas para comportamientos predecibles (encender luces con movimiento, apagar todo al salir) y reservar la IA para decisiones complejas que requieren analizar múltiples variables y contexto.
Empezar es más sencillo de lo que parece: instala Ollama en tu servidor doméstico, descarga un modelo de 7B parámetros con un solo comando, configura la integración con Home Assistant y prueba con una automatización sencilla. Verás cómo tu casa empieza a “entender” situaciones que antes requerían docenas de reglas anidadas y aun así no cubrían todos los casos.
El ecosistema de IA local evoluciona rápidamente. Los modelos de hoy son mucho más capaces que los de hace un año, y el hardware necesario es cada vez más asequible. Si llevas tiempo pensando en dar el salto, este es el mejor momento para empezar.
Precios actualizados a marzo 2026. Pueden variar. Este artículo contiene enlaces de afiliado — si compras a través de ellos, nos ayudas a mantener el blog sin coste adicional para ti.