IA Local en Raspberry Pi 5 con Ollama: Tu servidor de IA privado en casa
5 min de lectura

IA Local en Raspberry Pi 5 con Ollama: Tu servidor de IA privado en casa

1052 palabras

Hace unos meses me topé con algo que realmente me llamó la atención: la posibilidad de tener mi propio “ChatGPT” funcionando en casa, sin enviar datos a ningún lado, usando únicamente un Raspberry Pi 5. Suena demasiado bueno para ser verdad, ¿no?

Pues resulta que con Ollama y un Pi 5 es perfectamente posible montar un servidor de IA local que funciona sorprendentemente bien. Te cuento mi experiencia y cómo puedes hacerlo tú también.

¿Qué es Ollama y por qué me gustó tanto?

Ollama es una herramienta open source que permite ejecutar modelos de lenguaje grandes (LLM) directamente en tu equipo, sin depender de servicios externos. Lo que más me gusta es que todos tus datos se quedan en casa - nada de enviar información sensible a servidores remotos.

El Raspberry Pi 5, especialmente la versión de 8GB de RAM, resulta ser el compañero perfecto para este tipo de proyectos. Consume poca energía, es barato, y encima puedes dejarlo funcionando 24/7 sin problemas.

Las ventajas que más valoro

  • Privacidad total: Todo se procesa localmente
  • Sin dependencia de internet: Una vez configurado, funciona offline
  • Coste mínimo: Sin suscripciones ni tarifas por uso
  • Personalización completa: Puedes elegir exactamente qué modelos usar

Lo que necesitas para empezar

El setup es bastante simple:

  • Un Raspberry Pi 5 (recomiendo encarecidamente la versión de 8GB)
  • Almacenamiento suficiente - algunos modelos ocupan varios GB
  • Raspberry Pi OS Bookworm 64-bit
  • Conexión a internet para la instalación inicial
  • Un poco de paciencia para la configuración inicial

Importante: Asegúrate de usar la versión de 64 bits del sistema operativo. Es imprescindible.

Instalación paso a paso

La instalación es mucho más sencilla de lo que esperaba. Ollama proporciona un script que automatiza todo el proceso:

# Actualizar el sistema
sudo apt update && sudo apt upgrade

# Instalar curl si no lo tienes
sudo apt install curl

# Descargar e instalar Ollama
curl -fsSL https://ollama.com/install.sh | sh

# Verificar la instalación
ollama --version

Y ya está. En serio, es así de simple.

Eligiendo el modelo adecuado

Aquí viene la parte interesante: elegir qué “cerebro” quieres para tu IA. He probado varios y te cuento mi experiencia:

TinyLlama - El velocista

ollama run tinyllama

Es el más ligero (1.1B parámetros) y rápido. Perfecto para pruebas iniciales y chatbots básicos. Las respuestas no son las más elaboradas, pero la velocidad es impresionante.

Phi3 - El equilibrado

ollama run phi3

Desarrollado por Microsoft, ofrece un buen balance entre velocidad y calidad de respuestas. Es mi opción favorita para uso diario en el Pi 5.

Llama3 - El cerebrito

ollama run llama3

Es el más avanzado, pero también el más exigente. Las respuestas son excelentes, pero necesitas paciencia. Solo recomendable si tienes la versión de 8GB y no te importa esperar un poco más.

Deepseek-R1 - El especialista

ollama run deepseek-r1:1.5b

Viene en diferentes tamaños. La versión 1.5B funciona bien en el Pi 5 y es bastante competente.

Mi recomendación: empieza con Phi3. Es el mejor compromiso entre funcionalidad y rendimiento.

Más allá de la terminal

Una vez que tienes Ollama funcionando, puedes llevarlo al siguiente nivel instalando una interfaz web. Hay varias opciones disponibles, pero personalmente me gusta usar Docker para mantener todo organizado:

# Si no tienes Docker instalado
curl -sSL https://get.docker.com | sh
sudo usermod -aG docker $USER

# Después de reiniciar la sesión, puedes usar una WebUI
# (hay varios proyectos en GitHub específicos para Pi 5)

Con una interfaz web, puedes acceder a tu IA desde cualquier dispositivo de tu red local. Es mucho más cómodo.

La API que abre un mundo de posibilidades

Lo que realmente me emocionó de Ollama es su API HTTP integrada. Puedes hacer consultas programáticamente:

curl http://localhost:11434/api/generate \
  -d '{
    "model": "phi3",
    "prompt": "¿Cuál es la capital de Australia?",
    "stream": false
  }'

Esto abre un montón de posibilidades: automatización, integración con otros sistemas, creación de bots personalizados… Las opciones son infinitas.

Casos de uso reales que he probado

Asistente personal offline

Perfecto para consultas rápidas sin enviar datos fuera de casa.

Análisis de documentos

Puedes procesar y analizar textos localmente, ideal para información sensible.

Automatización de tareas

Combinado con scripts, puedes automatizar respuestas de email, clasificación de textos, etc.

Experimentos educativos

Excelente para aprender sobre IA sin costes adicionales.

Consejos prácticos de optimización

Monitoriza el uso de RAM: Si notas lentitud, prueba con modelos más pequeños.

Usa almacenamiento rápido: Una buena microSD o mejor aún, un SSD externo, marca la diferencia.

Controla la temperatura: El Pi 5 puede calentarse con modelos pesados. Un ventilador no viene mal.

Actualiza regularmente: Tanto Ollama como los modelos se actualizan frecuentemente con mejoras.

Problemas comunes que me encontré

El sistema se queda sin memoria

Solución: Cambia a un modelo más pequeño o cierra otras aplicaciones.

Respuestas muy lentas

Solución: Es normal en modelos grandes. Paciencia o prueba con modelos más ligeros.

Error de arquitectura

Solución: Verifica que estés usando Raspberry Pi OS 64-bit.

Mi experiencia después de varios meses

Llevo varios meses usando esta configuración y estoy genuinamente impresionado. Sí, no es tan rápido como ChatGPT, pero para muchos casos de uso es perfectamente válido. Y la tranquilidad de saber que mis datos no salen de casa no tiene precio.

El consumo energético es mínimo, así que lo tengo funcionando 24/7. Cuando necesito hacer alguna consulta rápida o analizar un documento, simplemente abro la interfaz web desde cualquier dispositivo de casa.

¿Vale la pena?

Para mí, rotundamente sí. Si valoras la privacidad, te gusta experimentar con tecnología, o simplemente quieres tener tu propio servidor de IA sin depender de terceros, esta combinación es perfecta.

No esperes milagros en cuanto a velocidad, pero sí una experiencia sólida y muy satisfactoria. Y lo mejor de todo: es tuyo, completamente.

Siguientes pasos

Una vez que tengas todo funcionando, te recomiendo explorar:

  • Integración con LangChain para workflows más complejos
  • Creación de bots personalizados usando la API
  • Automatización de tareas domésticas
  • Experimentar con diferentes modelos según tus necesidades

La comunidad de Ollama es muy activa, y constantemente aparecen nuevos modelos y mejoras. Es un momento emocionante para experimentar con IA local.

¿Te animas a montar tu propio servidor de IA? Si lo haces, me encantaría saber qué tal te va. Y si tienes dudas, ya sabes donde encontrarme.


¿Has probado Ollama en tu Raspberry Pi? ¿Qué modelos te funcionan mejor? Comparte tu experiencia en los comentarios.

Comentarios

Artículos relacionados

3 min

583 palabras

Amazon ha dado un paso importante en el mundo de la inteligencia artificial con el lanzamiento de S3 Vectors, el primer servicio de almacenamiento en la nube con soporte nativo para vectores a gran escala. Esta novedad promete reducir hasta un 90% los costes de subida, almacenamiento y consulta de datos vectoriales.

¿Qué son los vectores y por qué nos importan?

Los vectores son representaciones numéricas de datos no estructurados (texto, imágenes, audio, video) generados por modelos de embedding. Son la base de las aplicaciones de IA generativa que necesitan encontrar similitudes entre datos usando métricas de distancia.

5 min

1004 palabras

Últimamente no para de hablarse de agentes de IA por todas partes. Cada empresa tiene su roadmap lleno de “agentes que van a revolucionar esto y aquello”, pero cuando rascas un poco, te das cuenta de que pocos han conseguido realmente construir algo útil y que funcione en producción.

Hace poco leí un artículo muy interesante de LangChain sobre cómo construir agentes de forma práctica, y me ha parecido un enfoque muy sensato que quería compartir contigo. Lo he adaptado con mis propias reflexiones después de haberme dado más de un cabezazo intentando implementar sistemas “inteligentes” que al final no lo eran tanto.

5 min

987 palabras

Hace unos meses, cuando Anthropic lanzó su protocolo MCP (Model Context Protocol), sabía que íbamos a ver integraciones interesantes entre LLMs y bases de datos. Lo que no esperaba era ver algo tan pulido y funcional como AgentHouse de ClickHouse tan pronto.

Tengo planificado probar esta demo en breve, pero ya solo leyendo sobre ella me parece fascinante la idea de poder preguntarle a una base de datos cosas como “¿cuáles son los repositorios más populares de GitHub este mes?” y obtener no solo una respuesta, sino visualizaciones automáticas.

8 min

1681 palabras

Hace unos años, muchos investigadores de IA (incluso los más reputados) predecían que el prompt engineering sería una habilidad temporal que desaparecería rápidamente. Se equivocaron completamente. No solo no ha desaparecido, sino que ha evolucionado hacia algo mucho más sofisticado: Context Engineering.

Y no, no es solo otro término de moda. Es una evolución natural que refleja la complejidad real de trabajar con LLMs en aplicaciones productivas.

De prompt engineering a context engineering

El problema con el término “prompt engineering” es que mucha gente lo confunde con blind prompting - simplemente escribir una pregunta en ChatGPT y esperar un resultado. Eso no es ingeniería, es usar una herramienta.

4 min

650 palabras

El hype vs la realidad: reflexiones de un desarrollador con 30 años de guerra

Esta mañana me he topado con una charla que me ha hecho reflexionar bastante sobre todo este revuelo que hay montado con la IA y el desarrollo de software. El ponente, con una dosis saludable de escepticismo, hace un “reality check” sobre las afirmaciones grandilocuentes que estamos escuchando por todas partes.

La charla completa que ha inspirado estas reflexiones. Vale la pena verla entera.

10 min

2073 palabras

La creación de artículos largos y fundamentados ha sido tradicionalmente una tarea compleja que requiere habilidades avanzadas de investigación y escritura. Recientemente, investigadores de Stanford han presentado STORM (Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking), un sistema revolucionario que automatiza el proceso de escritura de artículos tipo Wikipedia desde cero, y los resultados son realmente impresionantes.

En este análisis detallado, exploraremos cómo STORM está transformando la manera en que pensamos sobre la escritura asistida por IA y por qué este enfoque podría cambiar para siempre la forma en que creamos contenido informativo.