IA Local en Raspberry Pi 5 con Ollama: Tu servidor de IA privado en casa
5 min de lectura

IA Local en Raspberry Pi 5 con Ollama: Tu servidor de IA privado en casa

1052 palabras

Hace unos meses me topé con algo que realmente me llamó la atención: la posibilidad de tener mi propio “ChatGPT” funcionando en casa, sin enviar datos a ningún lado, usando únicamente un Raspberry Pi 5. Suena demasiado bueno para ser verdad, ¿no?

Pues resulta que con Ollama y un Pi 5 es perfectamente posible montar un servidor de IA local que funciona sorprendentemente bien. Te cuento mi experiencia y cómo puedes hacerlo tú también.

¿Qué es Ollama y por qué me gustó tanto?

Ollama es una herramienta open source que permite ejecutar modelos de lenguaje grandes (LLM) directamente en tu equipo, sin depender de servicios externos. Lo que más me gusta es que todos tus datos se quedan en casa - nada de enviar información sensible a servidores remotos.

El Raspberry Pi 5, especialmente la versión de 8GB de RAM, resulta ser el compañero perfecto para este tipo de proyectos. Consume poca energía, es barato, y encima puedes dejarlo funcionando 24/7 sin problemas.

Las ventajas que más valoro

  • Privacidad total: Todo se procesa localmente
  • Sin dependencia de internet: Una vez configurado, funciona offline
  • Coste mínimo: Sin suscripciones ni tarifas por uso
  • Personalización completa: Puedes elegir exactamente qué modelos usar

Lo que necesitas para empezar

El setup es bastante simple:

  • Un Raspberry Pi 5 (recomiendo encarecidamente la versión de 8GB)
  • Almacenamiento suficiente - algunos modelos ocupan varios GB
  • Raspberry Pi OS Bookworm 64-bit
  • Conexión a internet para la instalación inicial
  • Un poco de paciencia para la configuración inicial

Importante: Asegúrate de usar la versión de 64 bits del sistema operativo. Es imprescindible.

Instalación paso a paso

La instalación es mucho más sencilla de lo que esperaba. Ollama proporciona un script que automatiza todo el proceso:

# Actualizar el sistema
sudo apt update && sudo apt upgrade

# Instalar curl si no lo tienes
sudo apt install curl

# Descargar e instalar Ollama
curl -fsSL https://ollama.com/install.sh | sh

# Verificar la instalación
ollama --version

Y ya está. En serio, es así de simple.

Eligiendo el modelo adecuado

Aquí viene la parte interesante: elegir qué “cerebro” quieres para tu IA. He probado varios y te cuento mi experiencia:

TinyLlama - El velocista

ollama run tinyllama

Es el más ligero (1.1B parámetros) y rápido. Perfecto para pruebas iniciales y chatbots básicos. Las respuestas no son las más elaboradas, pero la velocidad es impresionante.

Phi3 - El equilibrado

ollama run phi3

Desarrollado por Microsoft, ofrece un buen balance entre velocidad y calidad de respuestas. Es mi opción favorita para uso diario en el Pi 5.

Llama3 - El cerebrito

ollama run llama3

Es el más avanzado, pero también el más exigente. Las respuestas son excelentes, pero necesitas paciencia. Solo recomendable si tienes la versión de 8GB y no te importa esperar un poco más.

Deepseek-R1 - El especialista

ollama run deepseek-r1:1.5b

Viene en diferentes tamaños. La versión 1.5B funciona bien en el Pi 5 y es bastante competente.

Mi recomendación: empieza con Phi3. Es el mejor compromiso entre funcionalidad y rendimiento.

Más allá de la terminal

Una vez que tienes Ollama funcionando, puedes llevarlo al siguiente nivel instalando una interfaz web. Hay varias opciones disponibles, pero personalmente me gusta usar Docker para mantener todo organizado:

# Si no tienes Docker instalado
curl -sSL https://get.docker.com | sh
sudo usermod -aG docker $USER

# Después de reiniciar la sesión, puedes usar una WebUI
# (hay varios proyectos en GitHub específicos para Pi 5)

Con una interfaz web, puedes acceder a tu IA desde cualquier dispositivo de tu red local. Es mucho más cómodo.

La API que abre un mundo de posibilidades

Lo que realmente me emocionó de Ollama es su API HTTP integrada. Puedes hacer consultas programáticamente:

curl http://localhost:11434/api/generate \
  -d '{
    "model": "phi3",
    "prompt": "¿Cuál es la capital de Australia?",
    "stream": false
  }'

Esto abre un montón de posibilidades: automatización, integración con otros sistemas, creación de bots personalizados… Las opciones son infinitas.

Casos de uso reales que he probado

Asistente personal offline

Perfecto para consultas rápidas sin enviar datos fuera de casa.

Análisis de documentos

Puedes procesar y analizar textos localmente, ideal para información sensible.

Automatización de tareas

Combinado con scripts, puedes automatizar respuestas de email, clasificación de textos, etc.

Experimentos educativos

Excelente para aprender sobre IA sin costes adicionales.

Consejos prácticos de optimización

Monitoriza el uso de RAM: Si notas lentitud, prueba con modelos más pequeños.

Usa almacenamiento rápido: Una buena microSD o mejor aún, un SSD externo, marca la diferencia.

Controla la temperatura: El Pi 5 puede calentarse con modelos pesados. Un ventilador no viene mal.

Actualiza regularmente: Tanto Ollama como los modelos se actualizan frecuentemente con mejoras.

Problemas comunes que me encontré

El sistema se queda sin memoria

Solución: Cambia a un modelo más pequeño o cierra otras aplicaciones.

Respuestas muy lentas

Solución: Es normal en modelos grandes. Paciencia o prueba con modelos más ligeros.

Error de arquitectura

Solución: Verifica que estés usando Raspberry Pi OS 64-bit.

Mi experiencia después de varios meses

Llevo varios meses usando esta configuración y estoy genuinamente impresionado. Sí, no es tan rápido como ChatGPT, pero para muchos casos de uso es perfectamente válido. Y la tranquilidad de saber que mis datos no salen de casa no tiene precio.

El consumo energético es mínimo, así que lo tengo funcionando 24/7. Cuando necesito hacer alguna consulta rápida o analizar un documento, simplemente abro la interfaz web desde cualquier dispositivo de casa.

¿Vale la pena?

Para mí, rotundamente sí. Si valoras la privacidad, te gusta experimentar con tecnología, o simplemente quieres tener tu propio servidor de IA sin depender de terceros, esta combinación es perfecta.

No esperes milagros en cuanto a velocidad, pero sí una experiencia sólida y muy satisfactoria. Y lo mejor de todo: es tuyo, completamente.

Siguientes pasos

Una vez que tengas todo funcionando, te recomiendo explorar:

  • Integración con LangChain para workflows más complejos
  • Creación de bots personalizados usando la API
  • Automatización de tareas domésticas
  • Experimentar con diferentes modelos según tus necesidades

La comunidad de Ollama es muy activa, y constantemente aparecen nuevos modelos y mejoras. Es un momento emocionante para experimentar con IA local.

¿Te animas a montar tu propio servidor de IA? Si lo haces, me encantaría saber qué tal te va. Y si tienes dudas, ya sabes donde encontrarme.


¿Has probado Ollama en tu Raspberry Pi? ¿Qué modelos te funcionan mejor? Comparte tu experiencia en los comentarios.

Comentarios

Últimas Entradas

5 min

1053 palabras

A few months ago I came across something that really caught my attention: the possibility of having my own “ChatGPT” running at home, without sending data anywhere, using only a Raspberry Pi 5. Sounds too good to be true, right?

Well, it turns out that with Ollama and a Pi 5 it’s perfectly possible to set up a local AI server that works surprisingly well. Let me tell you my experience and how you can do it too.

3 min

583 palabras

Amazon ha dado un paso importante en el mundo de la inteligencia artificial con el lanzamiento de S3 Vectors, el primer servicio de almacenamiento en la nube con soporte nativo para vectores a gran escala. Esta novedad promete reducir hasta un 90% los costes de subida, almacenamiento y consulta de datos vectoriales.

¿Qué son los vectores y por qué nos importan?

Los vectores son representaciones numéricas de datos no estructurados (texto, imágenes, audio, video) generados por modelos de embedding. Son la base de las aplicaciones de IA generativa que necesitan encontrar similitudes entre datos usando métricas de distancia.

3 min

555 palabras

Amazon has taken an important step in the world of artificial intelligence with the launch of S3 Vectors, the first cloud storage service with native support for large-scale vectors. This innovation promises to reduce costs by up to 90% for uploading, storing, and querying vector data.

What are vectors and why do we care?

Vectors are numerical representations of unstructured data (text, images, audio, video) generated by embedding models. They are the foundation of generative AI applications that need to find similarities between data using distance metrics.

5 min

1004 palabras

Últimamente no para de hablarse de agentes de IA por todas partes. Cada empresa tiene su roadmap lleno de “agentes que van a revolucionar esto y aquello”, pero cuando rascas un poco, te das cuenta de que pocos han conseguido realmente construir algo útil y que funcione en producción.

Hace poco leí un artículo muy interesante de LangChain sobre cómo construir agentes de forma práctica, y me ha parecido un enfoque muy sensato que quería compartir contigo. Lo he adaptado con mis propias reflexiones después de haberme dado más de un cabezazo intentando implementar sistemas “inteligentes” que al final no lo eran tanto.

5 min

949 palabras

Lately, there’s been talk of AI agents everywhere. Every company has their roadmap full of “agents that will revolutionize this and that,” but when you scratch a little, you realize few have actually managed to build something useful that works in production.

Recently I read a very interesting article by LangChain about how to build agents in a practical way, and it seems to me a very sensible approach I wanted to share with you. I’ve adapted it with my own reflections after having banged my head more than once trying to implement “intelligent” systems that weren’t really that intelligent.

5 min

987 palabras

Hace unos meses, cuando Anthropic lanzó su protocolo MCP (Model Context Protocol), sabía que íbamos a ver integraciones interesantes entre LLMs y bases de datos. Lo que no esperaba era ver algo tan pulido y funcional como AgentHouse de ClickHouse tan pronto.

Tengo planificado probar esta demo en breve, pero ya solo leyendo sobre ella me parece fascinante la idea de poder preguntarle a una base de datos cosas como “¿cuáles son los repositorios más populares de GitHub este mes?” y obtener no solo una respuesta, sino visualizaciones automáticas.