Hace unos meses me topé con algo que realmente me llamó la atención: la posibilidad de tener mi propio “ChatGPT” funcionando en casa, sin enviar datos a ningún lado, usando únicamente un Raspberry Pi 5. Suena demasiado bueno para ser verdad, ¿no?
Pues resulta que con Ollama y un Pi 5 es perfectamente posible montar un servidor de IA local que funciona sorprendentemente bien. Te cuento mi experiencia y cómo puedes hacerlo tú también.
¿Qué es Ollama y por qué me gustó tanto?
Ollama es una herramienta open source que permite ejecutar modelos de lenguaje grandes (LLM) directamente en tu equipo, sin depender de servicios externos. Lo que más me gusta es que todos tus datos se quedan en casa - nada de enviar información sensible a servidores remotos.
El Raspberry Pi 5, especialmente la versión de 8GB de RAM, resulta ser el compañero perfecto para este tipo de proyectos. Consume poca energía, es barato, y encima puedes dejarlo funcionando 24/7 sin problemas.
Las ventajas que más valoro
- Privacidad total: Todo se procesa localmente
- Sin dependencia de internet: Una vez configurado, funciona offline
- Coste mínimo: Sin suscripciones ni tarifas por uso
- Personalización completa: Puedes elegir exactamente qué modelos usar
Lo que necesitas para empezar
El setup es bastante simple:
- Un Raspberry Pi 5 (recomiendo encarecidamente la versión de 8GB)
- Almacenamiento suficiente - algunos modelos ocupan varios GB
- Raspberry Pi OS Bookworm 64-bit
- Conexión a internet para la instalación inicial
- Un poco de paciencia para la configuración inicial
Importante: Asegúrate de usar la versión de 64 bits del sistema operativo. Es imprescindible.
Instalación paso a paso
La instalación es mucho más sencilla de lo que esperaba. Ollama proporciona un script que automatiza todo el proceso:
# Actualizar el sistema
sudo apt update && sudo apt upgrade
# Instalar curl si no lo tienes
sudo apt install curl
# Descargar e instalar Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Verificar la instalación
ollama --version
Y ya está. En serio, es así de simple.
Eligiendo el modelo adecuado
Aquí viene la parte interesante: elegir qué “cerebro” quieres para tu IA. He probado varios y te cuento mi experiencia:
TinyLlama - El velocista
ollama run tinyllama
Es el más ligero (1.1B parámetros) y rápido. Perfecto para pruebas iniciales y chatbots básicos. Las respuestas no son las más elaboradas, pero la velocidad es impresionante.
Phi3 - El equilibrado
ollama run phi3
Desarrollado por Microsoft, ofrece un buen balance entre velocidad y calidad de respuestas. Es mi opción favorita para uso diario en el Pi 5.
Llama3 - El cerebrito
ollama run llama3
Es el más avanzado, pero también el más exigente. Las respuestas son excelentes, pero necesitas paciencia. Solo recomendable si tienes la versión de 8GB y no te importa esperar un poco más.
Deepseek-R1 - El especialista
ollama run deepseek-r1:1.5b
Viene en diferentes tamaños. La versión 1.5B funciona bien en el Pi 5 y es bastante competente.
Mi recomendación: empieza con Phi3. Es el mejor compromiso entre funcionalidad y rendimiento.
Más allá de la terminal
Una vez que tienes Ollama funcionando, puedes llevarlo al siguiente nivel instalando una interfaz web. Hay varias opciones disponibles, pero personalmente me gusta usar Docker para mantener todo organizado:
# Si no tienes Docker instalado
curl -sSL https://get.docker.com | sh
sudo usermod -aG docker $USER
# Después de reiniciar la sesión, puedes usar una WebUI
# (hay varios proyectos en GitHub específicos para Pi 5)
Con una interfaz web, puedes acceder a tu IA desde cualquier dispositivo de tu red local. Es mucho más cómodo.
La API que abre un mundo de posibilidades
Lo que realmente me emocionó de Ollama es su API HTTP integrada. Puedes hacer consultas programáticamente:
curl http://localhost:11434/api/generate \
-d '{
"model": "phi3",
"prompt": "¿Cuál es la capital de Australia?",
"stream": false
}'
Esto abre un montón de posibilidades: automatización, integración con otros sistemas, creación de bots personalizados… Las opciones son infinitas.
Casos de uso reales que he probado
Asistente personal offline
Perfecto para consultas rápidas sin enviar datos fuera de casa.
Análisis de documentos
Puedes procesar y analizar textos localmente, ideal para información sensible.
Automatización de tareas
Combinado con scripts, puedes automatizar respuestas de email, clasificación de textos, etc.
Experimentos educativos
Excelente para aprender sobre IA sin costes adicionales.
Consejos prácticos de optimización
Monitoriza el uso de RAM: Si notas lentitud, prueba con modelos más pequeños.
Usa almacenamiento rápido: Una buena microSD o mejor aún, un SSD externo, marca la diferencia.
Controla la temperatura: El Pi 5 puede calentarse con modelos pesados. Un ventilador no viene mal.
Actualiza regularmente: Tanto Ollama como los modelos se actualizan frecuentemente con mejoras.
Problemas comunes que me encontré
El sistema se queda sin memoria
Solución: Cambia a un modelo más pequeño o cierra otras aplicaciones.
Respuestas muy lentas
Solución: Es normal en modelos grandes. Paciencia o prueba con modelos más ligeros.
Error de arquitectura
Solución: Verifica que estés usando Raspberry Pi OS 64-bit.
Mi experiencia después de varios meses
Llevo varios meses usando esta configuración y estoy genuinamente impresionado. Sí, no es tan rápido como ChatGPT, pero para muchos casos de uso es perfectamente válido. Y la tranquilidad de saber que mis datos no salen de casa no tiene precio.
El consumo energético es mínimo, así que lo tengo funcionando 24/7. Cuando necesito hacer alguna consulta rápida o analizar un documento, simplemente abro la interfaz web desde cualquier dispositivo de casa.
¿Vale la pena?
Para mí, rotundamente sí. Si valoras la privacidad, te gusta experimentar con tecnología, o simplemente quieres tener tu propio servidor de IA sin depender de terceros, esta combinación es perfecta.
No esperes milagros en cuanto a velocidad, pero sí una experiencia sólida y muy satisfactoria. Y lo mejor de todo: es tuyo, completamente.
Siguientes pasos
Una vez que tengas todo funcionando, te recomiendo explorar:
- Integración con LangChain para workflows más complejos
- Creación de bots personalizados usando la API
- Automatización de tareas domésticas
- Experimentar con diferentes modelos según tus necesidades
La comunidad de Ollama es muy activa, y constantemente aparecen nuevos modelos y mejoras. Es un momento emocionante para experimentar con IA local.
¿Te animas a montar tu propio servidor de IA? Si lo haces, me encantaría saber qué tal te va. Y si tienes dudas, ya sabes donde encontrarme.
¿Has probado Ollama en tu Raspberry Pi? ¿Qué modelos te funcionan mejor? Comparte tu experiencia en los comentarios.
Comentarios