
Tag: LLM
14 entradas encontradas (2 páginas)

IA Local en Raspberry Pi 5 con Ollama: Tu servidor de IA privado en casa
Hace unos meses me topé con algo que realmente me llamó la atención: la posibilidad de tener mi propio “ChatGPT” funcionando en casa, sin enviar datos a ningún lado, usando únicamente un Raspberry Pi 5. Suena demasiado bueno para ser verdad, ¿no?
Pues resulta que con Ollama y un Pi 5 es perfectamente posible montar un servidor de IA local que funciona sorprendentemente bien. Te cuento mi experiencia y cómo puedes hacerlo tú también.

Local AI on Raspberry Pi 5 with Ollama: Your private AI server at home
A few months ago I came across something that really caught my attention: the possibility of having my own “ChatGPT” running at home, without sending data anywhere, using only a Raspberry Pi 5. Sounds too good to be true, right?
Well, it turns out that with Ollama and a Pi 5 it’s perfectly possible to set up a local AI server that works surprisingly well. Let me tell you my experience and how you can do it too.

Cómo construir un agente: de la idea a la realidad
Últimamente no para de hablarse de agentes de IA por todas partes. Cada empresa tiene su roadmap lleno de “agentes que van a revolucionar esto y aquello”, pero cuando rascas un poco, te das cuenta de que pocos han conseguido realmente construir algo útil y que funcione en producción.
Hace poco leí un artículo muy interesante de LangChain sobre cómo construir agentes de forma práctica, y me ha parecido un enfoque muy sensato que quería compartir contigo. Lo he adaptado con mis propias reflexiones después de haberme dado más de un cabezazo intentando implementar sistemas “inteligentes” que al final no lo eran tanto.

How to build an agent: from idea to reality
Lately, there’s been talk of AI agents everywhere. Every company has their roadmap full of “agents that will revolutionize this and that,” but when you scratch a little, you realize few have actually managed to build something useful that works in production.
Recently I read a very interesting article by LangChain about how to build agents in a practical way, and it seems to me a very sensible approach I wanted to share with you. I’ve adapted it with my own reflections after having banged my head more than once trying to implement “intelligent” systems that weren’t really that intelligent.

AgentHouse: Cuando las bases de datos empiezan a hablar nuestro idioma
Hace unos meses, cuando Anthropic lanzó su protocolo MCP (Model Context Protocol), sabía que íbamos a ver integraciones interesantes entre LLMs y bases de datos. Lo que no esperaba era ver algo tan pulido y funcional como AgentHouse de ClickHouse tan pronto.
Tengo planificado probar esta demo en breve, pero ya solo leyendo sobre ella me parece fascinante la idea de poder preguntarle a una base de datos cosas como “¿cuáles son los repositorios más populares de GitHub este mes?” y obtener no solo una respuesta, sino visualizaciones automáticas.

AgentHouse: When databases start speaking our language
A few months ago, when Anthropic launched their MCP (Model Context Protocol), I knew we’d see interesting integrations between LLMs and databases. What I didn’t expect was to see something as polished and functional as ClickHouse’s AgentHouse so soon.
I’m planning to test this demo soon, but just reading about it, the idea of being able to ask a database questions like “What are the most popular GitHub repositories this month?” and getting not just an answer, but automatic visualizations, seems fascinating.

LM Studio elimina las barreras: ahora es gratis también para el trabajo
En mis años desarrollando software, he aprendido que las mejores herramientas son las que eliminan fricciones innecesarias. Y LM Studio acaba de dar un paso enorme en esa dirección: ya es completamente gratuito para uso empresarial.
Esto puede sonar como “otra noticia más” de IA, pero para quienes llevamos tiempo experimentando con modelos locales, es un cambio de paradigma importante.
El problema que había antes
Desde su lanzamiento en mayo de 2023, LM Studio siempre fue gratuito para uso personal. Pero si querías usarlo en tu empresa, tenías que contactar con ellos para obtener una licencia comercial. Esto creaba exactamente el tipo de fricción que mata la experimentación en equipos.

LM Studio Removes Barriers: Now Free for Work Too
In my years developing software, I’ve learned that the best tools are those that eliminate unnecessary friction. And LM Studio has just taken a huge step in that direction: it’s now completely free for enterprise use.
This may sound like “just another AI news item,” but for those of us who have been experimenting with local models for a while, this is an important paradigm shift.
The problem that existed before
Since its launch in May 2023, LM Studio was always free for personal use. But if you wanted to use it in your company, you had to contact them to obtain a commercial license. This created exactly the type of friction that kills team experimentation.

Context Engineering: El prompt engineering ha crecido
Hace unos años, muchos investigadores de IA (incluso los más reputados) predecían que el prompt engineering sería una habilidad temporal que desaparecería rápidamente. Se equivocaron completamente. No solo no ha desaparecido, sino que ha evolucionado hacia algo mucho más sofisticado: Context Engineering.
Y no, no es solo otro término de moda. Es una evolución natural que refleja la complejidad real de trabajar con LLMs en aplicaciones productivas.
De prompt engineering a context engineering
El problema con el término “prompt engineering” es que mucha gente lo confunde con blind prompting - simplemente escribir una pregunta en ChatGPT y esperar un resultado. Eso no es ingeniería, es usar una herramienta.

Context Engineering: Prompt Engineering Has Grown Up
A few years ago, many AI researchers (even the most reputable) predicted that prompt engineering would be a temporary skill that would quickly disappear. They were completely wrong. Not only has it not disappeared, but it has evolved into something much more sophisticated: Context Engineering.
And no, it’s not just another buzzword. It’s a natural evolution that reflects the real complexity of working with LLMs in production applications.
From prompt engineering to context engineering
The problem with the term “prompt engineering” is that many people confuse it with blind prompting - simply writing a question in ChatGPT and expecting a result. That’s not engineering, that’s using a tool.

LLMs en Ingeniería de Software: Reality Check de 2025
El hype vs la realidad: reflexiones de un desarrollador con 30 años de guerra
Esta mañana me he topado con una charla que me ha hecho reflexionar bastante sobre todo este revuelo que hay montado con la IA y el desarrollo de software. El ponente, con una dosis saludable de escepticismo, hace un “reality check” sobre las afirmaciones grandilocuentes que estamos escuchando por todas partes.
La charla completa que ha inspirado estas reflexiones. Vale la pena verla entera.

LLMs in Software Engineering: 2025 Reality Check
The hype vs reality: reflections from a developer with 30 years of experience
This morning I came across a talk that made me reflect quite a bit about all this fuss surrounding AI and software development. The speaker, with a healthy dose of skepticism, does a “reality check” on all the grandiose claims we’re hearing everywhere.
The complete talk that inspired these reflections. It’s worth watching in full.




