LLMs en Ingeniería de Software: Reality Check de 2025
4 min de lectura

LLMs en Ingeniería de Software: Reality Check de 2025

650 palabras

El hype vs la realidad: reflexiones de un desarrollador con 30 años de guerra

Esta mañana me he topado con una charla que me ha hecho reflexionar bastante sobre todo este revuelo que hay montado con la IA y el desarrollo de software. El ponente, con una dosis saludable de escepticismo, hace un “reality check” sobre las afirmaciones grandilocuentes que estamos escuchando por todas partes.

La charla completa que ha inspirado estas reflexiones. Vale la pena verla entera.

Los números que no cuadran

Me ha llamado especialmente la atención cuando menciona esa declaración del CEO de Microsoft diciendo que “el 30% de todo el código se escribe con IA”. Mi primera reacción, como la del ponente, fue: ¿pero qué significa eso exactamente?

Después de casi 30 años en esto, he aprendido a ser escéptico con las estadísticas sin contexto. ¿Es código de producción? ¿Snippets de prueba? ¿Autocompletado glorificado? Como dice el ponente, es evidente que un CEO está “vendiendo su producto”, y ahí es donde mis antenas se activan.

La perspectiva desde la trinchera

Lo que más me ha gustado de la charla es que no es ni alarmista ni excesivamente optimista. Como desarrollador que ha visto pasar muchas “revoluciones tecnológicas”, valoro esta perspectiva equilibrada.

El ponente hace un punto excelente: las cosas que asumíamos que eran caras o difíciles, de repente se han vuelto ridículamente baratas. Esto me recuerda a cuando apareció la nube, o cuando los frameworks web se volvieron mainstream. El cambio no está tanto en si la tecnología es “mejor”, sino en qué problemas podemos permitirnos abordar ahora.

Mi experiencia personal con LLMs

En mi día a día en Carto, he empezado a experimentar con estas herramientas. No como un reemplazo del pensamiento, sino como lo que realmente son: herramientas muy potentes para tareas específicas.

Me siguen funcionando mis premisas de siempre:

  • “Posible” es “Económicamente viable” - Y ahora LLMs han cambiado qué es económicamente viable
  • No existe la solución/tecnología buena para todo - Esto incluye a los LLMs
  • Por cada minuto de planteamiento, 2 minutos menos de desarrollo - Aquí es donde más valor veo en las IAs, en la fase de análisis y planteamiento

Lo que realmente ha cambiado

Lo que más me resuena de la charla es su conclusión: necesitamos experimentar más. Como dice, debemos hacer más de lo que hacen las startups: probar qué funciona y qué no, entender qué es barato y qué es caro en este nuevo panorama.

En mi experiencia:

Lo que funciona bien:

  • Generación de tests unitarios
  • Documentación de código existente
  • Refactoring de código legacy
  • Análisis de logs complejos
  • Prototipado rápido de APIs

Lo que todavía no me convence:

  • Arquitectura de sistemas complejos
  • Decisiones de seguridad críticas
  • Debugging de problemas de rendimiento
  • Cualquier cosa que requiera contexto de negocio profundo

La navaja suiza strikes again

Como siempre digo, no existe la navaja suiza perfecta. Los LLMs son una herramienta más en nuestro arsenal, muy potente para ciertas tareas, pero no la solución mágica para todo.

Lo que sí han hecho es cambiar radicalmente el coste de ciertas operaciones. Como desarrollador, esto me emociona porque significa que puedo permitirme hacer cosas que antes no podía justificar económicamente.

Reflexión final

Me quedo con el mensaje de la charla: las cosas están cambiando y necesitamos experimentar más. Pero desde la experiencia, sabiendo que cada nueva tecnología promete ser la definitiva, y al final resulta que simplemente cambia qué problemas podemos resolver de manera eficiente.

¿Mi consejo? Experimentad, pero con los pies en el suelo. Probad estas herramientas en vuestros proyectos, pero siempre con el mismo rigor que aplicaríais a cualquier otra tecnología nueva. Y recordad: los errores y problemas siempre ocurren, hay que tenerlo en consideración siempre.

Al final del día, seguimos siendo desarrolladores. Ahora simplemente tenemos unas herramientas nuevas en la caja.


¿Qué opináis vosotros? ¿Habéis experimentado con LLMs en vuestros proyectos? Me encantaría conocer vuestras experiencias en los comentarios.

Comentarios

Últimas Entradas

8 min

1681 palabras

Hace unos años, muchos investigadores de IA (incluso los más reputados) predecían que el prompt engineering sería una habilidad temporal que desaparecería rápidamente. Se equivocaron completamente. No solo no ha desaparecido, sino que ha evolucionado hacia algo mucho más sofisticado: Context Engineering.

Y no, no es solo otro término de moda. Es una evolución natural que refleja la complejidad real de trabajar con LLMs en aplicaciones productivas.

De prompt engineering a context engineering

El problema con el término “prompt engineering” es que mucha gente lo confunde con blind prompting - simplemente escribir una pregunta en ChatGPT y esperar un resultado. Eso no es ingeniería, es usar una herramienta.

5 min

1048 palabras

Llevo meses usando Claude Code a diario y hay una configuración que ha cambiado por completo cómo trabaja con mi código. No es un plugin nuevo, ni un modelo más potente, ni un prompt mágico. Es algo que existe desde 2016 y que la mayoría de desarrolladores usamos sin saberlo cada vez que abrimos VS Code: el Language Server Protocol (LSP).

Karan Bansal publicó un artículo excelente explicando en detalle cómo activar LSP en Claude Code y por qué importa. Después de probarlo, puedo confirmar que la diferencia es real y significativa.

5 min

1052 palabras

Hace unos meses me topé con algo que realmente me llamó la atención: la posibilidad de tener mi propio “ChatGPT” funcionando en casa, sin enviar datos a ningún lado, usando únicamente un Raspberry Pi 5. Suena demasiado bueno para ser verdad, ¿no?

Pues resulta que con Ollama y un Pi 5 es perfectamente posible montar un servidor de IA local que funciona sorprendentemente bien. Te cuento mi experiencia y cómo puedes hacerlo tú también.

5 min

1053 palabras

A few months ago I came across something that really caught my attention: the possibility of having my own “ChatGPT” running at home, without sending data anywhere, using only a Raspberry Pi 5. Sounds too good to be true, right?

Well, it turns out that with Ollama and a Pi 5 it’s perfectly possible to set up a local AI server that works surprisingly well. Let me tell you my experience and how you can do it too.

5 min

1004 palabras

Últimamente no para de hablarse de agentes de IA por todas partes. Cada empresa tiene su roadmap lleno de “agentes que van a revolucionar esto y aquello”, pero cuando rascas un poco, te das cuenta de que pocos han conseguido realmente construir algo útil y que funcione en producción.

Hace poco leí un artículo muy interesante de LangChain sobre cómo construir agentes de forma práctica, y me ha parecido un enfoque muy sensato que quería compartir contigo. Lo he adaptado con mis propias reflexiones después de haberme dado más de un cabezazo intentando implementar sistemas “inteligentes” que al final no lo eran tanto.

5 min

949 palabras

Lately, there’s been talk of AI agents everywhere. Every company has their roadmap full of “agents that will revolutionize this and that,” but when you scratch a little, you realize few have actually managed to build something useful that works in production.

Recently I read a very interesting article by LangChain about how to build agents in a practical way, and it seems to me a very sensible approach I wanted to share with you. I’ve adapted it with my own reflections after having banged my head more than once trying to implement “intelligent” systems that weren’t really that intelligent.