European Open Source AI Index: Midiendo la verdadera apertura de la IA
4 min de lectura

European Open Source AI Index: Midiendo la verdadera apertura de la IA

833 palabras

Últimamente veo cada vez más modelos de IA que se autodenominan “open source”. Llama, Mistral, Falcon… todos dicen ser “abiertos”. Pero, ¿realmente lo son? ¿Hasta qué punto son abiertos de verdad?

Hace poco descubrí el European Open Source AI Index (OSAI), una iniciativa europea que está haciendo un trabajo excelente evaluando de forma sistemática qué tan abiertos son realmente los modelos de IA generativa.

¿Qué es el OSAI Index?

El OSAI Index es un recurso público impulsado por la comunidad y alojado en la Radboud University (Países Bajos). Su misión es simple pero importante: evaluar la apertura real de los modelos de IA generativa (texto, imágenes, código, video y audio) más allá del marketing.

Lo interesante es que no se trata de una opinión subjetiva. Tienen un sistema de evaluación basado en 14 parámetros objetivos que miden diferentes aspectos de la apertura de un modelo.

Los 14 parámetros de evaluación

Lo que más me gusta del OSAI es que su evaluación es muy detallada. No se trata de un simple “sí/no”. Analizan:

  1. Datos del modelo base - ¿Están documentados y disponibles los datos de entrenamiento?
  2. Datos del modelo final - ¿Lo mismo para el modelo que interactúa con el usuario?
  3. Pesos del modelo base - ¿Están disponibles libremente los weights?
  4. Pesos del modelo final - ¿Y los del modelo de usuario?
  5. Código de entrenamiento - ¿Está disponible todo el código del pipeline?
  6. Documentación del código - ¿Está bien documentado?
  7. Arquitectura hardware - ¿Qué hardware se usó para entrenar?
  8. Preprint - ¿Hay papers previos con detalles técnicos?
  9. Paper revisado - ¿Publicaciones científicas peer-reviewed?
  10. Modelcard - ¿Documentación estandarizada del modelo?
  11. Datasheet - ¿Datasheet según el estándar de Gebru et al.?
  12. Paquete - ¿Está empaquetado para instalación fácil (PyPI, etc.)?
  13. API y meta-prompts - ¿Hay API sin restricciones?
  14. Licencias - ¿Usan licencias OSI aprobadas para TODO (datos, código, pesos)?

El problema del “openwashing”

Aquí es donde el OSAI Index realmente brilla. Identifica lo que llaman “openwashing”: cuando un modelo se marketea como “open source” pero en realidad no cumple los estándares del open source real.

Un ejemplo muy reciente: Lumo, el asistente de IA de Proton. El OSAI lo analizó y lo calificó como “el modelo ‘abierto’ menos abierto que jamás hemos evaluado”.

O sea, que se vendía como abierto pero en realidad era casi tan cerrado como cualquier solución propietaria tradicional.

¿Por qué esto importa para nosotros como developers?

Yo creo que esto es importante por varias razones:

Transparencia técnica

Cuando eliges un modelo para un proyecto, necesitas saber:

  • ¿Puedo inspeccionar cómo funciona?
  • ¿Puedo auditar los datos de entrenamiento?
  • ¿Puedo modificarlo y redistribuirlo?
  • ¿Qué restricciones legales tengo?

Independencia

Si el modelo no es realmente abierto:

  • Dependes del proveedor para cambios
  • No puedes auditar el comportamiento
  • No puedes hostearlo tú mismo
  • Estás atado a sus términos de servicio

Cumplimiento normativo

Con la EU AI Act y otras regulaciones, necesitas modelos que puedas auditar. El open source real te da control; el “openwashing” te da falsa seguridad.

El ranking: modelos realmente abiertos

Según el OSAI Index, los modelos más abiertos actualmente incluyen:

  • OLMo (Ai2) - Muy bien valorado en apertura
  • BLOOMZ (BigScience Workshop)
  • Pythia (EleutherAI)
  • OpenLLaMA
  • SmolLM (HuggingFace)

Y curiosamente, modelos muy populares como Llama (Meta) o Mistral no salen tan bien parados cuando evalúas los 14 parámetros. Sí, liberan los pesos, pero faltan muchas cosas: código de entrenamiento, datos, documentación completa…

Mi opinión personal

Llevo años siguiendo el mundo open source, y creo que la transparencia importa especialmente en IA.

Con software tradicional, si no es open source, puedes al menos leer la especificación, entender la API, usarlo. Con IA, el modelo es un bloque opaco: no sabes qué ha aprendido, ni cómo, ni qué sesgos tiene.

Si un modelo dice ser “open source” pero:

  • No comparte los datos de entrenamiento
  • No documenta el hardware usado
  • No permite redistribución real
  • Usa licencias con restricciones ocultas

…entonces no es open source. Es “openwashing”.

Cómo usar el OSAI Index

Mi recomendación es sencilla: antes de elegir un modelo para un proyecto serio, consulta el OSAI Index.

El proceso:

  1. Ve a osai-index.eu
  2. Filtra por tipo (texto, imagen, código…)
  3. Compara modelos que te interesen
  4. Revisa los 14 parámetros
  5. Toma una decisión informada

Por ejemplo, si estás evaluando entre tres modelos de lenguaje:

  • Comprueba si tienen modelcard proper
  • Verifica si las licencias son OSI-approved
  • Mira si hay papers revisados por pares
  • Chequea si puedes auditar el entrenamiento

Conclusión

El European Open Source AI Index es una herramienta necesaria y oportuna.

En un mundo donde todo el mundo reclama ser “open”, necesitas una evaluación objetiva. Los 14 parámetros del OSAI te dan exactamente eso: una forma de distinguir marketing de realidad.

Para nosotros los developers y arquitectos de sistemas, esto significa que podemos tomar decisiones más informadas sobre qué modelos usar, cómo deployarlos y qué riesgos asumimos.

Y eso, al final del día, es lo que importa: transparencia real, no slogans de marketing.


Recursos:

Comentarios

Últimas Entradas

4 min

782 palabras

Lately I’m seeing more and more AI models calling themselves “open source”. Llama, Mistral, Falcon… they all claim to be “open”. But are they really? How open are they actually?

I recently discovered the European Open Source AI Index (OSAI), a European initiative doing excellent work systematically evaluating how open generative AI models really are.

5 min

1031 palabras

Hace unos días me topé con un artículo que me dejó literalmente con la boca abierta. No es que sea nuevo - en realidad es de enero de 2026, pero bueno, a veces llega tarde a mi radar - pero la combinación de tecnologías y la historia detrás me parecen fascinantes.

Se trata de TinyEMU-Go: un emulador de RISC-V escrito completamente en Go, portado desde C usando Claude. Y lo mejor: puedes ejecutar un Linux completo con un solo comando.

2 min

349 palabras

A few days ago I came across an article that literally left me with my mouth open. It’s about TinyEMU-Go: a RISC-V emulator written entirely in Go, ported from C using Claude. And the best part: you can run a complete Linux with a single command.

The Command Line That Gave Me Envy

go run github.com/jtolio/tinyemu-go/temubox/example@2c8151233c2d

And boom, you have a complete Linux running. No special permissions, no containers, no weird dependencies. A pure static Go binary.

5 min

1048 palabras

Llevo meses usando Claude Code a diario y hay una configuración que ha cambiado por completo cómo trabaja con mi código. No es un plugin nuevo, ni un modelo más potente, ni un prompt mágico. Es algo que existe desde 2016 y que la mayoría de desarrolladores usamos sin saberlo cada vez que abrimos VS Code: el Language Server Protocol (LSP).

Karan Bansal publicó un artículo excelente explicando en detalle cómo activar LSP en Claude Code y por qué importa. Después de probarlo, puedo confirmar que la diferencia es real y significativa.

5 min

960 palabras

Hace unos días leí una noticia que me dejó pensando rato largo. No es que sea la primera vez que oigo de IA en el espacio, pero sí es la primera vez que leo sobre Claude planeando rutas en Marte. Y lo mejor: funcionó.

La NASA ha estado usando Anthropic’s Claude para planear las rutas del rover Perseverance en Marte. Sí, has leído bien: un modelo de lenguaje generando rutas de navegación para un rover que está a 225 millones de kilómetros de distancia.

6 min

1218 palabras

Hace unos días Anthropic publicó un paper que me ha dado mucho en qué pensar. Se titula “Disempowerment patterns in real-world AI usage” y analiza, por primera vez a gran escala, cómo las interacciones con IA pueden estar disminuyendo nuestra capacidad de juicio autónomo.

Y no, no estamos hablando de escenarios de ciencia ficción tipo “Skynet toma el control”. Estamos hablando de algo mucho más sutil y, quizás por eso, más peligroso: la cesión voluntaria de nuestro juicio crítico a un sistema de IA.