<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Bases De Datos on Antonio Cortés (DrZippie)</title><link>https://antoniocortes.com/categories/bases-de-datos/</link><description>Recent content in Bases De Datos on Antonio Cortés (DrZippie)</description><generator>Hugo</generator><language>es-es</language><lastBuildDate>Mon, 02 Mar 2026 19:30:31 +0100</lastBuildDate><atom:link href="https://antoniocortes.com/categories/bases-de-datos/index.xml" rel="self" type="application/rss+xml"/><item><title>DuckDB y httpfs detrás de un proxy: el secreto que nadie te cuenta</title><link>https://antoniocortes.com/2026/03/02/duckdb-y-httpfs-detr%C3%A1s-de-un-proxy-el-secreto-que-nadie-te-cuenta/</link><pubDate>Mon, 02 Mar 2026 00:00:00 +0000</pubDate><guid>https://antoniocortes.com/2026/03/02/duckdb-y-httpfs-detr%C3%A1s-de-un-proxy-el-secreto-que-nadie-te-cuenta/</guid><description>&lt;h2 id="el-problema-httpfs-ignora-tus-variables-de-entorno"&gt;El problema: httpfs ignora tus variables de entorno&lt;/h2&gt;
&lt;p&gt;Si trabajas con DuckDB y la extensión &lt;code&gt;httpfs&lt;/code&gt; para leer Parquet remotos, CSVs desde S3 o cualquier recurso HTTP, probablemente asumes que las variables de entorno &lt;code&gt;HTTP_PROXY&lt;/code&gt; y &lt;code&gt;HTTPS_PROXY&lt;/code&gt; funcionan igual que en cualquier otra herramienta. Curl las respeta. wget las respeta. Python requests las respeta. Node.js las respeta.&lt;/p&gt;
&lt;p&gt;DuckDB no.&lt;/p&gt;
&lt;p&gt;Me he encontrado con esto trabajando en un entorno corporativo con proxy obligatorio. Tenía un script que leía ficheros Parquet desde Google Cloud Storage usando &lt;code&gt;httpfs&lt;/code&gt;, y simplemente no funcionaba. Sin error claro, sin timeout descriptivo, solo silencio. Mientras tanto, un &lt;code&gt;curl&lt;/code&gt; al mismo recurso con las mismas variables de entorno devolvía los datos sin problema.&lt;/p&gt;</description></item><item><title>Cómo PostgreSQL estima tus consultas (y por qué a veces se equivoca)</title><link>https://antoniocortes.com/postgresql-statistics/</link><pubDate>Fri, 27 Feb 2026 00:00:00 +0000</pubDate><guid>https://antoniocortes.com/postgresql-statistics/</guid><description>&lt;p&gt;Toda consulta empieza con un plan. Toda consulta lenta probablemente empieza con uno malo. Y más a menudo de lo que crees, las estadísticas son las culpables.&lt;/p&gt;
&lt;p&gt;Pero ¿cómo funciona realmente? PostgreSQL no ejecuta la consulta para averiguarlo — estima el coste. Lee datos precalculados de &lt;code&gt;pg_class&lt;/code&gt; y &lt;code&gt;pg_statistic&lt;/code&gt; y hace los cálculos para encontrar la ruta más barata hacia tus datos.&lt;/p&gt;
&lt;p&gt;En el escenario ideal, los números que lee son precisos y obtienes el plan que esperas. Pero cuando están desactualizados, la situación se descontrola. El planificador estima 500 filas, planifica un nested loop, y se encuentra con 25,000. Lo que parecía un plan óptimo se convierte en una falla en cascada.&lt;/p&gt;</description></item><item><title>DuckDB: Formatos de archivo y optimizaciones de rendimiento</title><link>https://antoniocortes.com/duckdb-formatos-archivos-optimizacion/</link><pubDate>Sun, 01 Feb 2026 00:00:00 +0000</pubDate><guid>https://antoniocortes.com/duckdb-formatos-archivos-optimizacion/</guid><description>&lt;p&gt;Últimamente estoy trabajando bastante con &lt;strong&gt;DuckDB&lt;/strong&gt;, y una de las cosas que más me interesan es entender cómo optimizar el rendimiento según el formato de archivo que estemos usando.&lt;/p&gt;
&lt;p&gt;No es lo mismo trabajar con Parquet, con CSV comprimido, o con CSV descomprimido. Y las diferencias de rendimiento pueden ser &lt;strong&gt;dramáticas&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Vamos a revisar las optimizaciones clave que hay que tener en cuenta cuando trabajamos con diferentes formatos de archivo en DuckDB.&lt;/p&gt;</description></item><item><title>Amazon S3 Vectors: Almacenamiento vectorial nativo en la nube</title><link>https://antoniocortes.com/2025/07/17/amazon-s3-vectors-almacenamiento-vectorial-nativo-en-la-nube/</link><pubDate>Thu, 17 Jul 2025 00:00:00 +0000</pubDate><guid>https://antoniocortes.com/2025/07/17/amazon-s3-vectors-almacenamiento-vectorial-nativo-en-la-nube/</guid><description>&lt;p&gt;Amazon ha dado un paso importante en el mundo de la inteligencia artificial con el lanzamiento de &lt;strong&gt;S3 Vectors&lt;/strong&gt;, el primer servicio de almacenamiento en la nube con soporte nativo para vectores a gran escala. Esta novedad promete reducir hasta un 90% los costes de subida, almacenamiento y consulta de datos vectoriales.&lt;/p&gt;
&lt;h2 id="qué-son-los-vectores-y-por-qué-nos-importan"&gt;¿Qué son los vectores y por qué nos importan?&lt;/h2&gt;
&lt;p&gt;Los vectores son representaciones numéricas de datos no estructurados (texto, imágenes, audio, video) generados por modelos de embedding. Son la base de las aplicaciones de IA generativa que necesitan encontrar similitudes entre datos usando métricas de distancia.&lt;/p&gt;</description></item><item><title>AgentHouse: Cuando las bases de datos empiezan a hablar nuestro idioma</title><link>https://antoniocortes.com/2025/07/09/agenthouse-cuando-las-bases-de-datos-empiezan-a-hablar-nuestro-idioma/</link><pubDate>Wed, 09 Jul 2025 00:00:00 +0000</pubDate><guid>https://antoniocortes.com/2025/07/09/agenthouse-cuando-las-bases-de-datos-empiezan-a-hablar-nuestro-idioma/</guid><description>&lt;p&gt;Hace unos meses, cuando Anthropic lanzó su protocolo MCP (Model Context Protocol), sabía que íbamos a ver integraciones interesantes entre LLMs y bases de datos. Lo que no esperaba era ver algo tan pulido y funcional como AgentHouse de ClickHouse tan pronto.&lt;/p&gt;
&lt;p&gt;Tengo planificado probar esta demo en breve, pero ya solo leyendo sobre ella me parece fascinante la idea de poder preguntarle a una base de datos cosas como &amp;ldquo;¿cuáles son los repositorios más populares de GitHub este mes?&amp;rdquo; y obtener no solo una respuesta, sino visualizaciones automáticas.&lt;/p&gt;</description></item><item><title>Apache Iceberg v3: Revolución en Datos Geoespaciales para el Analytics Moderno</title><link>https://antoniocortes.com/2025/06/30/apache-iceberg-v3-revoluci%C3%B3n-en-datos-geoespaciales-para-el-analytics-moderno/</link><pubDate>Mon, 30 Jun 2025 00:00:00 +0000</pubDate><guid>https://antoniocortes.com/2025/06/30/apache-iceberg-v3-revoluci%C3%B3n-en-datos-geoespaciales-para-el-analytics-moderno/</guid><description>&lt;h1 id="apache-iceberg-v3-revolución-en-datos-geoespaciales-para-el-analytics-moderno"&gt;Apache Iceberg v3: Revolución en Datos Geoespaciales para el Analytics Moderno&lt;/h1&gt;
&lt;p&gt;La reciente ratificación de la especificación Apache Iceberg v3 marca un hito significativo en el ecosistema de datos abiertos, especialmente en el ámbito de los &lt;strong&gt;datos geoespaciales&lt;/strong&gt;. Esta actualización no solo consolida a Iceberg como el estándar líder en formatos de tabla abiertos, sino que introduce capacidades geoespaciales nativas que prometen transformar cómo manejamos datos de ubicación y mapeo a gran escala.&lt;/p&gt;</description></item></channel></rss>