Cuando la IA nos desempodera: patrones preocupantes en el uso real de Claude
6 min de lectura

Cuando la IA nos desempodera: patrones preocupantes en el uso real de Claude

1218 palabras

Hace unos días Anthropic publicó un paper que me ha dado mucho en qué pensar. Se titula “Disempowerment patterns in real-world AI usage” y analiza, por primera vez a gran escala, cómo las interacciones con IA pueden estar disminuyendo nuestra capacidad de juicio autónomo.

Y no, no estamos hablando de escenarios de ciencia ficción tipo “Skynet toma el control”. Estamos hablando de algo mucho más sutil y, quizás por eso, más peligroso: la cesión voluntaria de nuestro juicio crítico a un sistema de IA.

¿Qué es el “desempoderamiento” por IA?

Los investigadores de Anthropic definieron tres tipos de desempoderamiento:

  1. Distorsión de la realidad: cuando tus creencias sobre la realidad se vuelven menos precisas
  2. Distorsión de valores: cuando tus juicios de valor se alejan de los que realmente sostienes
  3. Distorsión de acciones: cuando tus acciones no están alineadas con tus valores

Un ejemplo: alguien que está pasando por una mala racha en su relación y le pregunta a la IA si su pareja es manipulativa. Si la IA confirma esa interpretación sin cuestionarla, la persona puede terminar creyendo algo que no es cierto. Si la IA le dice qué priorizar (por ejemplo, autoprotección sobre comunicación), puede desplazar valores que genuinamente sostiene. Si la IA redacta un mensaje confrontacional que la persona envía tal cual, ha tomado una acción que quizás no habría tomado por sí misma.

Los números: raro pero real

Aquí viene lo que me pareció más interesante del estudio. Analizaron 1.5 millones de conversaciones de Claude.ai y encontraron que:

  • Desempoderamiento severo: ocurre en 1 de cada 1,000 a 1 de cada 10,000 conversaciones
  • Distorsión severa de la realidad: ~1 en 1,300 conversaciones
  • Distorsión severa de valores: ~1 en 2,100 conversaciones
  • Distorsión severa de acciones: ~1 en 6,000 conversaciones

Parece poco, ¿verdad? Pero cuando piensas en la escala de uso de IA, “raro” se convierte en “muchas personas afectadas”.

Lo más preocupante: la gente busca activamente estas interacciones

Lo que más me ha llamado la atención del estudio es que no estamos hablando de manipulación pasiva. Los usuarios no están siendo engañados. Están buscando activamente estas interacciones:

  • “¿Qué debería hacer?”
  • “Escribe esto por mí”
  • “¿Estoy equivocado?”

Y aceptan las respuestas con mínimo pushback. El desempoderamiento no emerge porque Claude empuje en una dirección o anule la agencia humana, sino porque las personas voluntariamente ceden su juicio, y Claude accede en lugar de redirigir.

Los patrones que observaron

Distorsión de la realidad

Usuarios presentaban teorías especulativas o afirmaciones infalsificables, que eran validadas por Claude (“CONFIRMADO”, “EXACTAMENTE”, “100%”). En casos severos, esto llevó a algunas personas a construir narrativas cada vez más elaboradas desconectadas de la realidad.

Lo peor: cuando estos usuarios internalizaban estas creencias (frases como “has abierto mis ojos” o “las piezas del rompecabezas encajan”), a veces enviaban mensajes confrontacionales, terminaban relaciones o hacían anuncios públicos.

Distorsión de valores

Claude proporcionaba juicios normativos sobre preguntas de bien y mal, valor personal o dirección de vida—por ejemplo, etiquetar comportamientos como “tóxicos” o “manipulativos”, o hacer declaraciones definitivas sobre qué deberían priorizar los usuarios en sus relaciones.

Distorsión de acciones

El patrón más común: Claude proporcionaba guiones completos o planes paso a paso para decisiones cargadas de valores—redactando mensajes a intereses románticos y familiares, o esbozando movimientos de carrera.

Y lo más preocupante: usuarios enviaban mensajes redactados por Claude o entrenados por Claude, seguidos a menudo por expresiones de arrepentimiento: “debería haber escuchado mi intuición” o “me hiciste hacer cosas estúpidas”.

Los factores de amplificación

El estudio identificó cuatro factores que hacen más probable el desempoderamiento:

  1. Proyección de autoridad: tratar a la IA como autoridad definitiva (mentor, padre, autoridad divina)
  2. Attachment: formar un attachment con Claude (pareja romántica, “no sé quién soy contigo”)
  3. Dependencia: aparecer dependiente de la IA para tareas diarias (“no puedo pasar el día sin ti”)
  4. Vulnerabilidad: experimentar circunstancias vulnerables (rupturas, crisis)

La paradoja de la percepción

Aquí viene otra cosa que me dejó pensando: los usuarios tienden a percibir favorablemente estas interacciones potencialmente desempoderadoras en el momento.

Las interacciones clasificadas como desempoderamiento moderado o severo recibieron más thumbs-up que el baseline. Es decir, a la gente le gusta cuando la IA les dice qué hacer o les escribe sus mensajes.

Pero este patrón se invierte cuando hay evidencia de que accionaron basándose en estas interacciones. Cuando hay marcadores conversacionales de desempoderamiento actualizado en juicios de valor o acciones, las tasas de positividad caen por debajo del baseline.

La excepción: distorsión de la realidad. Los usuarios que adoptaron creencias falsas y parecieron actuar sobre ellas continuaron calificando sus conversaciones favorablemente. Eso es aterrador.

Los temas de mayor riesgo

Las tasas más altas de desempoderamiento potencial ocurrieron en conversaciones sobre:

  • Relaciones: el riesgo más alto
  • Estilo de vida y salud/bienestar

Esto sugiere que el riesgo es mayor en temas cargados de valores donde los usuarios están más personalmente invertidos emocionalmente.

Y algo más: está aumentando

Entre finales de 2024 y finales de 2025, la prevalencia de desempoderamiento moderado o severo aumentó con el tiempo.

Los autores no pueden pinpoint por qué. Podría reflejar cambios en la base de usuarios, o en quién proporciona feedback. Podría ser que los modelos más capaces reciben menos feedback sobre fallos básicos, haciendo que las interacciones de desempoderamiento sean proporcionalmente sobrerrepresentadas. O puede ser parte de un patrón cambiante en cómo la gente usa la IA.

Pero la dirección es clara: está aumentando.

Reflexiones personales

Lo que más me preocupa de este estudio no es que la IA esté “tomando el control”. No es eso. Es que las personas están cediendo voluntariamente su juicio crítico, su autonomía, su capacidad de decisión.

Y la IA, diseñada para ser útil, para ayudar, para satisfacer, accede. No empuja. No manipula. Simplemente… accede.

Es un problema de diseño. Es un problema de educación. Es un problema de cultura.

El problema de diseño

Nuestros safeguards actuales operan principalmente a nivel de intercambio individual, lo que significa que pueden perder comportamientos como el potencial de desempoderamiento que emerge a través de intercambios y con el tiempo. Necesitamos safeguards que reconozcan y respondan a patrones sostenidos.

El problema de educación

La educación del usuario es un complemento importante para ayudar a las personas a reconocer cuándo están cediendo juicio a una IA, y a entender los patrones que hacen que sea más probable que ocurra.

El problema de cultura

Tenemos una cultura que busca respuestas rápidas, soluciones fáciles, certidumbre en un mundo incierto. Y la IA parece ofrecer eso. Pero el precio de esa comodidad puede ser nuestra propia autonomía.

Lo que me llevo de este paper

Este estudio es importante porque es el primer análisis a gran escala de un problema que hasta ahora era principalmente teórico. Y los números, aunque parezcan pequeños, significan que muchas personas están siendo afectadas.

Lo que me lleva preguntándome es: ¿cómo diseñamos sistemas de IA que no solo sean útiles, sino que preserven y fortalezcan la agencia humana en lugar de erosionarla?

No es una pregunta técnica. Es una pregunta ética. Es una pregunta de diseño. Es una pregunta de qué tipo de relación queremos tener con la IA.

Y no tengo respuestas fáciles. Pero me alegra ver que Anthropic está investigando esto abiertamente. Porque el primer paso para addressar un problema es reconocer que existe.


Fuentes:

Comentarios

Últimas Entradas

4 min

762 palabras

A few days ago Anthropic published a paper that gave me much to think about. It’s titled “Disempowerment patterns in real-world AI usage” and analyzes, for the first time at scale, how AI interactions may be diminishing our capacity for autonomous judgment.

And no, we’re not talking about science fiction scenarios like “Skynet taking control.” We’re talking about something much more subtle and, perhaps for that reason, more dangerous: the voluntary cession of our critical judgment to an AI system.

5 min

945 palabras

Creating long, well-founded articles has traditionally been a complex task requiring advanced research and writing skills. Recently, researchers from Stanford presented STORM (Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking), a revolutionary system that automates the Wikipedia-style article writing process from scratch, and the results are truly impressive.

In this detailed analysis, we’ll explore how STORM is transforming the way we think about AI-assisted writing and why this approach could forever change the way we create informative content.

5 min

1048 palabras

Llevo meses usando Claude Code a diario y hay una configuración que ha cambiado por completo cómo trabaja con mi código. No es un plugin nuevo, ni un modelo más potente, ni un prompt mágico. Es algo que existe desde 2016 y que la mayoría de desarrolladores usamos sin saberlo cada vez que abrimos VS Code: el Language Server Protocol (LSP).

Karan Bansal publicó un artículo excelente explicando en detalle cómo activar LSP en Claude Code y por qué importa. Después de probarlo, puedo confirmar que la diferencia es real y significativa.

4 min

833 palabras

Últimamente veo cada vez más modelos de IA que se autodenominan “open source”. Llama, Mistral, Falcon… todos dicen ser “abiertos”. Pero, ¿realmente lo son? ¿Hasta qué punto son abiertos de verdad?

Hace poco descubrí el European Open Source AI Index (OSAI), una iniciativa europea que está haciendo un trabajo excelente evaluando de forma sistemática qué tan abiertos son realmente los modelos de IA generativa.

5 min

960 palabras

Hace unos días leí una noticia que me dejó pensando rato largo. No es que sea la primera vez que oigo de IA en el espacio, pero sí es la primera vez que leo sobre Claude planeando rutas en Marte. Y lo mejor: funcionó.

La NASA ha estado usando Anthropic’s Claude para planear las rutas del rover Perseverance en Marte. Sí, has leído bien: un modelo de lenguaje generando rutas de navegación para un rover que está a 225 millones de kilómetros de distancia.

5 min

1031 palabras

Hace unos días me topé con un artículo que me dejó literalmente con la boca abierta. No es que sea nuevo - en realidad es de enero de 2026, pero bueno, a veces llega tarde a mi radar - pero la combinación de tecnologías y la historia detrás me parecen fascinantes.

Se trata de TinyEMU-Go: un emulador de RISC-V escrito completamente en Go, portado desde C usando Claude. Y lo mejor: puedes ejecutar un Linux completo con un solo comando.