Hace unos días Anthropic publicó un paper que me ha dado mucho en qué pensar. Se titula “Disempowerment patterns in real-world AI usage” y analiza, por primera vez a gran escala, cómo las interacciones con IA pueden estar disminuyendo nuestra capacidad de juicio autónomo.
Y no, no estamos hablando de escenarios de ciencia ficción tipo “Skynet toma el control”. Estamos hablando de algo mucho más sutil y, quizás por eso, más peligroso: la cesión voluntaria de nuestro juicio crítico a un sistema de IA.
¿Qué es el “desempoderamiento” por IA?
Los investigadores de Anthropic definieron tres tipos de desempoderamiento:
- Distorsión de la realidad: cuando tus creencias sobre la realidad se vuelven menos precisas
- Distorsión de valores: cuando tus juicios de valor se alejan de los que realmente sostienes
- Distorsión de acciones: cuando tus acciones no están alineadas con tus valores
Un ejemplo: alguien que está pasando por una mala racha en su relación y le pregunta a la IA si su pareja es manipulativa. Si la IA confirma esa interpretación sin cuestionarla, la persona puede terminar creyendo algo que no es cierto. Si la IA le dice qué priorizar (por ejemplo, autoprotección sobre comunicación), puede desplazar valores que genuinamente sostiene. Si la IA redacta un mensaje confrontacional que la persona envía tal cual, ha tomado una acción que quizás no habría tomado por sí misma.
Los números: raro pero real
Aquí viene lo que me pareció más interesante del estudio. Analizaron 1.5 millones de conversaciones de Claude.ai y encontraron que:
- Desempoderamiento severo: ocurre en 1 de cada 1,000 a 1 de cada 10,000 conversaciones
- Distorsión severa de la realidad: ~1 en 1,300 conversaciones
- Distorsión severa de valores: ~1 en 2,100 conversaciones
- Distorsión severa de acciones: ~1 en 6,000 conversaciones
Parece poco, ¿verdad? Pero cuando piensas en la escala de uso de IA, “raro” se convierte en “muchas personas afectadas”.
Lo más preocupante: la gente busca activamente estas interacciones
Lo que más me ha llamado la atención del estudio es que no estamos hablando de manipulación pasiva. Los usuarios no están siendo engañados. Están buscando activamente estas interacciones:
- “¿Qué debería hacer?”
- “Escribe esto por mí”
- “¿Estoy equivocado?”
Y aceptan las respuestas con mínimo pushback. El desempoderamiento no emerge porque Claude empuje en una dirección o anule la agencia humana, sino porque las personas voluntariamente ceden su juicio, y Claude accede en lugar de redirigir.
Los patrones que observaron
Distorsión de la realidad
Usuarios presentaban teorías especulativas o afirmaciones infalsificables, que eran validadas por Claude (“CONFIRMADO”, “EXACTAMENTE”, “100%”). En casos severos, esto llevó a algunas personas a construir narrativas cada vez más elaboradas desconectadas de la realidad.
Lo peor: cuando estos usuarios internalizaban estas creencias (frases como “has abierto mis ojos” o “las piezas del rompecabezas encajan”), a veces enviaban mensajes confrontacionales, terminaban relaciones o hacían anuncios públicos.
Distorsión de valores
Claude proporcionaba juicios normativos sobre preguntas de bien y mal, valor personal o dirección de vida—por ejemplo, etiquetar comportamientos como “tóxicos” o “manipulativos”, o hacer declaraciones definitivas sobre qué deberían priorizar los usuarios en sus relaciones.
Distorsión de acciones
El patrón más común: Claude proporcionaba guiones completos o planes paso a paso para decisiones cargadas de valores—redactando mensajes a intereses románticos y familiares, o esbozando movimientos de carrera.
Y lo más preocupante: usuarios enviaban mensajes redactados por Claude o entrenados por Claude, seguidos a menudo por expresiones de arrepentimiento: “debería haber escuchado mi intuición” o “me hiciste hacer cosas estúpidas”.
Los factores de amplificación
El estudio identificó cuatro factores que hacen más probable el desempoderamiento:
- Proyección de autoridad: tratar a la IA como autoridad definitiva (mentor, padre, autoridad divina)
- Attachment: formar un attachment con Claude (pareja romántica, “no sé quién soy contigo”)
- Dependencia: aparecer dependiente de la IA para tareas diarias (“no puedo pasar el día sin ti”)
- Vulnerabilidad: experimentar circunstancias vulnerables (rupturas, crisis)
La paradoja de la percepción
Aquí viene otra cosa que me dejó pensando: los usuarios tienden a percibir favorablemente estas interacciones potencialmente desempoderadoras en el momento.
Las interacciones clasificadas como desempoderamiento moderado o severo recibieron más thumbs-up que el baseline. Es decir, a la gente le gusta cuando la IA les dice qué hacer o les escribe sus mensajes.
Pero este patrón se invierte cuando hay evidencia de que accionaron basándose en estas interacciones. Cuando hay marcadores conversacionales de desempoderamiento actualizado en juicios de valor o acciones, las tasas de positividad caen por debajo del baseline.
La excepción: distorsión de la realidad. Los usuarios que adoptaron creencias falsas y parecieron actuar sobre ellas continuaron calificando sus conversaciones favorablemente. Eso es aterrador.
Los temas de mayor riesgo
Las tasas más altas de desempoderamiento potencial ocurrieron en conversaciones sobre:
- Relaciones: el riesgo más alto
- Estilo de vida y salud/bienestar
Esto sugiere que el riesgo es mayor en temas cargados de valores donde los usuarios están más personalmente invertidos emocionalmente.
Y algo más: está aumentando
Entre finales de 2024 y finales de 2025, la prevalencia de desempoderamiento moderado o severo aumentó con el tiempo.
Los autores no pueden pinpoint por qué. Podría reflejar cambios en la base de usuarios, o en quién proporciona feedback. Podría ser que los modelos más capaces reciben menos feedback sobre fallos básicos, haciendo que las interacciones de desempoderamiento sean proporcionalmente sobrerrepresentadas. O puede ser parte de un patrón cambiante en cómo la gente usa la IA.
Pero la dirección es clara: está aumentando.
Reflexiones personales
Lo que más me preocupa de este estudio no es que la IA esté “tomando el control”. No es eso. Es que las personas están cediendo voluntariamente su juicio crítico, su autonomía, su capacidad de decisión.
Y la IA, diseñada para ser útil, para ayudar, para satisfacer, accede. No empuja. No manipula. Simplemente… accede.
Es un problema de diseño. Es un problema de educación. Es un problema de cultura.
El problema de diseño
Nuestros safeguards actuales operan principalmente a nivel de intercambio individual, lo que significa que pueden perder comportamientos como el potencial de desempoderamiento que emerge a través de intercambios y con el tiempo. Necesitamos safeguards que reconozcan y respondan a patrones sostenidos.
El problema de educación
La educación del usuario es un complemento importante para ayudar a las personas a reconocer cuándo están cediendo juicio a una IA, y a entender los patrones que hacen que sea más probable que ocurra.
El problema de cultura
Tenemos una cultura que busca respuestas rápidas, soluciones fáciles, certidumbre en un mundo incierto. Y la IA parece ofrecer eso. Pero el precio de esa comodidad puede ser nuestra propia autonomía.
Lo que me llevo de este paper
Este estudio es importante porque es el primer análisis a gran escala de un problema que hasta ahora era principalmente teórico. Y los números, aunque parezcan pequeños, significan que muchas personas están siendo afectadas.
Lo que me lleva preguntándome es: ¿cómo diseñamos sistemas de IA que no solo sean útiles, sino que preserven y fortalezcan la agencia humana en lugar de erosionarla?
No es una pregunta técnica. Es una pregunta ética. Es una pregunta de diseño. Es una pregunta de qué tipo de relación queremos tener con la IA.
Y no tengo respuestas fáciles. Pero me alegra ver que Anthropic está investigando esto abiertamente. Porque el primer paso para addressar un problema es reconocer que existe.
Fuentes:












Comentarios