Últimamente vengo siguiendo una discusión que me tiene bastante preocupado: hasta qué punto estamos delegando nuestro pensamiento a la IA. No es una pregunta abstracta o filosófica, es algo muy real que estoy viendo día a día en nuestra profesión y en la sociedad en general.
Hace poco leí un artículo de Erik Johannes Husom titulado “Outsourcing thinking” que, entre otras cosas, discute el concepto de “lump of cognition fallacy” (la falacia de la suma de cognición). La idea es que, igual que hay una falacia económica que dice que hay una cantidad fija de trabajo que hacer, algunos creen que hay una cantidad fija de pensamiento que hacer, y que si las máquinas piensan por nosotros, simplemente pensaremos sobre otras cosas.
Pero yo creo que el problema es mucho más complicado que eso.
La crítica habitual a los LLMs
La crítica más común al uso de modelos de lenguaje grandes (LLMs) es que pueden privarnos de habilidades cognitivas. El argumento típico es que delegar ciertas tareas puede causar una especie de atrofia mental. Y honestamente, la idea de “úsalo o piérdelo” me parece intuitivamente y empíricamente correcta.
Lo más relevante no es si esto es verdad o no, sino qué tipos de uso son más problemáticos que otros.
El problema de los desarrolladores: Microsoft lo admite
Lo que más me preocupa es que incluso Microsoft ha reconocido internamente que herramientas como Copilot y ChatGPT están afectando al pensamiento crítico en el trabajo. Su personal que usa estas tecnologías experimenta problemas de “dependencia a largo plazo”.
Varios estudios y artículos están señalando lo mismo:
- Junior developers que luchan sin asistencia de IA
- Desarrolladores que se vuelven dependientes de la IA para resolución básica de problemas
- Riesgo de “declive cognitivo” en habilidades de ingeniería de software
Mehul Gupta lo resume bien: la IA no necesariamente nos está convirtiendo en “robots perezosos”, pero puede estar quitándonos creatividad y habilidades de resolución de problemas “si se lo permitimos”.
¿Cuándo deberíamos evitar usar LLMs?
Andy Masley, en su artículo “The lump of cognition fallacy”, lista casos donde es claramente perjudicial subcontratar nuestro pensamiento:
Es malo subcontratar tu cognición cuando:
- Construye conocimiento tácito complejo que necesitarás para navegar el mundo en el futuro
- Es una expresión de cuidado y presencia para alguien más
- Es una experiencia valiosa por sí misma
- Es engañoso falsificarlo
- Se enfoca en un problema crítico donde no confías totalmente en quién lo subcontratas
Yo creo que estamos de acuerdo en la lista, pero discrepamos en cuántas actividades caen dentro de estas categorías.
Comunicación personal y escritura
El punto de “es engañoso falsificarlo” no solo se aplica a apps de citas o situaciones íntimas. La comunicación personal en general es un área donde importa cómo nos expresamos, tanto para nosotros como para quienes hablan o escriben con nosotros.
Cuando dejamos que un modelo transforme nuestras palabras y frases, estamos rompiendo las expectativas de la comunicación. Las palabras que elegimos y cómo formulamos nuestras oraciones portan mucho significado. La comunicación directa sufrirá si dejamos que los modelos de lenguaje contaminen este tipo de interacción.
El problema del texto “co-escrito” con IA
Muchos ven los LLMs como una gran ayuda para que las personas expresen sus opiniones más claramente, particularmente para gente que no usa su lengua nativa o quienes tienen dificultades de aprendizaje. Tengo dos objeciones principales:
- Qué le pasa al texto: En la mayoría de los casos es imposible separar el significado de la expresión. Las palabras son el significado. Cambiar la redacción cambia el mensaje.
- Qué nos pasa a nosotros: Nos robamos la oportunidad de crecer y aprender sin “ruedas de entrenamiento”.
Los LLMs pueden ayudar a mejorar el texto, pero el proceso de pensamiento —desarrollar las ideas— quedará severamente amputado cuando dejamos la redacción en manos de un modelo.
La inflación de texto
Veo un efecto preocupante: el número de solicitudes a diversas convocatorias (prácticas, propuestas de investigación, ofertas de trabajo) se está multiplicando, pero la calidad está bajando. Los estudiantes piden ayuda a los chatbots para resolver tareas colaborativas, sin darse cuenta de que todos están preguntando al mismo chatbot, robándonos de la diversidad de ideas que podría haberse formado si tomaran un minuto para pensar por sí mismos.
Los chatbots pueden haber bajado el umbral para participar, pero las reglas del juego de la competencia no han cambiado. Para mejorar en escritura, hay que escribir. Lo mismo para pensar.
Texto funcional vs texto personal
No todo el texto se ve afectado de la misma manera. Lo que yo llamo “texto funcional” —código de computadora, transmisión pura de información, recetas, señales informativas, documentación— no está expuesto a los mismos problemas.
Pero el texto que tiene un autor personal dirigiéndose a una audiencia humana, tiene expectativas de rol particulares y descansa en una confianza particular. La erosión de esa confianza será una pérdida para la humanidad.
El error de la “mente extendida”
Otro punto que quiero discutir es la idea de la “mente extendida”:
“Gran parte de nuestra cognición no está limitada a nuestro cráneo y cerebro, también sucede en nuestro entorno físico, así que mucho de lo que definimos como nuestras mentes podría decirse que existe en los objetos físicos que nos rodean.”
“Parece bastante arbitrario si sucede en las neuronas de tu cerebro o en los circuitos de tu teléfono.”
Esta afirmación es simplemente absurda. El hecho de que algo suceda en tu cerebro en lugar de en un ordenador marca toda la diferencia del mundo. Los humanos somos algo más que procesadores de información.
Sí, procesamos información, pero es extremadamente reduccionista tratarnos como objetos donde ciertos procesos pueden subcontratarse a dispositivos externos sin consecuencias.
¿Realmente importa qué pensamos?
Respecto a la “falacia de la suma de cognición”, estoy de acuerdo en que no necesitamos preocuparnos por “agotar un pool finito” de pensamiento. Pero hay otra falacia en juego: “no importa qué pensemos, mientras pensemos sobre algo”.
Es fácil convencerse de que si un ordenador puede hacer las tareas simples y aburridas por mí, puedo ocuparme de cosas más complejas y emocionantes. Pero debemos ser conscientes de que ciertas tareas mentales son importantes para nosotros hacerlas, aunque una máquina técnicamente podría hacerlas por nosotros.
Un ejemplo personal
Si subcontrato todas mis tareas aburridas de administración de proyecto a un chatbot, puede dejarme más tiempo para mi tarea principal: investigación. Pero también me robará la oportunidad de sentir propiedad del proyecto y construir una base para tomar decisiones de alto nivel en el proyecto.
En una situación hipotética donde un chatbot realiza perfectamente todas las tareas administrativas en mi nombre, yo todavía habré perdido algo, lo que puede nuevamente impactar el proyecto.
No digo que no se deban automatizar tareas, pero debemos ser conscientes de que siempre perdemos algo cuando automatizamos un proceso.
El peligro de la dependencia cognitiva
Lo que veo en el día a día:
- Desarrolladores junior que no pueden resolver problemas básicos sin StackOverflow + Copilot
- Gente que no puede escribir un email sin pedirle a ChatGPT que lo haga
- Estudiantes que usan IA para tareas donde el punto es aprender a pensar, no obtener la respuesta
El problema no es usar estas herramientas. El problema es convertirlas en una muleta permanente.
Addy Osmani lo llama el “paradoja de productividad de la IA” — quizás estemos aumentando la productividad pero a costa de perder nuestra ventaja por atrofia de habilidades.
El conocimiento tácito y las tareas “aburridas”
Otro punto crucial: no deberíamos usar chatbots cuando “construye conocimiento tácito complejo que necesitarás para navegar el mundo en el futuro”.
Construir conocimiento no solo sucede cuando te sientas a aprender algo nuevo, sino también cuando haces trabajo repetitivo.
Este error no es nuevo de los chatbots, ha estado presente desde que empezamos a llevar smartphones en el bolsillo. Con internet siempre a mano, aparentemente no hay necesidad de recordar información. En lugar de usar nuestros cerebros para almacenar conocimiento, podemos acceder a información online cuando la necesitamos.
El punto que estamos perdiendo es que adquirir y memorizar conocimiento es una parte enorme de aprender a usar el conocimiento. Es ingenuo pensar que simplemente podemos separar la unidad de almacenamiento de la unidad de proces, como si fuéramos un ordenador.
La lección del jazz
Aprendí esta lección siendo estudiante de piano. Intentaba entender el jazz y figuré cómo los buenos improvisadores podían aprender a venir con nuevas frases tan fácilmente en el momento.
Uno de mis profesores me enseñó el verdadero truco: la buena improvisación no viene solo de practicar improvisación. Necesitas tocar canciones y melodías existentes, muchas de ellas, una y otra vez, aprenderlas de memoria, meter las progresiones de acordes y motivos en la piel.
Esta práctica construye tu intuición sobre lo que suena bien, y tu improvisación puede surgir de eso. Trozos de melodías viejas se combinan en música nueva.
Muchos están subestimando severamente el conocimiento que construimos desde tareas aburridas, y estamos en peligro de perder ese conocimiento cuando la presión por mayor eficiencia nos hace volver a los chatbots.
¿Qué podemos hacer?
No estoy diciendo que nada debería ser automatizado por LLMs. Pero creo que muchos están subestimando qué perdemos cuando delegamos.
Algunos principios que intento seguir:
- Usar IA como herramienta, no como reemplazo: La IA me ayuda, pero no piensa por mí
- Mantener el pensamiento crítico activo: Cuestionar las respuestas de la IA
- No delegar tareas que construyen conocimiento tácito: Esas tareas “aburridas” a menudo son las que más nos enseñan
- Ser transparente sobre el uso de IA: Cuando uso IA en algo, lo digo
- Practicar sin IA regularmente: Mantener las habilidades afiladas
Pensamiento crítico: la habilidad clave de 2026
Lo curioso es que, según múltiples fuentes, el pensamiento crítico será la habilidad diferenciadora en 2026. Las habilidades que más se valoran:
- Pensamiento crítico con IA
- Colaboración con herramientas de IA
- Alfabetización en IA
- Prompt engineering
- Data awareness
Dan Koe lo resume bien: “Un proceso donde la IA maneja gran parte del trabajo mientras los humanos mantienen el control del pensamiento — identificado como el futuro.”
Conclusión
Tenemos un gran desafío por delante para figurar para qué son adecuados los chatbots a largo plazo. La comunicación personal puede cambiar para siempre, los sistemas educativos necesitarán adaptaciones radicales, y necesitamos reflexionar más cuidadosamente sobre qué experiencias en la vida realmente importan.
Lo que es verdaderamente emocionante sobre este nuevo tipo de tecnología es que nos obliga a enfrentar preguntas sobre nuestra humanidad y valores. Muchas preguntas antes teóricas de filosofía se están volviendo relevantes para nuestra vida diaria.
Un punto fundamental que intento traer es que cómo elegimos usar chatbots no es solo sobre eficiencia y consecuencias cognitivas; es sobre cómo queremos que sean nuestras vidas y nuestra sociedad.
He intentado argumentar que hay buenas razones para proteger ciertas actividades humanas contra la automatización de las máquinas. Esto se basa en parte en mis valores, y no depende de investigación sobre si nuestra eficiencia en el trabajo o habilidades cognitivas son afectadas.
No puedo decir a otros qué deberían hacer, pero desafío a todos a considerar qué valores quieren construir nuestras comunidades, y dejar que eso pese junto con lo que nos dicen los estudios de investigación.
Al final del día, la pregunta no es “¿puedo usar IA para esto?” sino “¿debería usar IA para esto?”. Y esa es una pregunta que solo tú puedes responder.
Referencias
- Outsourcing thinking – Erik Johannes Husom
- The lump of cognition fallacy – Andy Masley
- Is AI making Software Developers dumb? – Mehul Gupta
- Avoiding Skill Atrophy in the Age of AI – Addy Osmani
- Are We Outsourcing Our Thinking to AI? – Anil Mogilisetty
- Critical Thinking Trumps AI in 2026 – Stephen Waddington
- Something is different About 2026 – Dan Koe
- Top AI Skills of 2025 That Will Define 2026 and Beyond
- The Most In-Demand AI Skills in 2026 – QA













Comentarios