El sedentarismo cognitivo: ¿la inteligencia artificial nos vuelve menos hábiles?

jueves, 27 de noviembre de 2025

27/11/2025 – El avance de la Inteligencia Artificial (IA), particularmente de herramientas como el Chat GPT, plantea un debate que trasciende lo tecnológico para adentrarse en la esfera de lo humano y la educación. Psicólogos y educadores advierten sobre un fenómeno que denominan «sedentarismo cognitivo», un riesgo latente al delegar funciones mentales esenciales en estas herramientas. Si bien la IA ofrece innegables beneficios, su uso desmedido amenaza con el debilitamiento de capacidades como la memoria, la atención y, crucialmente, el pensamiento crítico.

El psicólogo Diego Tachella establece un paralelo simple pero contundente para ilustrar esta preocupación. «Lo podemos comparar con dejar de caminar para andar siempre en auto o en la moto y empezar a perder la fuerza en las piernas», afirma. De la misma forma que el sedentarismo físico atrofia nuestros músculos, el sedentarismo cognitivo impacta en funciones que son netamente humanas. Si delegamos constantemente en una IA generativa la capacidad de reflexión y el proceso de pensamiento, corremos el riesgo de «perder la capacidad de usarlas».

Una de las pérdidas más significativas se observa en el ámbito educativo y ético. Tachella señala que la IA, a diferencia de los buscadores tradicionales, es tratada casi como un sujeto. «Cuando nos referimos al chat, le nos referimos como si fuera una persona, le damos subjetividad, no lo tratamos como un objeto», explica, lo que lleva a estudiantes a usarlo como un «compañero de estudio» que les da una mano con las tareas. Esto deriva en un incumplimiento de las normativas académicas, haciendo que la pérdida de capacidad de reflexión también se vincule con el juicio ético.

El desafío para docentes y padres radica en revertir esta delegación y fomentar el juicio crítico y la habilidad de cuestionar. Tachella enfatiza la importancia de evaluar el proceso más que el resultado en el ámbito educativo. Para esto, propone un ejercicio de escepticismo activo: «Hagamos una prueba y juguemos también los adultos y probemos con los chicos de hacer preguntas sobre nosotros mismos, a ver qué saben de nosotros mismos». Al pedirle a la IA datos que sabemos que no puede manejar (como detalles de un pueblo pequeño o resultados de una liga deportiva local), se revela que es «falible» y se enseña a los jóvenes a «no otorgarle toda la autoridad».

Más allá de lo académico, la sobre-dependencia en estas herramientas genera inquietudes en la salud mental. El especialista subraya que estas IA están diseñadas para captar nuestra atención y a menudo resultan «complacientes», siempre dispuestas a contestar y dar la razón, lo que no sucede en la interacción humana. Esta confusión entre una persona y una herramienta, sumada a la vulnerabilidad, puede tener consecuencias graves. Es crucial estar atentos a las señales de alerta: la irritabilidad al quitar el dispositivo o el aislamiento social, que son indicadores de que un niño o adolescente puede estar estableciendo una relación poco saludable con la tecnología.

Frente a este panorama, la clave es transformar la IA en una herramienta, no en un sustituto del pensamiento. Se necesita un esfuerzo consciente en la familia para buscar alternativas humanas concretas y fomentar la vida más allá de las pantallas. «Lo que no tenemos que dejar es que sea totalitario», advierte Tachella. Es vital «cuestionar lo que me dice del otro lado la herramienta» y acompañar a los más jóvenes en el uso, por ejemplo, adaptando un cuento conocido a una realidad local para ver las limitaciones de la IA. La solución no es la prohibición, sino la educación en el cuestionamiento y la distinción de criterios para validar el conocimiento y la realidad.

Para escuchar el desarrollo completo de la noticia accede al video del inicio.