El término cíborg proviene del acrónimo en inglés de la frase “organismo cibernético” y define un ser que combina sus elementos biológicos con los tecnológicos. Pero aunque en nuestra mente a menudo asociemos la palabra con un organismo artificial, metálico y robótico, una persona que trabaja con su computadora y usa tabletas, dispositivos móviles, relojes inteligentes o gafas de inteligencia artificial podría ser, en la concepción más amplia del término, un cíborg.
Si a nuestras capacidades biológicas como la memorización (de un número de teléfono, una receta de cocina, la ruta hacia un lugar) unimos las capacidades artificiales de almacenaje de datos y su recuperación que nos dan las tecnologías (pues de algún modo nuestra memoria se apoya y alimenta de lo que nos ofrecen los dispositivos), no hablamos tanto de cíborg como de “mente extendida”.
Es decir, aprovechamos una herramienta artificial para extender nuestras capacidades cognitivas. Por ejemplo, usamos una calculadora para resolver una multiplicación; seguimos las instrucciones de Google Maps para llegar a un sitio; o pedimos a la inteligencia artificial que nos ayude a corregir la redacción de un ensayo académico, o incluso nos proponga una estructura distinta que ayude a mejorarlo.
¿Y dónde queda la cognición?
¿Pero hasta qué punto estamos “extendiendo” nuestra mente, es decir, llegando más lejos de lo que podríamos solos, o simplemente reemplazándola? ¿Dónde ponemos la frontera entre la tecnología como potenciadora de nuestras capacidades y la tecnología como sustituta de estas capacidades, especialmente cuando hablamos de mentes en desarrollo como las de los estudiantes?
Pensemos en el siguiente ejemplo:
En una tarea universitaria se les pide a los estudiantes que redacten un ensayo sobre la historia de la inteligencia artificial.
El estudiante 1 le pide a algún motor de inteligencia artificial generativa como Gemini, ChatGPT o Deepseek que le elabore un ensayo. Después corrige algunas cuestiones de redacción, nexos, y listo: pareciera un trabajo que cumple con las directrices del docente, incluso en el texto propone una mirada crítica ante el tema.
El estudiante 2 analiza primeramente cuáles son sus conocimientos previos y basándose en ellos utiliza los mismos motores, agregando Notebook LM para crear guías de estudio, un pódcast y un vídeo explicativo. Al mismo tiempo, anota a mano en su cuaderno sus ideas críticas, redacta el texto y utiliza la inteligencia artificial para revisar si hubo algún error de dedo, si alguna idea parece no entenderse. Por último, utiliza las modalidades de investigación profunda de ChatGPT y Gemini para identificar cursos y libros que pudieran ayudarle a mejorar los aspectos gramaticales en donde tuvo errores dentro de su ensayo.
En ambos casos, se cumple con el trabajo con la ayuda de herramientas tecnológicas que amplían nuestras capacidades cognitivas, pero sólo en el segundo caso se hace énfasis en técnicas de estudio, en respetar el ritmo biológico de los procesos cognitivos que influyen en la redacción e incluso en utilizar Notebook LM y otras herramientas para aprender.
Equilibrio entre tecnología y aprendizaje
Para aprovechar las tecnologías sin empeorar nuestras capacidades cognitivas y crear dependencias, es fundamental que reflexionemos siempre si el uso está contribuyendo al aprendizaje.
Son tres los puntos relevantes que ayudarían a encontrar un equilibrio entre una mente extendida y una mente dependiente. El primero de ellos es la ética en el uso de la tecnología y la IA: para entender las directrices éticas en la utilización de la inteligencia artificial existen ya algunas guías prácticas como la elaborada por la Unión Europea o la UNESCO.
Entre los puntos clave para su uso ético, está la transparencia, es decir, ser honesto sobre cuándo y cómo se ha utilizado; la responsabilidad, al asumir siempre la autoría y responsabilidad del trabajo final; originalidad y aporte personal, utilizando la IA para explorar ideas y superar bloqueos, pero nunca para sustituir el esfuerzo intelectual, y la privacidad, para ser consciente de la información que compartimos con estas herramientas.
Automatizar lo mecánico, no lo estratégico
En segundo lugar, debemos ser intencionales con la automatización. La tecnología nos permite ahorrar tiempo, pero es crucial diferenciar qué tipo de acciones delegamos. El equilibrio no se mide en “cuántas” tareas automatizamos, sino en “cuáles”. La regla es simple: automaticemos lo mecánico, no lo estratégico. Podemos usar la IA para tareas que apoyan nuestro pensamiento, pero que no son el pensamiento per se. Por ejemplo: transcribir una entrevista, resumir un documento largo para captar la idea principal, corregir la ortografía y la gramática o buscar fuentes de información.
Las acciones que debemos proteger del exceso de automatización son aquellas que construyen nuestras habilidades a largo plazo: la búsqueda de ideas originales, la estructuración de un argumento complejo, la conexión de conceptos dispares para generar una idea nueva (innovación) y la redacción del pensamiento crítico que forma el corazón de un ensayo.
El peligro de automatizar estas tareas centrales es que, a largo plazo, podríamos entorpecer nuestra capacidad de imaginar, crear y razonar de forma independiente, convirtiéndonos en meros editores de contenido generado por máquinas.
Un asistente brillante pero falible
En tercer lugar, debemos mantener una supervisión crítica y activa. La inteligencia artificial puede fallar, inventar fuentes o presentar datos erróneos. La relación de este hecho con la dependencia es fundamental: al saber que la herramienta no es infalible, nos vemos obligados a verificar, cuestionar y contrastar la información.
Este proceso de supervisión es un ejercicio cognitivo en sí mismo. Caemos en la dependencia cuando aceptamos pasivamente lo que la IA nos entrega. Por el contrario, al tratarla como un asistente brillante pero falible, mantenemos nuestra mente en el centro del proceso, ejercitando el juicio crítico que es, precisamente, lo que queremos potenciar.
Conciencia e intención
La línea que separa una mente extendida de una mente dependiente no está en la tecnología en sí, sino en la conciencia y la intención con que la usamos. Como vimos en el ejemplo de los dos estudiantes, las mismas herramientas pueden conducir a resultados muy diferentes: una puede simular el conocimiento, mientras que otra puede promover una comprensión más profunda y auténtica.
Esto no implica renunciar al gran potencial de la inteligencia artificial, sino convertirnos en expertos en nuestras herramientas y apoyarnos en tres pilares: una actitud ética que garantice que somos los autores definitivos de nuestro trabajo; una automatización consciente, que nos libera de tareas rutinarias para enfocarnos en la creatividad y el pensamiento crítico; y una supervisión activa, que asegura que nuestro juicio siga siendo el filtro final y esencial.
La verdadera mente extendida no es aquella que externaliza su memoria o habilidades de escritura, sino la que usa la tecnología para potenciar sus capacidades humanas únicas, como la curiosidad, la creatividad, la empatía y el juicio ético.
Fuente: Luis Daniel Lozano Flores / theconversation.com

 
		
 
									 
					
 
 
 
