
Educar en la era de la creatividad híbrida
-
-
-
Jorge Calvo Martín, director de Innovación y Tecnología en Colegio Europeo de Madrid
-
-
A menudo reducimos el impacto de la Inteligencia Artificial en las aulas a una visión puramente instrumental: ¿Servirá para que los alumnos ‘hagan los deberes’ con menos esfuerzo? ¿Se trata solo de una herramienta para completar tareas más rápido? Esta perspectiva, centrada únicamente en la eficiencia del entregable, es peligrosamente simplista e ignora la verdadera magnitud del cambio. No estamos ante una simple herramienta que «hace los deberes», sino ante un cambio de paradigma cognitivo. El verdadero desafío no es evitar el plagio, sino evitar la obsolescencia del pensamiento crítico.
Durante el último año, hemos hablado mucho del riesgo de la «descarga cognitiva»: ese fenómeno por el cual delegamos en la máquina procesos mentales esenciales como el análisis, la estructura o la síntesis debilitando nuestra propia capacidad intelectual. Es un riesgo real y documentado. Sin embargo, quedarse en la advertencia es insuficiente. La educación no se construye desde el miedo, sino desde la propuesta. Por eso, es urgente introducir un nuevo concepto en el debate pedagógico: la «Sinestesia Generativa».
Este término no se refiere a la condición neurológica de cruzar sentidos, sino a una nueva forma de colaboración simbiótica entre la mente humana y la inteligencia artificial.
Investigaciones recientes, como el estudio Generative Artificial Intelligence, Human Creativity, and Art publicado por OUP Academic, nos ofrecen datos reveladores tras analizar millones de obras. La conclusión es dual: los sistemas generativos pueden aumentar la productividad creativa en un 25% y la valoración de los resultados en un 50%, pero también nos alertan de un peligro inminente: la «uniformidad creativa». Cuando el humano deja de liderar, el estilo se homogeneiza y la innovación se estanca.
La sinestesia generativa propone un equilibrio donde la exploración humana (la imaginación, la intención, el «qué» queremos contar) se sitúa en el centro, mientras que la explotación algorítmica (la ejecución técnica, la velocidad, el «cómo») actúa como catalizador. En el aula, esto significa que la IA no debe ser el piloto que decide el destino, sino el motor que nos permite llegar a lugares que nuestra técnica manual quizás no alcanzaría, pero siempre bajo nuestra dirección.
Para llegar a este estado de colaboración avanzada, debemos confrontar primero un fenómeno psicológico sutil que la IA amplifica: la falsa sensación de progreso.
Un estudio reciente de Matthias Lehmann sobre el uso de ChatGPT en el aprendizaje de programación ilustra esto con claridad. Los estudiantes que utilizaron la IA para resolver los ejercicios reportaron sentir que aprendían más y entregaron soluciones técnicamente perfectas. Sin embargo, al ser evaluados sin la asistencia de la herramienta, su rendimiento fue significativamente inferior al de aquellos que se enfrentaron al problema sin atajos. La herramienta les permitía entregar un mejor producto final, pero no estaba construyendo la competencia subyacente.
Esto no significa que debamos prohibir la IA en la programación, ni que el objetivo sea memorizar sintaxis que probablemente se vuelva obsoleta. El verdadero valor de aprender a programar hoy no reside en escribir líneas de código, sino en desarrollar el pensamiento computacional: esa capacidad para descomponer problemas complejos, pensar en secuencias lógicas y entender la causalidad. Si la IA resuelve el problema por el alumno, este se salta el gimnasio mental necesario para desarrollar esas habilidades estructurales. La IA debe ser el copiloto que sugiere optimizaciones, no el piloto que evita que el alumno entienda la ruta.
En este contexto, la figura del docente sufre su transformación más radical. Durante siglos, el profesor ha sido la «fuente» del conocimiento. Hoy, esa fuente es ubicua y digital. El valor del docente, por tanto, migra hacia el rol de «arquitecto del aprendizaje».
La IA puede corregir un test o generar un resumen, y eso es una excelente noticia, porque libera al profesor de la burocracia académica para que se dedique a lo que ninguna máquina puede hacer: diseñar experiencias, ofrecer feedback emocional, gestionar la cultura del aula y enseñar ética. La IA no reemplaza al docente; reemplaza sus tareas de menor valor para permitirle elevarse.
Este arquitecto debe entender que la IA no es una asignatura nueva que hay que encajar con calzador en el currículo. Es una competencia transversal, tan fundamental como la lectoescritura o la educación financiera. No se trata de «enseñar IA» en una hora semanal, sino de enseñar con IA y sobre IA en Historia, en Matemáticas y en Filosofía.
Si aceptamos que la IA va a estar presente, la habilidad crítica que debemos entrenar es el prompting. Pero no como una técnica de «trucos» para engañar al chatbot, sino como una habilidad metacognitiva.
Un buen prompt es, en esencia, un pensamiento bien ordenado. Obliga al alumno a definir un objetivo, establecer restricciones, especificar el tono y determinar criterios de éxito. Enseñar a un estudiante a interactuar con una IA es enseñarle a estructurar su propia mente. Es el renacer de la mayéutica socrática, donde la pregunta importa más que la respuesta.
Y una vez obtenida esa respuesta, entra en juego la rutina de higiene intelectual que debe presidir cualquier aula moderna: Generar → Contrastar → Cita → Corrige. La IA es persuasiva y alucina con convicción; por eso, la duda metódica deja de ser una postura filosófica para convertirse en una necesidad de supervivencia informativa.
Todo este cambio pedagógico se estrella contra un muro si no cambiamos la forma de evaluar. Si seguimos calificando únicamente el «producto final» (el ensayo, el código, el dibujo), la IA siempre ganará. Es una batalla perdida.
Para que la IA no «rompa» el sistema, la evaluación debe evolucionar hacia el proceso. Debemos valorar los borradores, la trazabilidad de las decisiones (¿por qué elegiste este adjetivo que te sugirió la IA y no este otro?), y recuperar la defensa oral o viva voce. El alumno debe ser capaz de defender su trabajo, independientemente de las herramientas que haya usado. Si no puedes explicarlo, no lo has aprendido.
Finalmente, la implementación de esta visión requiere madurez institucional. Veo con preocupación cómo muchos centros educativos (y empresas) delegan su estrategia de IA en el perfil más «tech» o en el profesor más joven y entusiasta.
Aunque su energía es vital, la innovación no es improvisación; requiere estructura y visión sistémica. Un perfil junior puede conocer la última herramienta, pero a menudo carece de la experiencia para prever las implicaciones éticas o pedagógicas a largo plazo. Necesitamos un «Acuerdo de Centro»: no un documento legal de 40 páginas que nadie lee, sino un pacto social de 2 páginas que defina qué es aceptable, qué datos son privados y sagrados, y cómo citamos la colaboración de la máquina.
Como bien apunta Alfons Cornella en Educar en un mundo de inteligencia artificial, el mundo se encamina hacia una división que ya no es de clases, sino de competencias digitales profundas: la división entre Smarts y Users.
Los Users serán aquellos que se limiten a utilizar la tecnología, aceptando pasivamente lo que el algoritmo les sirve, sumidos en la comodidad de la descarga cognitiva. Serán operadores eficientes, pero intelectualmente dependientes. Los Smarts, en cambio, serán quienes entiendan la lógica de la máquina, quienes la cuestionen y utilicen esa sinestesia generativa para amplificar una creatividad genuinamente humana.
La verdadera misión de la escuela hoy no es llenar las aulas de dispositivos, sino asegurar que de ellas salgan los Smarts que gobernarán los algoritmos, y no los Users que serán gobernados por ellos.
-
-
Puedes ver la entrevista a Jorge Calvo en el congreso Top Voces Educación en el canal de YouTube de ACADE
-