
Hay una parte del profesorado que, ante la IA, reacciona como si viera una rana mutante en el laboratorio de ciencias: “esto no puede ser bueno”. Y quizá tienen razón. Pero ¿y si, en lugar de salir corriendo, la tomamos con pinzas pedagógicas y vemos qué podemos hacer con ella?
Algunos docentes defienden con convicción que el alumnado debe pensar por sí mismo, sin que una IA le haga los deberes. Y tienen motivos de peso: enfrentarse a la hoja en blanco es un entrenamiento mental insustituible. Si una máquina nos da todo hecho, ¿qué incentivo queda para crear algo desde cero?
También hay quien teme que todo empiece a sonar igual. Si todo el mundo escribe con el mismo asistente digital, acabaremos con una educación de pensamiento low cost: homogénea, sin voces propias, como una clase donde todos llevan el mismo chándal. Y tienen razón en estar alerta. Si además normalizamos que los algoritmos decidan por nosotros, podemos acabar incorporando prejuicios sin darnos cuenta. Esto no es ciencia ficción: es sociología del aula.
También existen inquietudes sobre el impacto ambiental. No es muy conocido, pero una consulta a un chatbot puede consumir diez veces más energía que una búsqueda en Google. Y luego está el debate de fondo: ¿con quién estamos hablando cuando hablamos con una IA? ¿Estamos dialogando o jugando al ping-pong con una máquina muy bien entrenada?
Ahora bien, prohibir la IA en secundaria y bachillerato es como quitar los ordenadores para evitar distracciones: soluciona un problema y crea dos más. El alumnado ya convive con esta tecnología. Y la usa, quizá mal. Ocultarla no educa. Lo que sí educa es ponerla sobre la mesa, como un tema más.
Podemos, por ejemplo, hacer que el alumnado genere un texto con IA y luego lo diseccione en clase. “¿Por qué ha elegido esta estructura? ¿Tú qué mejorarías? ¿Cómo lo harías diferente?”. Esto evita el copiar y pegar, y enciende los motores del pensamiento crítico. O plantear un debate en el que la IA sea el oponente: genera argumentos y el alumnado tiene que rebatirlos. Es como un calentamiento mental antes de salir a correr ideas.
También puede servir para dar voz a quien no se atreve a escribir o hablar. O para crear historias colectivas, traducidas a múltiples idiomas. O para analizar noticias y detectar sesgos. Si el objetivo es educar con espíritu crítico, aquí tenemos un material muy jugoso.
Y eso que algunos dicen que “no hace falta enseñar IA porque las interfaces ya son fáciles” suena mucho a “no hace falta enseñar a cocinar porque existen los microondas”. Si entendemos cómo funcionan los algoritmos, podremos enseñar al alumnado a detectar cuándo hacen trampas. Y si practican cómo hacer buenas preguntas a una IA, quizás también aprendan a hacérselas a sí mismos. Eso es metacognición, y es oro pedagógico.
Sí, hay dilemas éticos. Y sí, hay que hablar de ellos. Pero, ¿desde cuándo nos da miedo hablar de temas complejos en el aula? Podemos analizar quién crea los modelos, cómo funcionan, qué impactos tienen, cuál es su huella ecológica. ¿Y si exploramos alternativas éticas, como las IAs de código abierto? Además de formar usuarios, formaríamos ciudadanos digitales críticos e informados.
La amenaza no es la IA, sino ignorarla. O peor: hacer como si no existiera mientras el alumnado la usa para hacer trabajos de literatura y su última carta de amor. El verdadero reto es saber cómo integrarla sin que nos quite el protagonismo. Cómo usarla para inspirar, no para sustituir.
Ahora bien, para llegar a ese punto hace falta una condición que a menudo olvidamos: un profesorado que entienda qué es y cómo funciona la IA. Que no se asuste al ver un modelo de lenguaje, sino que piense “¿cómo puedo convertir esto en una actividad?”. Que no se limite a apretar botones, sino que sepa cuáles merece la pena apretar… y cuáles es mejor dejar en paz.
Imagen generada por el autor con ChatGPT 4o
Esta obra tiene la licencia CC BY-NC-SA 4.0




Deixa un comentari