
Intelligenza Artificiale a scuola
Il DM n. 166 del 9 agosto 2025 ha introdotto le Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche. Il Ministero dell’Istruzione e del Merito ha stabilito i principi di riferimento e i requisiti etici, tecnici e normativi che devono guidare l’elaborazione delle istruzioni operative e degli strumenti di supporto per l’introduzione strutturata, organizzata e governata dell’IA nelle scuole. Al netto di ciò, come devono comportarsi i docenti? Quali sono le opportunità, ma anche i rischi e doveri della classe insegnante in materia?
L’IA non sostituisce il docente: cosa ci dicono le Linee Guida
Gli strumenti di IA, con le necessarie attenzioni e un’adeguata supervisione, possono svolgere una funzione strategica anche nel sistema dell’istruzione e della formazione contribuendo a migliorare i processi organizzativi, gestionali, formativi e di apprendimento, a velocizzare compiti amministrativi ripetitivi, contribuendo a qualificare le esperienze formative in modo inclusivo e accessibile, anche in contesti complessi che richiedono un supporto specifico per incontrare i bisogni di ciascuno studente.
Quanto appena esposto è un estratto dalle Linee Guida, nella sezione “Il ruolo dell’IA nella scuola”. Già da questo primo passaggio è possibile depotenziare una delle paure più comuni: l’intelligenza artificiale non deve sostituire gli insegnanti, ma fungere da strumento di supporto. Infatti, si utilizza l’espressione “strumenti di IA”, in quanto essi devono essere attenzionati e supervisionati adeguatamente: da chi, se non dai docenti?
Inoltre, si sottolinea la funzione strategica dell’IA: essa può infatti migliorare in modo strutturale il funzionamento del sistema scuola, aiutando a gestire le comunicazioni, organizzare orari, analizzare dati sugli apprendimenti e supportare la programmazione didattica.
Non solo: si parla di “velocizzare compiti amministrativi”, quali la compilazione dei documenti, la gestione dei registri, l’analisi dei questionari e la gestione dei report.
L’IA dovrebbe quindi avere la funzione di snellire i procedimenti e consentire al docente di concentrarsi ancora di più sulla didattica e sugli studenti. In pratica, può rendere la scuola più efficiente, consentendo di focalizzarsi maggiormente sull’aspetto educativo per incontrare i bisogni individuali di tutti gli studenti (non a caso si parla di inclusione e di contesti complessi).
L’area di applicazione per i docenti
Oltre a quanto appena menzionato, le Linee Guida trattano in modo specifico le aree di applicazione per i destinatari dell’intelligenza artificiale, con un paragrafo interamente dedicato ai docenti. Viene rimarcato il ruolo centrale dell’insegnante, chiamato a guidare e a garantire l’adozione di pratiche sicure ed etiche in ambienti educativi arricchiti dall’IA. Inoltre, essa può offrire un supporto mirato alla didattica, creando percorsi formativi su misura e rendendo il processo educativo più coinvolgente e in linea con le esigenze individuali. Ma cosa vuol dire, in concreto? In che modo un docente può utilizzare strumenti di IA?
Come utilizzare l’IA generativa
I principali strumenti di IA generativa consentono effettivamente di produrre contenuti adattabili a diversi livelli di competenza e, quindi, di creare percorsi formativi su misura come previsto dalle Linee guida. Un docente può chiedere di riformulare un argomento in modo semplificato, creare esercizi graduati per difficoltà, predisporre attività di recupero o materiali di potenziamento. In questo senso, l’IA può diventare un supporto concreto alla differenziazione didattica.
Attenzione, però, perché resta sempre fermo il punto principale: l’intervento critico del docente. L’IA non conosce realmente la classe, non ha consapevolezza del contesto emotivo, relazionale o cognitivo degli studenti e può generare contenuti imprecisi o non pienamente adeguati. È quindi l’insegnante che deve:
- verificare l’accuratezza dei contenuti;
- adattare linguaggio e proposte al gruppo reale;
- garantire coerenza con gli obiettivi disciplinari;
- tutelare aspetti etici e di privacy.
Con questa modalità di utilizzo, l’IA può entrare con efficacia in una cornice pedagogica consapevole e supervisionata.
Che tipo di professionalità nuova richiede l’IA?
Sgombriamo il campo da un altro dei dubbi più comuni: il docente non è chiamato a diventare un informatico. Il docente diviene un mediatore consapevole tra tecnologia e processo educativo. Occorre la capacità di formulare richieste efficaci agli strumenti di IA, di valutare la qualità degli output generati, di riconoscerne limiti, bias e possibili imprecisioni. Accanto alle competenze digitali, diventano centrali quelle etiche e pedagogiche più volte menzionate. In questo senso, la professionalità docente si arricchisce di una dimensione di regia e supervisione critica delle tecnologie.
Come si modifica la progettazione didattica
Se prima il docente costruiva materiali e percorsi in modo prevalentemente lineare, oggi può lavorare in modo più flessibile e adattivo, integrando strumenti che consentono di differenziare rapidamente attività, verifiche e materiali. La progettazione diventa più dinamica, potenzialmente personalizzata e maggiormente orientata ai dati (ad esempio attraverso l’analisi dei risultati o dei feedback).
Tuttavia, la struttura pedagogica resta di competenza esclusiva del docente: obiettivi, metodologie, criteri di valutazione e coerenza curricolare non possono essere delegati all’algoritmo. L’IA diventa quindi uno strumento di supporto alla progettazione, ma la visione educativa rimane saldamente in capo all’insegnante.
Dunque, è sempre possibile utilizzare strumenti di IA all’interno delle lezioni?
Sì, è possibile utilizzare strumenti di IA nelle lezioni, ma non è una scelta totalmente libera del singolo docente. Oltre alle indicazioni e alle Linee guida ministeriali, occorre rispettare il regolamento interno e le principali regole di sicurezza, trasparenza ed etica. Sebbene infatti esista il quadro generale a livello nazionale, le modalità operative concrete vengono definite a livello di istituto.
Applicazioni pratiche dell’IA per i docenti
Sempre secondo le Linee guida, è possibile rinvenire alcuni esempi di possibili applicazioni pratiche dell’IA per i docenti:
- Personalizzazione dei materiali didattici: Gli ambienti integrati con dispositivi di IA, sono in grado di modulare la proposta formativa in base alle capacità di apprendimento degli studenti e ai livelli di abilità, fornendo istruzioni per procedere in modo autonomo, ancorché guidato, nel processo di apprendimento; sono in grado di variare la difficoltà degli esercizi, fornire suggerimenti su come risolverli, segnalare temi di approfondimento, proporre formule per rendere l’apprendimento graduale, immersivo, interattivo. I docenti possono sfruttare tali funzioni per selezionare, a partire da uno stesso contenuto, materiali differenziati e adatti alle specifiche esigenze degli studenti, al loro livello di preparazione e al ritmo di apprendimento. Nel caso di studenti con disabilità o con disturbi specifici dell’apprendimento, i dispositivi di tutoraggio e personalizzazione del percorso di apprendimento dovranno opportunamente integrare quanto previsto nel Piano Educativo Individualizzato (PEI) o nel Piano Didattico Personalizzato (PDP), adottando tutte le misure adeguate a tutela degli interessati;
- Strumenti interattivi e innovativi: l’IA permette l’elaborazione di risorse didattiche (come simulazioni, giochi, mappe concettuali, riassunti per l’apprendimento e quiz interattivi) che aumentano la motivazione e il coinvolgimento degli studenti;
- Organizzazione di visite didattiche e attività extracurriculari: i docenti, di concerto con il Collegio docenti, possono avvalersi dell’IA per arricchire e ottimizzare le attività extracurricolari, facendo in modo che siano in linea con la progettazione didattica e gli interessi dei partecipanti. L’IA può suggerire iniziative personalizzate, analizzare precedenti feedback e fornire supporto nell’organizzazione;
- Redazione di rubriche di valutazione: l’IA può supportare il docente nella stesura delle rubriche valutative, affiancandolo nel processo di definizione dei descrittori per ciascuna dimensione valutativa;
- Supporto nel tutoraggio: strumenti di IA possono supportare docenti e studenti durante attività cooperative, arricchendo l’interazione attraverso domande, proposte di argomentazioni e interlocuzioni alternative, utili a stimolare il pensiero critico, e garantendo che tutti i membri del gruppo interagiscano equamente.
Dunque, alla luce di quanto appena esposto (coordinato con il regolamento interno di ogni singola istituzione scolastica), l’utilizzo dell’intelligenza artificiale si mostra come molto ampio e flessibile.
I rischi dell’Intelligenza Artificiale nella scuola
Finora sono state illustrate le principali opportunità a disposizione dei docenti, che sicuramente sono molteplici e preziose, ma è altrettanto vero che gli insegnanti devono fare i conti con i rischi derivanti dall’introduzione dell’IA. Non a caso le Linee guida richiamano frequentemente e con chiarezza la necessità di un utilizzo consapevole e responsabile. Parlare di IA a scuola significa inevitabilmente confrontarsi con alcuni rischi concreti che non possono essere sottovalutati.
Il rischio della “delega cognitiva” e della dipendenza tecnologica
Uno dei pericoli più evidenti riguarda la cosiddetta “delega cognitiva”: se utilizzata in modo improprio, l’IA può indurre in primis gli studenti, ma anche i docenti, ad affidare all’algoritmo compiti che dovrebbero invece stimolare il ragionamento, l’analisi critica e la produzione autonoma. Nel caso degli studenti, il rischio è quello di sostituire il processo di apprendimento con la semplice generazione di risposte. Nel caso dei docenti, vi è il pericolo di appiattire la progettazione didattica su schemi preconfezionati, riducendo la riflessione pedagogica. L’IA, al contrario, deve essere solo uno strumento di potenziamento e mai di sostituzione del pensiero. Se utilizzata come scorciatoia sistematica, può impoverire il processo formativo anziché arricchirlo. E questo è il principale rischio da scongiurare a livello educativo.
Il problema dell’affidabilità
I sistemi generativi, seppur sempre più affinati, possono produrre contenuti imprecisi, parziali o addirittura errati. Possono inoltre incorporare bias culturali, linguistici o ideologici derivanti dai dati su cui sono stati addestrati. In ambito scolastico questo aspetto è particolarmente delicato, poiché l’insegnamento implica una responsabilità culturale e formativa. Affidarsi in modo acritico ai contenuti generati espone al rischio di diffondere informazioni scorrette o rappresentazioni distorte. Per questo motivo la verifica umana, in questo caso del docente, non è un’opzione, ma una condizione imprescindibile.
Privacy e protezione dei dati personali
Un altro nodo centrale riguarda la tutela dei dati personali. L’utilizzo di piattaforme di IA che richiedono l’inserimento di informazioni relative agli studenti deve essere attentamente valutato alla luce della normativa vigente in materia di protezione dei dati. Inserire dati sensibili, informazioni sanitarie o riferimenti riconducibili a singoli alunni può comportare violazioni gravi. I regolamenti interni adottati a livello di singola scuola devono indubbiamente contenere previsioni che tutelino gli studenti in tal senso. Il docente, quindi, deve sempre prestare la massima attenzione a non condividere informazioni sensibili e attenersi alle policy adottate dall’istituzione scolastica. La sicurezza digitale è infatti parte integrante della responsabilità professionale.
Disuguaglianze e divario digitale
Non tutti gli studenti dispongono delle stesse competenze digitali o degli stessi strumenti tecnologici. Un uso massiccio e non regolato dell’IA potrebbe accentuare il divario tra chi ha maggiore familiarità con le tecnologie e chi è meno esperto o meno dotato. La scuola, per sua natura, deve ridurre le disuguaglianze, non ampliarle. Pertanto, l’introduzione dell’IA dovrebbe essere accompagnata da opportuni percorsi di educazione digitale e da un’attenzione particolare all’inclusione.
La responsabilità e i doveri della classe docente
Come appare evidente, da un lato le opportunità e dall’altro i rischi incrementano giocoforza anche le responsabilità e i doveri in capo all’insegnante. Il docente, oltre ad essere un utilizzatore degli strumenti di IA, deve porsi come garante della correttezza, dell’equità e della sicurezza del suo impiego. Ha il compito di verificare l’attendibilità dei contenuti generati, evitare la diffusione di informazioni errate, tutelare i dati personali degli studenti e prevenire un uso distorto o eccessivamente passivo della tecnologia. Inoltre, è chiamato a educare gli studenti a un uso critico dell’IA, sviluppando competenze di cittadinanza digitale e consapevolezza dei rischi connessi. L’adozione dell’IA, dunque, non alleggerisce il ruolo docente in tutto e per tutto: consente di snellire alcune pratiche burocratiche e routinarie, ma contemporaneamente lo rende più complesso e strategico, rafforzando la sua funzione di guida culturale ed educativa. Dunque, se volessimo sintetizzare, potremmo suddividere i doveri in capo ai docenti nelle seguenti mini-categorie:
Dovere di vigilanza e supervisione. Ogni contenuto generato deve essere controllato, adattato e contestualizzato. Il docente resta il garante della qualità scientifica e pedagogica del materiale utilizzato in classe e questa responsabilità, che sostanzialmente è quella dell’atto educativo, non è delegabile a nessuno, tantomeno ad un algoritmo.
Dovere di trasparenza. È opportuno che l’utilizzo dell’IA sia trasparente nei confronti degli studenti. Questo significa esplicitare quando uno strumento è stato utilizzato come supporto, spiegandone finalità e limiti. La trasparenza favorisce un clima educativo corretto e contribuisce allo sviluppo di una cittadinanza digitale consapevole.
Dovere di formazione continua. L’introduzione dell’IA rende ancora più centrale il principio della formazione, prevista dalla legge n. 107/2015 e ribadita dall’art. 36 del CNNL 2019-21 come un diritto-dovere. Il docente è chiamato ad aggiornarsi non solo sulle funzionalità tecniche degli strumenti, ma anche sulle implicazioni di varia natura richiamate a più riprese. Va infatti precisato che la competenza digitale oggi non può più essere considerata accessoria, ma strutturale alla professionalità docente.
Dovere di educazione critica. Non basta utilizzare l’IA: occorre insegnare a comprenderla. Il docente ha il compito di guidare gli studenti verso un uso critico e responsabile, aiutandoli a distinguere tra produzione automatica e apprendimento autentico, tra informazione verificata e contenuto generato. Educare all’IA significa educare al pensiero critico, alla verifica delle fonti e alla consapevolezza dei limiti della tecnologia.
Dovere didattico. Infine, ogni utilizzo deve essere coerente con il PTOF, con il curricolo e con i criteri di valutazione deliberati dagli organi collegiali. L’IA non può essere un elemento estemporaneo o improvvisato, ma deve inserirsi in una progettazione condivisa e regolamentata.
Conclusioni
L’Intelligenza Artificiale nella scuola non rappresenta soltanto un cambiamento strumentale, ma una trasformazione culturale. Offre opportunità significative in termini di personalizzazione, efficienza e innovazione metodologica, ma richiede maturità professionale, senso critico e responsabilità etica. Il docente resta dunque il fulcro del processo educativo, ma l’IA può affiancarlo, supportarlo e potenziarlo. Ed è proprio in questa consapevolezza che si gioca la vera sfida: integrare la tecnologia senza rinunciare alla centralità della relazione educativa e alla funzione formativa della scuola.