Negli ultimi mesi l’Intelligenza Artificiale è entrata, spesso in modo spontaneo, nella vita della scuola: un docente che chiede supporto per impostare una verifica, una segreteria che prova a rendere più chiara una comunicazione, uno studente che usa un chatbot per “farsi spiegare meglio” un argomento. Il punto, però, è che l’IA non è solo una “scorciatoia” comoda: è un insieme di strumenti che possono trattare dati, produrre contenuti verosimili ma non sempre corretti, e influenzare decisioni e comportamenti; senza regole, quindi, può generare confusione, disuguaglianze e, nei casi peggiori, problemi di responsabilità.
Con l’AI Act (Regolamento UE 2024/1689) e con le Linee guida del Ministero (DM 166/2025), la scuola è chiamata a fare un passo in più rispetto al “si usa perché funziona”: deve governare scelte, rischi e procedure, come già fa per privacy e sicurezza informatica. In concreto significa decidere, in modo esplicito, quali strumenti si possono usare, a quali condizioni, con quali account e con quali limiti, evitando che ogni classe o ufficio proceda in autonomia, con prassi diverse e difficili da controllare.
Un passaggio decisivo, spesso sottovalutato, è distinguere tra uso didattico “assistivo” e uso che incide su decisioni o valutazioni: non è la stessa cosa usare un modello linguistico per una scaletta di lezione o per esercizi di ripasso, rispetto a impiegarlo, anche indirettamente, per stimare performance, monitorare comportamenti in prova o orientare scelte organizzative. Quando cambiano i casi d’uso, cambia il profilo di rischio e, di conseguenza, cambiano cautele e documentazione.
Il nostro lavoro tiene insieme due piani che in scuola devono dialogare: la conformità (AI Act, GDPR, responsabilità del titolare, contratti con i fornitori) e l’operatività quotidiana (insegnamento, valutazione, comunicazione con le famiglie, attività di segreteria). Per rendere questo equilibrio concreto, predisponiamo e organizziamo i documenti principali, quelli che diventano la “spina dorsale” dell’istituto:
- Regolamento AI: regole chiare su cosa è consentito.
- Valutazione App: una procedura replicabile e documentabile per ammettere o respingere strumenti IA.
- Linee guida e Vademecum: indicazioni operative per evitare errori tipici.
- DPIA: quando necessaria, una valutazione di impatto proporzionata.
- Allegati DPA: supporto per organizzare contrattualistica e responsabilità del fornitore.
- PUIA: il Piano d’Istituto per l’Utilizzo dell’IA.
Naturalmente, nessun documento funziona se resta in un cassetto: per questo offriamo formazione mirata per personale, segreterie e docenti, differenziata per ruoli, con esempi tipici di scuola e regole immediatamente applicabili (non teoria generica).
In sintesi, accompagniamo la scuola in un percorso semplice ma serio: regole chiare, strumenti ammissibili, decisioni documentate, persone formate e aggiornamenti gestiti. È il modo migliore per innovare senza improvvisare, proteggendo studenti, famiglie e personale, e dimostrando – se mai servisse – che l’istituto non “subisce” l’IA, ma la governa.







