Quando si parla di intelligenza artificiale nella scuola, sappiamo che ormai molte piattaforme integrano funzioni automatiche, suggerimenti, analisi o assistenti digitali, e dobbiamo comprendere se e quando queste funzioni comportino un trattamento di dati personali degli studenti che la scuola deve spiegare in modo chiaro alle famiglie.
Per questo motivo, la strada più corretta è costruire informative più precise, capaci di distinguere tra attività istituzionali della scuola, servizi aggiuntivi e app di terze parti, evitando formule troppo ampie che rischiano di essere poco utili anche sul piano giuridico.
Il Garante Privacy ha chiarito che il vademecum La scuola a prova di privacy è stato aggiornato “anche alla luce dei nuovi strumenti di intelligenza artificiale”, proprio per aiutare scuole, famiglie e docenti a leggere correttamente questi nuovi scenari. Nello stesso tempo, nella pagina sui principi fondamentali del trattamento, il Garante ricorda che, se un trattamento comporta processi decisionali automatizzati, “l’informativa deve specificarlo” e deve spiegare anche “la logica di tali processi decisionali” e le conseguenze previste per l’interessato.
Tradotto in termini pratici, questo significa che la scuola deve aggiornare le proprie informative quando uno strumento autorizzato tratta realmente dati personali degli studenti, per esempio attraverso account nominativi, accessi, log, cronologia tecnica, metadati o altre informazioni riconducibili all’utente. In questi casi serve trasparenza: bisogna dire quali dati transitano, per quali finalità, con quali fornitori, per quanto tempo e con quali limiti, fermo restando che la regola interna più prudente resta quella di non inserire nei sistemi generativi dati personali degli studenti se non nei casi strettamente necessari e già disciplinati.
Questo porta anche a una distinzione importante tra informativa e consenso. Per i trattamenti connessi alle funzioni istituzionali della scuola non è corretto usare il consenso come copertura generale, mentre può essere necessario raccoglierlo quando si attivano servizi aggiuntivi o servizi di terze parti. Su questo punto Google è molto esplicita: nella guida per gli utenti under 18 di Google Workspace for Education si legge che l’organizzazione deve “ottenere il consenso dei genitori” prima di attivare i “servizi Google aggiuntivi” per gli utenti minori di 18 anni. Inoltre, nella pagina dedicata alla comunicazione con genitori e tutori, Google precisa che, se la scuola consente agli studenti under 18 di accedere a “servizi di terze parti” con l’account scolastico, è responsabilità dell’istituto ottenere il consenso dei genitori quando richiesto.
La conclusione, quindi, è abbastanza chiara: non serve moltiplicare moduli generici sull’intelligenza artificiale, ma serve scrivere informative migliori, più aderenti agli strumenti realmente usati dalla scuola, inserendo una dicitura sull’IA solo dove esiste un trattamento effettivo da descrivere e mantenendo il consenso solo per i casi aggiuntivi, opzionali o di terze parti. In questo modo la scuola è più trasparente, più coerente con il GDPR e anche più credibile verso le famiglie, perché non promette controlli astratti sull’IA, ma spiega con precisione ciò che fa davvero.
Le scuole che vogliono impostare correttamente informative, regolamenti, consensi e documentazione collegata all’uso dell’intelligenza artificiale possono contattarci per ricevere supporto operativo, giuridico e organizzativo. Easyteam.org affianca gli istituti nella predisposizione dei documenti, nella revisione delle piattaforme utilizzate e nella costruzione di procedure coerenti con GDPR, AI Act e indicazioni del Garante.

I nostri clienti possono accedere ai modelli delle più aggiornate informative, riutilizzabili e adattabili al proprio Istituto e contesto scolastico. Contattaci per informazioni.







