categoria: Res Publica
Nuove generazioni davanti all’AI: tra fiducia e diffidenza


Post di Emanuele Cacciatore, Innovation, Consulting and Partnerships Sr Director, Gruppo Engineering, e Antonio Crupi, Professore Associato di Digital Transformation Management, Dipartimento di Economia, Università degli Studi di Messina –
Dalle scuole alle università, fino agli smartphone dei più giovani: l’intelligenza artificiale è già parte della loro quotidianità. Ma mentre la Gen Alpha la vive con fiducia spontanea e curiosità, la Gen Z la utilizza in modo critico, tra utilità e diffidenza. La vera sfida non è la ‘potenza’ degli algoritmi, ma la capacità di costruire fiducia e inclusione.
L’AI bussa alla porta delle scuole
Immaginiamo un’aula in cui lo studente più fragile trova sostegno non solo dal docente, ma anche da un assistente digitale capace di adattare spiegazioni, contenuti e materiali alle sue capacità. Non è un caso d’uso teorico, ma il risultato delle prime sperimentazioni italiane sull’uso dell’intelligenza artificiale a scuola: strumenti come Faber o MusicBlocks stanno mostrando come l’AI possa diventare un alleato educativo inclusivo e flessibile.
Secondo una ricerca Indire, il 57,4% degli insegnanti ha già utilizzato sistemi basati su AI, soprattutto per personalizzare la didattica o gestire attività amministrative. Ma chi non l’ha ancora fatto chiede soprattutto una cosa: formazione. Il 68% dei docenti ritiene necessario accompagnare studenti e insegnanti a comprendere non solo il funzionamento tecnico, ma anche i limiti e le implicazioni etiche dell’AI generativa.
Una visione condivisa anche dal ministro Giuseppe Valditara, che ha definito l’intelligenza artificiale “una straordinaria sfida per il sistema educativo”, a patto che resti saldo un principio: l’insegnante al centro.
Università: entusiasmo con riserva
Se la scuola si muove a piccoli passi, l’università è già dentro la rivoluzione. Secondo il rapporto Look Forward di Intesa Sanpaolo e Luiss, l’86% degli studenti utilizza regolarmente strumenti di AI; quasi uno su quattro dichiara di farlo quotidianamente. ChatGPT, Copilot o Gemini sono diventati compagni di studio per cercare informazioni, sintetizzare documenti, migliorare la scrittura.
Eppure, meno della metà degli intervistati (48%) si sente davvero pronta ad affrontare un futuro del lavoro trasformato dall’intelligenza artificiale. È il paradosso della nostra epoca: abitudine nell’uso quotidiano, ma incertezza sulle implicazioni di lungo periodo. Un campanello d’allarme che rimanda alla necessità di una formazione non solo tecnica, ma anche culturale, capace di guidare gli studenti ad un uso critico e consapevole.
Formazione e responsabilità: l’AI come compagna di viaggio
La vera sfida non è introdurre nuovi strumenti, ma costruire percorsi educativi che integrino efficacemente l’AI rendendola un’utile compagna di viaggio e non un sostituto.
Da questo punto di vista sono molto interessanti i risultati di un progetto pilota condotto dalla Banca Mondiale tra Giugno e Luglio 2024 su un gruppo di studenti di una scuola superiore di Benin City, in Nigeria. Dopo sei settimane di tutoraggio post-scolastico guidato da insegnanti con l’ausilio di GPT-4, gli studenti hanno migliorato i risultati nelle tre tre aree chiave del programma: lingua inglese, conoscenze base di AI e competenze digitali, in una misura equivalente a quasi due anni di apprendimento.
Gli studenti che sono stati assegnati in modo casuale alla partecipazione al programma hanno ottenuto risultati significativamente migliori rispetto ai loro coetanei che non hanno partecipato, in tutte le aree, compreso l’inglese, che era l’obiettivo principale del programma. Questi risultati forniscono una prova evidente che l’AI generativa, se adottata in modo ponderato con il supporto degli insegnanti, può funzionare efficacemente come tutor virtuale.
Se da un lato le prime sperimentazioni sembrano incoraggianti dall’altro occorre garantire che le soluzioni adottate siano affidabili: sistemi progettati secondo principi di responsible AI, trasparenti, auditabili, sicuri e rispettosi dei dati personali. La fiducia non nasce dalla potenza dei modelli, ma dalla loro capacità di dimostrarsi equi, inclusivi e comprensibili.
Infine, l’introduzione nelle scuole deve seguire un percorso graduale e partecipato: mappare i bisogni, pianificare gli obiettivi, adottare le soluzioni in modo monitorato, correggere e migliorare lungo il cammino, per rendere l’AI un partner affidabile, al servizio di studenti e docenti.
Gen Alpha e Gen Z: due facce della stessa trasformazione
Al di fuori dei contesti formali, come vivono i ragazzi l’AI? Una recente ricerca condotta da Notomia e Università di Messina dal titolo “AI meets Gen Alpha and Gen Z” ha messo a confronto due generazioni: Gen Alpha (12-14 anni) e Gen Z (15-29 anni).
La fotografia è nitida. Per i più giovani, l’AI è parte naturale del mondo digitale: uno strumento di curiosità e gioco, utile in ogni caso. La fiducia è alta (33%), e lo sguardo ottimista.

L’86% degli studenti universitari utilizza regolarmente strumenti di AI; quasi uno su quattro dichiara di farlo quotidianamente. ChatGPT, Copilot o Gemini sono diventati compagni di studio (immagine da Freepik)
I ventenni, invece, la usano per studiare, organizzare il lavoro, migliorare la produttività. Ma proprio perché la conoscono meglio, ne percepiscono i limiti con maggiore lucidità. Solo il 7% dichiara di fidarsi pienamente. Le critiche riguardano la scarsa affidabilità delle risposte, la poca trasparenza delle fonti, la sensazione di un’AI a volte invadente.
Il punto nevralgico è la personalizzazione: tutti la cercano, pochi la trovano. Molti studenti lamentano algoritmi frustranti che non colgono i loro interessi o non comprendono i comandi vocali.
Tra entusiasmo e paure
Accanto alle opportunità emergono le ansie. Il 50% della Gen Alpha e il 67% della Gen Z temono che l’automazione porti via posti di lavoro. Tra i più grandi prevale anche il timore di una società in cui algoritmi, bot e sistemi conversazionali riducano la qualità delle relazioni umane: “Ho paura che parleremo più con i chatbot che con le persone”, confida una studentessa.
Queste percezioni si intrecciano con il nodo economico. Se la formazione non colma il divario, il rischio è di generare un nuovo digital divide: non solo tra chi avrà accesso all’AI e chi non ce lo avrà ma anche tra chi la saprà usare in modo critico e consapevole l’AI e chi ne resterà dipendente senza comprenderla. Una frattura che potrebbe incidere sulle opportunità occupazionali e amplificare disuguaglianze già presenti nel mercato del lavoro.
I dati confermano questo rischio. In Italia, solo il 46% della popolazione tra i 16 e i 74 anni ha competenze digitali di base, rispetto a una media europea del 56% (DESI 2023). Questo gap si traduce in minori opportunità di accesso a lavori ad alto valore aggiunto.
Allo stesso tempo, l’OCSE stima che il 27% dei posti di lavoro nei paesi industrializzati sia ad alto rischio di automazione, colpendo soprattutto le mansioni routinarie e meno qualificate, mentre le posizioni che richiedono competenze avanzate in AI crescono rapidamente, con potenziali e significativi gap salariali.
È qui che compare un fenomeno sorprendente: il cosiddetto “inverse technological ageism”. Non sono gli anziani a sentirsi esclusi dalla tecnologia, ma i giovani stessi, che percepiscono l’AI come troppo pervasiva, quasi alienante.
Un futuro più umano
Scuole, università e vita quotidiana raccontano un’unica lezione: l’AI sarà accettata solo se saprà essere più umana. Per la Gen Alpha significa esperienze intuitive e immediate; per la Gen Z strumenti affidabili e trasparenti. Per entrambe, significa personalizzazione e sicurezza.
La posta in gioco è la fiducia. Non bastano modelli più veloci e performanti: serve un’AI capace di ascoltare, capire e includere. Un’intelligenza artificiale che non sostituisca, ma accompagni.
Restano tuttavia alcune domande fondamentali: Quali sono i benefici per gli studenti al di là dei risultati immediati nell’apprendimento? Come si evolvono le loro interazioni con i modelli linguistici di grandi dimensioni (LLM) e quale ruolo svolgono gli insegnanti nel supportare queste interazioni? I benefici si estendono ad altri ambiti? Ci sono effetti negativi indesiderati?
Rispondere a queste domande è essenziale per portare a scala le sperimentazioni già avviate e garantire un accesso più equo a tutti i potenziali beneficiari.