Un professore in carne e ossa e il suo gemello digitale, sempre pronto a rispondere agli studenti. È questa la novità presentata dall’Università dell’Insubria insieme all’Università di Bologna: il primo Digital Twin italiano capace di riprodurre fedelmente un docente.
Il protagonista è Davide Tosi, titolare dell’insegnamento di Big Data e Delegato della Rettrice per l’Intelligenza artificiale. Il suo avatar 3D è stato sviluppato grazie alla collaborazione con il professor Gustavo Marfia e con un gruppo di ricercatori e tesisti del VARLab, il laboratorio di Realtà Virtuale e Aumentata dell’ateneo bolognese.
Il risultato è una copia pressoché identica del docente. Stesso aspetto, stessi movimenti e una voce sintetizzata che riproduce quella reale. Non si tratta però solo di una simulazione estetica. L’avatar sfrutta un sistema di intelligenza artificiale generativa addestrato sui contenuti del corso di Big Data ed è quindi in grado di interagire con gli studenti, rispondere ai loro dubbi e approfondire gli argomenti affrontati a lezione, in qualsiasi momento.
Non è fantascienza, ma una sperimentazione che sta prendendo piede anche in altre università, come ad esempio, il progetto AI-Learn@Sapienza, presentato dall’Università di Roma La Sapienza al Policlinico Umberto I. Il programma è strutturato come un vero e proprio trial clinico randomizzato in cui 50 studenti di Medicina saranno divisi in due gruppi, uno con lezioni tradizionali e l’altro affiancato da un professore-avatar basato sull’IA. Al termine, tutti affronteranno lo stesso caso clinico simulato da un paziente-avatar, per valutare l’efficacia del nuovo approccio.

Per capire qualcosa in più su questa nuova forma di didattica, TrendSanità ha intervistato il Professor Tosi.
Perché realizzare un professore avatar?
«L’idea nasce dalla volontà di continuare a sperimentare tecnologie innovative e dirompenti, come l’intelligenza artificiale generativa, cercando di creare soluzioni concrete. Al tempo stesso, volevamo capire come queste applicazioni potessero integrarsi nella didattica universitaria. Nel 2024 avevamo sviluppato il primo politico basato su intelligenza artificiale, candidato alle europee di giugno. Quest’anno abbiamo deciso di provare con un professore avatar, che avesse anche tutta la shape, capace di riprodurre in 3D non solo la mia voce e il mio aspetto, ma anche i miei pensieri».
C’è il rischio che commetta un errore didattico o fornisca informazioni sbagliate agli studenti? In questo caso chi è responsabile?
«L’avatar è stato creato e addestrato su un insieme circoscritto di contenuti: libri di testo, slide del mio corso di Big Data, appunti, articoli scientifici dedicati al tema. Si tratta di un contesto molto limitato, utilizzato per il fine tuning del modello di AI generativa, così da ridurre il rischio di errori o “allucinazioni” tipiche dei large language model. Gli errori, naturalmente, non possono essere esclusi, ma il sistema è stato testato in modo approfondito per garantire affidabilità. È bene ricordare che parliamo di strumenti di supporto, che non devono sostituire libri, slide o lezioni in aula. Anzi, rappresentano un’opportunità per allenare lo spirito critico».
Se una risposta dell’avatar non coincide con quanto spiegato in classe, lo studente può notarlo, accorgersi delle discrepanze, interrogarsi su dove sta l’errore e approfondire
In che modo sono tutelati i dati sensibili (domande, stili di apprendimento, ecc.) degli studenti durante le lezioni con un professore virtuale?
«Basta anonimizzare i dati degli studenti che hanno posto le domande al professore virtuale. Al corpo docente non interessa raccogliere informazioni su come gli studenti utilizzano questo strumento, quali domande pongono al sistema ecc., ma solo offrire un supporto in più allo studio e alla didattica».
L’uso dell’AI rischia di ridurre il ruolo e il valore dei docenti in carne e ossa e aumentare la precarietà o può solo diventare un supporto alla didattica?
«L’avatar, o meglio lo human digital twin, va considerato come uno strumento di supporto, non di sostituzione. Sarebbe come sostenere che l’esistenza di libri di testo, slide o contenuti multimediali renda superflue le lezioni in aula, niente di più sbagliato. La lezione frontale rimane fondamentale per trasmettere non solo conoscenze, ma anche esperienza. Un docente che insegna Big Data da anni porta con sé un bagaglio maturato in contesti di ricerca, industriali e aziendali, che trasmette agli studenti e arricchisce la didattica».
È compito dei docenti non chiudersi all’uso della tecnologia, ma guidare gli studenti a sfruttare al meglio questi strumenti
Quanto è reale il rischio che si perda l’insegnamento di un pensiero critico affidando le lezioni a un algoritmo?
«Il pensiero critico non si perde, a patto che le tecnologie messe a disposizione siano usate in modo opportuno e adeguato. È compito dei docenti non chiudersi all’uso della tecnologia, ma guidare gli studenti a sfruttare al meglio questi strumenti. L’esempio è semplice. Nessuno direbbe che avere le slide o Internet a disposizione impedisca di sviluppare capacità critica. Dipende da come sono utilizzati. Lo stesso vale per l’intelligenza artificiale».
Quali garanzie etiche e legali servono affinché l’introduzione di avatar e intelligenza artificiale non crei nuove disuguaglianze o dipendenza tecnologica?
«Il rischio delle disuguaglianze è reale e va affrontato. Molti studi evidenziano che il digital divide crescerà per chi non saprà utilizzare strumenti di intelligenza artificiale generativa.
Inoltre, è importante ricordare che l’AI non si riduce a ChatGPT o ai grandi modelli linguistici, quella è solo una parte. Non imparare a servirsi di queste tecnologie come strumenti di supporto, non come sostituti del proprio lavoro o dello studio, significherebbe ampliare il divario tra chi ha accesso e competenze e chi invece ne resta escluso. Connessione, licenze, infrastrutture, chi ne è privo sarà inevitabilmente svantaggiato».