Al liceo Leonardo la «scuola guida» per non uscire di strada con l’AI
L’intelligenza artificiale non nasce con le app o con i chatbot di ultima generazione come ChatGpt. Le sue radici affondano in almeno settant’anni di storia, a partire dalle riflessioni di Alan Turing sulla possibilità che una macchina potesse pensare fino ai contributi di John McCarthy e Marvin Minsky, che diedero forma a una nuova disciplina scientifica. Da allora i progressi sono stati enormi, ma la domanda di fondo resta aperta: le macchine possono imparare, ma possono essere intelligenti come l’uomo?
Da questo interrogativo è partito ieri mattina il matematico Alfio Quarteroni, professore emerito al Politecnico di Milano e a quello di Losanna, all’inizio dell’incontro con gli studenti del triennio del liceo Leonardo promosso da Zanichelli nell’ambito del progetto «La Scienza a scuola». Una lezione, dedicata all’intelligenza artificiale, capace di mettere a confronto le straordinarie prestazioni delle macchine con limiti che restano, almeno per ora, invalicabili.
Consapevolezza
«Oggi nessuna macchina può essere definita intelligente come un essere umano», ha subito chiarito Quarteroni, invitando a non confondere la capacità di eseguire compiti complessi con la comprensione. Le AI sanno calcolare, riconoscere immagini o sintetizzare testi in pochi istanti, tuttavia non sono in grado di distinguere il giusto dallo sbagliato, né possiedono coscienza o consapevolezza delle proprie risposte. «Quando vi affidate a questi strumenti dovete ricordare che non hanno alcun senso morale – ha avvertito –: sono sistemi programmati molto bene, ma restano privi di consapevolezza». Da qui l’invito a diffidare tanto degli entusiasmi ingenui quanto delle paure apocalittiche.
«L’AI non è una mente artificiale ma un insieme di algoritmi matematici progettati per risolvere problemi specifici» ha spiegato il professore, distinguendo tra l’intelligenza artificiale ristretta, già largamente utilizzata, e quella generale, capace di comportarsi come un essere umano, «che a oggi resta ancora un obiettivo lontano». Il cuore di questi sistemi è l’apprendimento, che avviene attraverso il machine learning. Le macchine imparano dall’esperienza, non seguendo regole prefissate. È il caso della guida autonoma, che prende decisioni confrontando in tempo reale ciò che vede con milioni di situazioni già incontrate. «Il meccanismo è simile a quello di un guidatore esperto – ha osservato Quarteroni – ma, come un bambino piccolo, la macchina non comprende davvero ciò che fa».
Pregi e limiti
Dati, algoritmi e supercomputer hanno comunque permesso risultati fino a pochi anni fa impensabili: dai modelli usati durante la pandemia per simulare scenari complessi, fino all’algoritmo di DeepMind che nel 2024 ha ottenuto (partecipando fuori gara) l’argento alle Olimpiadi internazionali della matematica, diventato oro nel 2025. Un livello elevatissimo, che non va però confuso con un’affidabilità assoluta: le risposte non sono sempre riproducibili e spesso non sono spiegabili. Un limite critico, soprattutto in ambiti come la medicina o la giustizia.
Quarteroni ha poi toccato il tema ambientale. Il cervello umano consuma circa 20 watt, mentre i sistemi di intelligenza artificiale richiedono enormi quantità di energia. Anche per questo la formazione è decisiva: conoscere l’AI significa imparare a usarla senza subirla. «Serve una sorta di scuola guida dell’intelligenza artificiale – ha concluso l’esperto –. E chi sceglierà di studiarla dovrà comprenderne a fondo i meccanismi per costruire sistemi davvero affidabili, spiegabili e sostenibili».
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato
@News in 5 minuti
A sera il riassunto della giornata: i fatti principali, le novità per restare aggiornati.





