Intelligenza artificiale, Pedrazzi di UniBs: «Investire nell’educazione»

Giorgio Pedrazzi insegna Diritto privato comparato all’Università degli Studi di Brescia, dove è referente del corso di laurea magistrale in Scienze giuridiche dell’innovazione e della Sostenibilità.
Professor Pedrazzi, perché è importante proteggere i dati personali che forniamo all’AI?
Una delle ragioni è che, come spiega l’economista e data scientist Seth Stephens-Davidowitz nel suo libro «La macchina della verità», le persone tendono a essere molto più sincere con le macchine che con gli esseri umani e spesso forniamo informazioni personali senza rendercene pienamente conto. È proprio questa sincerità che permette alle piattaforme di creare un profilo dettagliato di chi siamo. Questi però possono essere anche usati per influenzare le nostre decisioni. Quando la profilazione avviene senza trasparenza e senza il nostro consenso, diventa una minaccia per la nostra privacy e per la nostra libertà.
I dati che forniamo all’intelligenza artificiale possono diventare pubblici o possono essere condivisi anche con terzi?
No, non possono essere diffusi pubblicamente, né essere condivisi con terzi senza il nostro consenso, ma molto dipende da come configuriamo i servizi di intelligenza artificiale che utilizziamo. Ci sono situazioni in cui i dati possono essere condivisi con terze parti, ad esempio, se diamo il consenso a questo trasferimento accettando con leggerezza i termini di servizio di un’applicazione. Il mio consiglio è sempre quello di limitare i dati forniti, condividendo soltanto le informazioni strettamente necessarie per utilizzare il servizio.
Adesso com’è regolamentato l’utilizzo dell’intelligenza artificiale? Siamo ancora in una fase in cui è concesso tutto o esistono già delle regole?
L’ambito dell’intelligenza artificiale non è un Far West senza regole. Al contrario, esistono già normative che ne regolano l’applicazione in molte parti del mondo. In Europa, ad esempio, l’AI Act, una normativa specifica sull’intelligenza artificiale, classifica i sistemi di AI in base al rischio e impone requisiti molto rigorosi per quelli considerati più pericolosi. Tra il 2026 e il 2027 saranno introdotti ulteriori requisiti tecnici severi per i sistemi. Nella Strategia Digitale Europea il Gdpr resta comunque la prima linea di difesa sui dati personali.
Sulla tutela della proprietà intellettuale come si comporta l’intelligenza artificiale?
Se si carica un prodotto su piattaforme di AI, questo non diventa automaticamente di dominio pubblico. La proprietà intellettuale resta in capo all’autore, ma la segretezza scompare. Se si vuole impedire che un’opera venga utilizzata per addestrare sistemi di intelligenza artificiale, si può aggiungere un avviso chiaro che vieta l’estrazione automatica di dati.
Riusciremo in futuro a gestire l’intelligenza artificiale o verremo in qualche modo sopraffatti?
Sul piano etico e morale, il governo dell’AI è la sfida del nostro decennio. Le leggi non bastano. Dobbiamo anche investire nell’educazione digitale, insegnando alle persone a usare l’intelligenza artificiale in modo consapevole.
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato

@News in 5 minuti
A sera il riassunto della giornata: i fatti principali, le novità per restare aggiornati.