Economia

Maternini: «Sull’intelligenza artificiale la sfida è creare un modello di sviluppo europeo»

Il bresciano è parte della Commissione sull’IA voluta dal governo Meloni in ambito informazione ed editoria
L'intelligenza artificiale si basa sui Large language model - © www.giornaledibrescia.it
L'intelligenza artificiale si basa sui Large language model - © www.giornaledibrescia.it
AA

Quasi senza accorgersene persone, aziende e Stati si sono trovati a navigare nell’immenso mare dell’intelligenza artificiale, tecnologia che porta con sé innumerevoli implicazioni destinate a cambiare radicalmente il mondo dentro il quale ci muoviamo. Ma per governare la trasformazione e non esserne travolti qualche punto fermo serve metterlo.

Il governo italiano, spinto dal dirompente arrivo dei modelli linguistici di grandi dimensioni (Large language models, la tecnologia che sta alla base di software come ChatGpt), ha deciso che questa boa nel mare dovesse essere posizionata nell'ambito informazione ed editoria. A fine 2023 è nata così la Commissione intelligenza artificiale per l’informazione, pensata per valutare le implicazioni, giuridiche ed etiche, dell’IA, nonché per formulare proposte in tal senso.

E l’organo, presieduto dal francescano e teologo Paolo Benanti, a fine gennaio e dopo tre mesi di lavoro (nei quali ha incontrato anche i vertici internazionali di Google, Meta e Microsoft) ha presentato all’esecutivo Meloni le proprie proposte. Ne parliamo con il bresciano Lorenzo Maternini, vice presidente di Talent Garden e membro della Commissione che ha redatto il documento.

Perché il governo ha deciso di partire dal mondo dell’informazione per affrontare il tema dell’IA?

«I Large language models sono arrivati in modo quasi “violento”, imponendo una riflessione a fronte della portata dei sistemi di intelligenza artificiale generativa. In vista poi delle imminenti elezioni, su tutte le europee di inizio giugno, il tema della disinformazione legata all’IA è diventato una delle grandi preoccupazioni della politica. Infine il mondo dell’editoria tocca temi trasversali, etici, giuridici e tecnologici, a partire dalla necessaria trasparenza dei contenuti».

Cosa intende quando parla di disinformazione?

«Deve essere chiaro che il tema delle fake news e dei deepfake è da considerarsi superato. Verificare o smentire qualcosa generato dalla IA non dico sia semplice, tutt’altro, ma risulta fattibile con gli strumenti a nostra disposizione.

Ciò di cui dobbiamo ora preoccuparci sono le “shallowfake”, notizie o fatti non creati ex novo ma manipolati, modificando rispetto all’originale un piccolo dettaglio come una parola, una voce o un singolo frame di un’immagine. Capire se questi sono veri o falsi è complicatissimo».

Lorenzo Maternini
Lorenzo Maternini

Cosa avete quindi suggerito al governo tramite la relazione?

«Innanzitutto bisogna dire che abbiamo preso le mosse dall’AI Act, il regolamento europeo sull’intelligenza artificiale prossimo all’approvazione. Pur trattandosi di un encomiabile sforzo normativo prima di due anni non avrà però applicazione diretta.

Per questo motivo abbiamo suggerito la creazione di una specifica Autorità o Agenzia nazionale per l’intelligenza artificiale, sulla falsariga di quanto già fatto un anno e mezzo fa in Spagna, in grado di intervenire con velocità ed efficacia. Penso per esempio alla “marchiatura” dei contenuti informativi tramite blockchain, un’idea contenuta nel testo presentato al governo Meloni».

Quando secondo lei vedranno la luce le norme in tal senso?

«Da quanto so il governo è già al lavoro e a breve potrebbero essere presentate le prime bozze di legge. Anche sulla possibile nascita dell’Authority sono positivo».

Lo sforzo normativo perciò risulta fondamentale per governare la trasformazione. Non c’è però il rischio che alla virtù imposta per legge corrisponda un effetto opposto?

«Certamente l’Europa, e con lei l’Italia, deve fare dell’aspetto giuridico uno dei suoi punti di forza. Non basta però creare delle leggi, serve valorizzare i nostri talenti, quelle menti che andranno a lavorare nelle aziende di Big Tech. Perché al momento è lì che la tecnologia si sta sviluppando, è con queste aziende che dobbiamo confrontarci.

Formare persone competenti ma al contempo moralmente ed eticamente consapevoli del loro ruolo è la chiave per il futuro dell’Europa nello scenario globale dell’IA. Solo così si può sviluppare un modello di sviluppo bilanciato e alternativo sia all’iper liberismo statunitense, che date certe regole lascia piena discrezione ai singoli con il risultato che chi non si pone problemi etici vince, sia allo statalismo cinese, che mette il privato in condizione subordinata e controllata rispetto al pubblico».

Nello scenario bresciano questo «modello europeo» come potrebbe declinarsi?

«La nostra forza è stata la capacità di trasformare la materia prima e, tramite l’ingegno, fare qualcosa che da altre parti non esisteva o non aveva le stesse caratteristiche di qualità. Lo stesso dovremmo fare adesso: dovremmo incentrare le pmi sul software, aziende in grado di lavorare con l’intelligenza artificiale, senza inseguire ciò che già è stato fatto ma creando partendo dall’esistente, innovando tramite la creatività.

E il sistema Brescia in questo senso potrebbe concertare gli sforzi per creare un centro d’eccellenza sui Large language models al servizio dell’industria. sarebbe un unicum in Italia, un vero polo di innovazione al servizio del territorio così come dell’intero Paese».

Riproduzione riservata © Giornale di Brescia

Iscriviti al canale WhatsApp del GdB e resta aggiornato

Icona Newsletter

@Tecnologia & Ambiente

Il futuro è già qui: tutto quello che c’è da sapere su Tecnologia e Ambiente.