Se l’intelligenza artificiale ammette di non essere infallibile

La pervasività dell’Ia, dai robot sul lavoro alle app del nostro smartphone, va modellando le nostre vite
Intelligenza artificiale - © www.giornaledibrescia.it
Intelligenza artificiale - © www.giornaledibrescia.it
AA

In un clima di sostanziale svogliatezza il Parlamento ha approvato la legge sull’intelligenza artificiale. L’occasione avrebbe meritato maggior attenzione, perché il nostro è il primo Paese ad avere un quadro normativo allineato con la direttiva dell’Act europeo. La scarsa attenzione dell’opinione pubblica può avere, forse, una giustificazione nel fatto che le norme sono già state ampiamente dibattute quando l’Unione europea deliberò i suoi indirizzi. Il resto è tecnica amministrativa.

Quindi nulla di nuovo, se non la coda polemica di chi lamenta un eccesso di normativa, di vincoli e divieti, per un settore che, secondo loro, più libero resta e meglio è. Tanto – sostengono – i vincoli europei sono poca cosa di fronte ad un fenomeno ormai globale e travolgente. Ma l’Europa potrebbe davvero contare in un mondo dominato da americani e cinesi e da company che hanno bilanci pari al Pil di interi Paesi?

Sì, se maturasse davvero un progetto che ogni tanto fa capolino ma poi viene accantonato. L’ultimo a rilanciarlo è il premio Nobel per a fisica Giorgio Parisi, che parla di una «Casa comune europea» per comprendere e governare l’intelligenza artificiale. Un modello che assomiglierebbe al Cern di Ginevra, da settant’anni luogo strategico della ricerca scientifica.

Il Cern di Ginevra - Foto Scaglia Camillo
Il Cern di Ginevra - Foto Scaglia Camillo

Non è un caso che Internet sia diventato un fenomeno rivoluzionario disponibile a tutti proprio grazie al lavoro svolto al Cern da Tim Berners-Lee. Sostiene Parisi che «dovremmo puntare sulla ricerca pubblica e farlo a livello europeo per costruire una squadra nutrita e competente». Ricerca e sviluppo, accanto alle regole, perché l’umanesimo europeo possa essere protagonista della rivoluzione in atto. La normativa italiana ha un fulcro ben definito: l’Ia deve avere un uso «antropocentrico, trasparente e sicuro». La persona al centro. Intanto le persone, come ciascuno di noi, come se la cavano con la crescente presenza dell’Ia nelle loro giornate? Supponente e spocchiosa, oppure accondiscendente e comprensiva?

Questa estate si è aperta una singolare disputa sul carattere dell’Ia e la sua indole. L’occasione è stata offerta dalla nuova versione di ChatGpt, l’app di OpenAi, che non è l’unica applicazione dell’Ia generativa, ma ne è diventata l’emblema, rientrando pienamente nella figura retorica classica della sineddoche, la parte per il tutto. L’aggiornamento introduce una modalità nuova di rapporto della piattaforma con gli utenti: di fronte ad una domanda incerta, equivoca, o che non comprende, l’applicazione ammetterà francamente la sua incapacità a rispondere. Potrà apparire solo un atto di onestà intellettuale, ma è molto di più.

Pone una questione di fondo: cosa accade se un sistema che viene prospettato come sovrumano (più veloce, potente e efficace di una mente umana) dichiara i propri limiti? Alcuni dubbi sono immediati: chi stabilisce quei limiti? Quando l’app getta la spugna? E come si regola con la concorrenza di altre app che potrebbero approfittarne? Vedremo. Intanto potrebbe essere la fine di un mito, quello dell’Ia come divinità misteriosa e temibile, la presa di coscienza d’una presenza quotidiana pervasiva, «come fosse l’aria», per dirla con il prorettore del Politecnico di Milano Giuliano Noci.

Intelligenza artificiale - © www.giornaledibrescia.it
Intelligenza artificiale - © www.giornaledibrescia.it

Si può andare «Oltre la tecnofobia», come invitano a fare in un loro saggio il neuroscienziato Vittorio Gallese, il filosofo Stefano Moriggi e il pedagogista Piercesare Rivoltella. A proposito dei «neuroni specchio» di Gallese: chi imita chi, fra Ia e suoi utenti? Perché questa è l’altra faccia della medaglia: le app dell’intelligenza artificiale generativa partono dalla nostra profilazione per dare risposte, ci assecondano al limite del compiacimento. Le macchine sanno che abbiamo bisogno della carezza psicologica del consenso. Da tempo è in rete un’app (si chiama Replika) che ci regala un’anima gemella.

Riesce persino a far innamorare chi si connette, al punto che un signore americano è arrivato ad organizzare un matrimonio digitale con la propria «replica». Altre app, più o meno specializzate, sono venute al seguito: i robot come badanti ad anziani e persone in difficoltà. Ad impressionare è tuttavia la fame generale di pseudo-interlocutori. E i rischi sono tali che lo Stato dell’Illinois ha appena emesso un Act che proibisce l’uso di chatbot come interlocutori a supporto, e ancor di più se sostitutivi, di psicologi, psicanalisti e assistenti sociali.

La nuova versione di ChatGpt modula le sue inclinazioni in base alla scelta degli utenti. C’è una versione predefinita, ce n’è una cinica, una nerd, una in modalità robot e infine, una disponibile ad ascoltare. Secondo Sam Altman, ceo di OpenAi ChatGpt-5 sarebbe più affidabile, proprio perché di fronte a questioni sulle quali non ha sufficienti elementi, ammette di essere in grado di dare risposte solo parziali, o addirittura di non avere risposte. Altman sostiene che così l’app diventa più «umana».

L’onestà della nuova versione ridurrebbe del 75% gli errori e del 20% le allucinazioni (gli svarioni più clamorosi). Molto dipende dai prompt, cioè dalle domande che vengono poste. E si torna ad uno dei nodi dolenti del rapporto con le piattaforme di Ia generativa: alla fine si trova davvero quel che si sa come cercare. La pervasività dell’Ia – dai robot sul lavoro alle app del nostro smartphone – va modellando le nostre vite. Non basterà una legge a proteggerci, ma è un buon punto di partenza.

Riproduzione riservata © Giornale di Brescia

Iscriviti al canale WhatsApp del GdB e resta aggiornato

Icona Newsletter

@News in 5 minuti

A sera il riassunto della giornata: i fatti principali, le novità per restare aggiornati.