Un sistema etico per chi gestisce l’AI

È possibile dare un quadro etico all’intelligenza artificiale? E come? Il dibattito sull’argomento si sta allargando. Ad esempio, solo nel Bresciano, nell’ultima settimana ci sono stati almeno cinque incontri importanti sul tema.
La Fondazione Cini ora cerca di fare il punto della situazione convocando a Venezia una quarantina di «saggi» raccolti fra i massimi esperti della materia, sotto la presidenza del filosofo Luciano Floridi, direttore del Digital Ethics Center della Yale University e forse il più acuto fra gli analisti dell’infosfera (concetto da lui coniato), cioè il nostro mondo che sui dati sembra fondare ogni cosa. Si comincerà dalla medicina, il settore nel quale l’AI ha alcune delle sue frontiere più avanzate, che affrontano l’essenza stessa del nostro vivere. Una bella sfida ed una bella notizia perché contrariamente all’opinione diffusa alimentata dalla fantascienza, nell’intelligenza artificiale non prevalgono derive di ribellione delle macchine contro l’uomo, piuttosto emerge la tendenza della macchina ad assecondare le idee dominanti, quelle che le vengono passate da chi la programma e la allena.
Qui sta la sfida: tanto sul «come» le macchine operano, quanto sul «perché» e in particolare «per chi». Che l’intelligenza artificiale assecondi il suo cliente si può sperimentare facilmente, attingendo a ChatGpt e su qualunque smartphone. Come hanno potuto fare i soci di un club bresciano che hanno voluto dedicare, in tempo di intelligenza artificiale, una delle loro serate all’elogio dell’ignoranza. E mentre la parte più agée del sodalizio ricamava sul socratico «so di non sapere», i soci più giovani interrogavano l’app di OpenAI.
A domande identiche, fatte su due smartphone, sono arrivate due risposte diverse: una sull’apollineo-razionale, l’altra sul dionisiaco-emozionale. Come mai? Semplicemente perché le risposte si adeguano all’impronta di chi fa la domanda. ChatGpt ha infatti l’abilità di «ricordare» informazioni importanti sulle persone con le quali conversa e le profila (ma questa non è più una novità per nessuna piattaforma). Le asseconda nelle loro preferenze perché l’app più diffusa di intelligenza artificiale generativa conosce bene i suoi polli, cioè noi. Lo hanno potuto constatare quelli (più di 4 milioni di persone) che hanno letto un prompt divenuto virale diffuso da uno degli oltre duecento milioni di utenti settimanali dell’applicazione, che si è divertito a chiedere a ChatGpt di rivelargli «una cosa che poi dire di me e che io stesso potrei non sapere».
L’AI generativa, poiché opera in base alle probabilità, attingendo alla marea di dati che può consultare, tende a rispondere secondo le nostre preferenze. Così si conquista il nostro stupore e ci spinge a pensare che sia davvero «intelligente». Da qui a credere che prima o poi possa essere creata un’Agi, cioè un’intelligenza artificiale generale, il passo è breve.
Finora gran parte del dibattito sull’AI si è incentrato sulla sicurezza: come evitare che i robot diventino pericolosi per noi e per la nostra società. Invece il nodo centrale sta altrove: sta su chi programma e allena le macchine, chi immette in esse la marea di dati che fa emergere l’idea dominante, alla quale esse si adeguano seguendo il calcolo delle probabilità. Con quali obiettivi? Dovremmo sì, controllare i robot, ma soprattutto controllare chi li controlla. Porre questioni simili significa però ammettere che fino ad oggi – per l’intelligenza artificiale così come per tutto il resto della galassia pervasiva del web – gli attori veri sulla scena sono quasi sempre company tanto ricche e potenti da sfuggire ad ogni tipo di governo. Almeno finché non si arriverà ad un sistema di regole e di controlli talmente condiviso da essere globale.
La tendenza dominante, tuttavia, va in direzione diversa. Il mito dell’innovazione tecnologica sta portando a credere che essa, proprio in quanto tale, non debba essere messa in discussione, che nella sua meravigliosa potenzialità sia ineluttabile e irresistibile. Le magnifiche sorti e progressive... Il filosofo Henry Bergson già 110 anni fa – era il 1914 – metteva in guardia parlando di «meccanizzazione dello spirito». Si chiedeva: «Cosa sarebbe una società che obbedisse automaticamente a una parola d’ordine trasmessa meccanicamente, che regolasse su di essa la sua scienza e la sua coscienza e che avesse perduto, con il senso della giustizia, la nozione di verità?».
Questa la sfida affidata al gruppo dei quaranta saggi convocati dalla Fondazione Cini a Venezia a novembre. E non solo a loro. I risultati, promette Luciano Floridi, li potremmo avere entro la fine dell’anno e leggerli su una rivista dalla testata significativa: «Minds and Machines».
Riproduzione riservata © Giornale di Brescia
Iscriviti al canale WhatsApp del GdB e resta aggiornato
@News in 5 minuti
A sera il riassunto della giornata: i fatti principali, le novità per restare aggiornati.
