Roberto Battiston, fisico, divulgatore scientifico e saggista, è stato presidente dell’Agenzia Spaziale Italiana dal 2014 al 2018. Dal 1992 è Professore ordinario di Fisica Sperimentale presso l’Università di Trento.

Di cosa parliamo quando parliamo di intelligenza artificiale?
L’espressione “intelligenza artificiale” è composta da due parole che ci siamo ormai abituati a tenere incollate assieme perché le abbiamo sentite ripetere infinite volte, tuttavia credo che la stragrande maggioranza delle persone abbia una nozione molto limitata di che cosa stiamo parlando. Io stesso, devo dire la verità, mi sono avvicinato a questo tema per curiosità.
Quando ho usato per la prima volta ChatGpt, sono rimasto sconvolto, lo devo riconoscere, perché l’effetto complessivo è di notevole impatto, però, siccome il mio mestiere di ricercatore nel settore della fisica è quello di capire le cose, mi sono dovuto immergere un po’ più in profondità. Non sono un informatico, tuttavia studiando e leggendo dei testi, oltre che sperimentando, ho ben capito l’effetto dell’illusione che nasce interfacciandosi con questi algoritmi. Che alla fine cosa fanno? Rastrellano le pagine web, che sono fatte con i nostri pensieri, le nostre parole, il nostro senso comune, e operando fondamentalmente su base probabilistica assemblano un linguaggio che dà vita a questa illusione che chiamiamo intelligenza e che spinge alcuni anche a pensare che ci sia dietro qualche cosa di più che un semplice algoritmo, alimentando aspettative, ma anche frustrazioni.
Volendo entrare subito nel dibattito in corso, qui la prima questione è quale sia la strada giusta da seguire per far sì che questo potente strumento abbia più benefici che svantaggi.
È infatti evidente che se il numero di persone che controllano questo processo si limita alle grandi imprese, il cui obiettivo è ovviamente quello di diffondere il più possibile questi strumenti per un ritorno economico, senza curarsi di quali siano gli impatti sull’educazaione, sulla formazione, sul lavoro e su altre cose fondamentali per la nostra società, beh, credo che già qui abbiamo un grosso problema.
Come sempre le tecnologie sono un coltello a doppia lama: si può tagliare la torta, si può uccidere. In questo caso il tutto viene ammantato da questa limitata conoscenza del funzionamento dello strumento e da questo suadente modo con cui l’algoritmo è stato programmato per rispondere. Al di là del vero e del falso, mi riferisco proprio al modo con cui vieni avvolto in una discussione svolta in un linguaggio naturale che assomiglia a quello dell’amico al bar. Questo effetto è sicuramente una delle chiavi del successo di ChatGpt. Questa facilità di interazione, questo modo suadente e benevolo di interagire non dobbiamo trascurarlo perché è come un gioco di magia, un gioco di specchi al baraccone dove siamo spinti a credere che davanti a noi ci sia un’altra persona, non un’immagine specchiata e, se non stiamo attenti, ci andiamo a sbattere con il naso. Ecco, qui si rischia che succeda la stessa cosa. Per questo è importante ragionare e interrogarci perché abbiamo davanti una sfida molto grande riguardante quello che accadrà nella formazione, nell’educazione, dalla scuola primaria in su, e i tempi di cui stiamo parlando non sono compatibili con l’educazione di una generazione.
In un anno ChatGpt ha invaso i computer e i telefoni di tantissimi tra noi e ormai c’è una corsa, una gara frenetica fra le grandi imprese che si occupano di queste cose per fare sempre di più, sempre meglio, cioè con meno errori, per insinuarsi nella vita quotidiana. Il tutto però senza aver cambiato sostanzialmente nulla della macchina di base, un algoritmo che, come dicevo, prende da ragionamenti, frasi, testi già presenti nel web, semplicemente -avendo incontrato alcune delle difficoltà e dei limiti- li impacchetta in modo sempre più efficace.
Lei ha usato una metafora molto efficace facendo riferimento al funzionamento di un attrezzo agricolo, il rastrello.
Ho parlato dell’intelligenza del rastrello. Alla fine l’intelligenza artificiale è fatta di un rastrello, certo molto sofisticato, e poi probabilità, analisi computazionali, ecc.
Se ci ricordiamo di quelli che erano i browser una volta, all’epoca in cui ci fu l’esplosione del web, ecco, c’erano una decina di versioni che oggi sono ridotte a una o due. Allo stesso modo, oggi siamo un po’ nella fase in cui abbiamo decine e decine di macchine, di algoritmi di tipo intelligenza artificiale che si stanno battendo e fra qualche anno ne rimarranno forse un paio. E chi avrà in mano questo algoritmo farà un sacco di soldi perché ovviamente si insinua da tutte le parti, visibile o invisibile che sia. Già oggi molti software hanno adottato quella tipologia di algoritmo, non è necessaria la formula con la nostra domanda e la risposta gentile. Ci sono percorsi probabilistici, calcoli che vengono fatti molto rapidamente che permettono a certe macchine di rispondere ai nostri bisogni più facilmente di prima. Ancora non lo vediamo, ma ne saremo presto circondati.
Tutto questo per ribadire l’importanza di una comunicazione diciamo problematica che metta sul tavolo le questioni e promuova un dibattito sociale che è necessario.
Leggendo gli articoli, nelle dichiarazioni dei vari responsabili delle multinazionali non si trova mai traccia di quello che c’è dietro a queste macchine. OpenAi, per fare un esempio specifico, nella fase iniziale, in cui Musk e Altman hanno investito questo famoso miliardo di dollari, è nato con l’obiettivo dichiarato di rendere aperto e trasparente questo meccanismo perché anche agli occhi dei proponenti l’impatto che avrebbe avuto un’intelligenza artificiale (che ancora non avevamo ben capito cosa fosse) sarebbe stato così grande e invasivo che era opportuno ci fosse una diffusione trasparente di questi algoritmi piuttosto che rimanessero in mano a una sola società.
Questo forse in parte è avvenuto nel senso che ChatGpt, nella sua versione base, è disponibile per tutti, ma questo non significa che gli algoritmi siano visibili, questo no. Uno li può dedurre da una serie di considerazioni, ma non sono mai stati raccontati nella loro semplicità e al contempo potenza.
Oggi poi sappiamo che Altman, al vertice di una serie di imprese collaterali, sta assumendo un ruolo decisivo anche nella fabbricazione dei chip per rendere questi algoritmi più facilmente implementabili.
Già oggi ChatGpt è una sorta di mostro che per poter funzionare deve avere alle spalle qualche ettaro di computer che fanno questi calcoli complicati e da lì anche la preoccupazione, che in parte è giusta ma in parte andrebbe rivista, per i consumi (che comunque con circuiti elettronici più potenti, più compatti, più ottimizzati possono essere ridotti).
A dimostrazione che la spinta della competizione industriale è solamente all’inizio. La gara sarà vinta da chi saprà mettere assieme hardware, software, algoritmi e dati. Di trasparente ci sarà molto poco, perché di fronte a una competizione economica così intensa... è un po’ come l’algoritmo di Google: chi conosce l’algoritmo per arrivare ai primi posti della lista nei risultati delle ricerche? Nessuno, perché parliamo di una cosa che ha un valore economico enorme.
Insomma, siamo di fronte a una competizione durissima in cui -apro una parentesi- l’Europa non c’è e l’Italia ancora meno. Esiste qualche iniziativa individuale, tipo della Francia. Tutto questo dovrebbe farci riflettere. Tra qualche anno rischiamo di svegliarci e accorgerci: “Che peccato, abbiamo perso questa ennesima occasione”. Stiamo già assistendo giorno per giorno alle nostre debolezze, frammentazioni e dimensioni inadeguate. Nel frattempo abbiamo fatto un regolamento europeo, l’Artificial Intelligence Act, pieno di buone intenzioni. Vedremo fino a che punto l’implementazione di questo tipo di regole influenzerà un mercato che -ripeto- non è controllato da noi, perché i produttori di queste cose stanno da un’altra parte.
Questo per dare un’idea dei tanti problemi, molto grossi, che comunque dobbiamo cercare di raccontare, di spiegare, per beneficiare dei vantaggi e però anche per limitare i danni.
Tutto questo non si può fare alla cieca. È un percorso tecnicamente sofisticato in cui non bastano i principi: la forza dell’implementatore, di chi corre avanti e arriva con un prodotto non deve essere trascurata.
Un nodo centrale e già controverso è la questione dei dati: come vengono raccolti e usati, di chi sono, eccetera...
Già oggi sappiamo che senza enormi quantità di dati (non solo fattuali ma frasi ben scritte con un senso compiuto) questo tipo di algoritmo, di linguaggio naturale, non esiste, non fa neanche un vagito. A dimostrazione di quanto poco intelligente sia...
La domanda che dovremmo porci -e siamo solo all’inizio di questa discussione- è: “A chi appartengono i dati del web?”. Attenzione, qui non sto parlando dei dati personali, che sono un pezzettino. Qui ci stiamo interrogando sul fatto che se lei scrive un articolo, io scrivo un libro, quell’altro fa un’indagine e mettiamo queste nostre opere sul web, tutto questo viene assimilato e predigerito da queste macchine per essere poi riproposto nelle risposte alle domande degli utenti. Beh, qui c’è un problema. Cioè, io ho fatto uno sforzo per produrre quel testo, quel libro, quell’indagine, ma pensiamo anche solo a un blogger che scrive dei post, comunque ha fatto uno sforzo che è il prodotto della sua intelligenza. Ecco, oggi non c’è alcuna protezione. Cioè per il libro magari sì, ma per molte altre cose no. Abbiamo assistito allo scontro tra “New York Times” e OpenAi: questi hanno tirato su a badilate decine, centinaia, migliaia di articoli su cui hanno formato la macchina che poi, stuzzicata in modo opportuno, risputa interi pezzi di articoli del quotidiano.
Hanno violato il copyright? Loro dicono di aver usato gli articoli per addestrare la macchina, gli altri rispondono: “Guarda che, con un minimo di astuzia, i testi vengono riproposti quasi pari pari”. La legge sul copyright ti impedisce di pubblicare l’articolo in altri siti; rimane questa ambiguità se la stessa legge ti permetta di usare l’articolo per formare il pensiero algoritmico.
È un aspetto sottile, però è chiaro che qui abbiamo pochissime ditte che stanno usando un bene di tutti -che sono i dati- per produrre valore e denaro solo per qualcuno.
Noi siamo nati in un mondo in cui, con la rivoluzione del web, ci viene regalata un’infinità di pagine web, di informazioni, a volte davvero gratuitamente, come nel caso di Wikipedia o altri servizi, altre volte in cambio dei dati che gli utenti più o meno consapevolmente offrono. La pubblicità è ormai un meccanismo fondamentale a cui noi ci siamo abituati. C’è questo implicito accordo: io ti do i miei dati e tu in cambio mi garantisci questo servizio. Ripeto, parliamo di accordi impliciti, i cui dettagli, scritti in piccolo piccolo, alla lunga si rivelano fondamentali. Google ha di fatto monopolizzato il mercato della pubblicità. Scrivi una cosa su Facebook e subito ti arriva la pubblicità di Amazon o analogo... Della serie: non esiste il pasto gratis. E tuttavia per vent’anni ci hanno convinto che il web fosse un po’ il paese dei balocchi: si apre il computer e ci si inserisce in un mondo di opportunità, di informazioni, di sogni anche... fino a che uno tira il guinzaglio e ci strozza!
Già anni fa si diceva: “Se il prodotto è gratis, il prodotto sei tu”.
Esattamente. Con ChatGpt stiamo andando in quella direzione. Ora anche le nuove versioni saranno rese gratuite, ma perché la gara ad accalappiare il maggior numero di utenti è pazzesca e noi la stiamo alimentando, anche perché i risultati di questo tipo di interazione, riconosciamolo, sono molto utili. Stiamo imparando a conoscerne le potenzialità, assieme ai limiti.
In un incontro con gli insegnanti lei enfatizzava l’importanza di saper fare le domande giuste a ChatGpt o analoghi e al contempo di saper riconoscerne gli errori.
Questi sono due aspetti cruciali e dal mio punto di vista è lì che si gioca gran parte di questa partita.
Le parla una persona che per tutta la sua vita ha studiato, ha esercitato la sua mente; la ricerca e l’insegnamento universitario sono il mio mestiere; credo di rappresentare una frazione piccola della società; ecco, mi chiedo: persone che hanno dedicato tutta la loro vita a cercare di porre le cose in modo tale da essere chiari, adottando il metodo scientifico e facendo del proprio meglio date le condizioni del contorno, fino a che punto potranno gestire questo processo? Ora, fare bene le domande è cruciale e io auspico che tutti imparino a farlo, perché fare bene le domande comporta l’aver compreso il problema; da lì parte poi un percorso buono, positivo. Dopodiché saper verificare che il risultato stia all’interno di un certo percorso è una complicata mistura fra la capacità personale, l’intelligenza, la preparazione e una forma di educazione, di formazione.
Quanto di questo mi è stato dato dalla formazione scolastica e universitaria e quanto è innato, fa parte di una vocazione, deriva da degli esempi? L’esito del mio ragionamento è che se le persone riusciranno a trovare un equilibrio fra il fare le domande, ricevere le risposte e intervenire sugli errori vorrà dire che la nostra specie comunque saprà dominare questo cavallo che scalpita, ne avrà in mano le redini e potrà decidere di andare da una parte piuttosto che dall’altra.
Si tratta appunto di capire se questo è vero; se veramente si può trovare un equilibrio. Personalmente ho potuto fare un sacco di attività scientifica, usando software che fino a ieri non potevo usare; sto procedendo molto spedito in alcune direzioni e mi sembra di aver avuto molti più benefici che perdite.
Non so se fra un anno o due -mi riferisco anche all’aspetto informatico- sarò costretto, per esempio, a far domande sempre più lunghe e a faticare sempre di più per trovare gli errori... Non so se mi spiego. Ora, in questa prima fase, trovo il tutto difficile, sfidante, ma anche molto interessante, motivante e a misura di professionista del settore. Ovviamente, se mi guardo indietro, so bene che questa condizione riguarda una frazione della popolazione. E gli altri? Cosa succederà? Boh. Non solo: questa frazione aumenterà o andrà via via riducendosi? Io non ho la risposta. Vivo questo momento cercando di estrarne il massimo del beneficio, ma non ho una risposta generale.
Ancora non conosciamo la portata degli effetti sul mondo del lavoro...
Si moltiplicano i casi di chi davanti a un investimento per far nascere un’impresa nel settore digitale ci pensa dieci, cento volte, perché buona parte di queste cose le può fare la macchina. Devo ancora sentire uno che mi dice che grazie all’Ai ha aumentato le assunzioni e comunque verosimilmente si tratterebbe di poche persone con caratteristiche speciali. Tra l’altro, il nuovo potenziale assunto che deve controllare l’output della macchina difficilmente sarà quello che ha perso il lavoro. Insomma, qui la questione rimane aperta e preoccupante.
Venendo ai limiti e alle defaillances dell’Ai, si iniziano a denunciare i problemi legati alle cosiddette “allucinazioni”, agli errori gravi che questa commette...
A me ha colpito il fatto che, rispetto al codice di programmazione, se faccio una domanda adesso e poi la ripropongo tra un’ora ottengo risposte diverse. Magari entrambe funzionano bene perché non c’è una regola assoluta su come si scrive un codice. Questo apre una problematica perché noi siamo abituati a pensare che i codici che vanno inseriti su una macchina vengono testati pesantissimamente dopodiché non li cambio più per un bel po’. Qui invece abbiamo un sistema che propone continuamente soluzioni diverse dalle precedenti casomai per risolvere il medesimo problema. Lungo questa strada si entra in un discorso non banale sul significato di che cos’è un codice. Il codice classico creato con il linguaggio di programmazione è un qualcosa che compie sempre le medesime operazioni, inclusi gli errori, se ci sono, insomma non fa sorprese. Questo fatto dell’esattezza di un codice complesso che non sgarra, a meno che non si rompa qualcosa, e che si ripete potenzialmente all’infinito è la base su cui si costruiscono gli aeroporti, gli aeroplani, le macchine e l’intera società nel suo insieme. Il codice può essere complesso quanto si vuole, ma deve essere prevedibile, cioè deve fare sempre le stesse cose. Qui avremo a disposizione dei codici che forse alla fine faranno le stesse cose ma seguendo strade diverse.
Questa è una cosa che sembra un dettaglio ma non lo è, perché introduce incertezza nascosta. Non solo: per verificare che fanno effettivamente le stesse cose dovrò fare migliaia e migliaia di tentativi nella speranza di non aver lasciato dei buchi dove magari i due codici fanno una cosa diversa. Abbiamo introdotto l’aleatorietà nel codice che è una sorta di contraddizione in termini: qualcuno pensa che la complessità dei calcolatori sia associabile a qualche grado di incertezza. Assolutamente no! Il comportamento del codice è improntato a un rigore totale.
Secondo nodo: in che stato si trovavano ChatGpt e il suo algoritmo quando ha risposto alla mia ultima domanda? Qui non abbiamo un cervello bensì una lunga lista di bit. Riesco ad aprirla e a fotografarla in quel momento? La risposta è no, perché dopo qualche secondo è già diversa; per cercare di capire in che condizioni si trova ci impegneremmo in un inseguimento senza senso (tra l’altro non avremmo neanche le risorse). Qualcuno vorrebbe interpretare questa continua incertezza, questa casualità come intelligenza o creatività. No, semplicemente abbiamo creato un sistema talmente complesso che è fuori controllo.
Stiamo introducendo in modo sistematico delle incertezze in un settore che, per quanto complesso, era rigorosissimo. Questo è un altro elemento fondamentale che ha a che fare con il concetto stesso di macchina. Quando Turing inventò le sue striscioline 0, 1, 0, 1, 0, 1 sapeva perfettamente che potevano essere lunghe a piacere, ma sapeva altrettanto perfettamente che non sgarravano mai. Mentre adesso questa seconda parte del ragionamento è venuto meno in quanto le cose sono diventate talmente complesse che non sappiamo più...
Emergono preoccupazioni anche sulla qualità e affidabilità degli output della macchina man mano che questa si alimenta di ciò che essa stessa elabora e produce attraverso gli input degli utenti.
Recentemente sul “Corriere della Sera” ho segnalato questo problema. Come sappiamo, c’è stata una fase in cui i giornali non si erano resi conto che questi motori di ricerca andavano a prendere i loro dati per “educare” ChatGpt e analoghi. Quando se ne sono accorti, qualcuno ha fatto causa, altri hanno chiuso le saracinesche nel senso che hanno vietato l’accesso di questi bot. Ebbene, questa reazione ha interessato l’80-85% dei giornali americani.
Il fatto è che il restante 15-20% è costituito in gran parte dai media dell’ultradestra. I quali se ne sono fregati, anzi: “Volete entrare con i vostri motori di ricerca, accomodatevi!”. Perché è nel loro interesse un eventuale eccesso di informazioni di una parte.
ChatGpt è come un fiume in piena, a cui abbiamo fatto degli argini, che al momento sono costituiti da due cose. Il primo è il web in quanto tale, che di suo non è equilibrato: non abbiamo i contributi degli africani, dei poveri, dei ciechi... Ci sono tutta una serie di categorie anche molto ampia che contribuiscono poco al web, quindi è un sistema già sbilanciato di suo e non del tutto rappresentativo, però perlomeno chi ci può entrare si può esprimere liberamente e il web esprime questa media parziale. Queste persone, centinaia di milioni, scrivono alla velocità umana, invece queste macchine sanno scrivere ormai a una velocità incomparabilmente più alta e se iniziassero a interagire tra loro rischierebbero di riempire il web a un ritmo frenetico. Ora non è che la roba loro sia necessariamente negativa, ma saranno “delle medie di medie”, cioè il meccanismo alla base di queste macchine è di produrre valori medi e questo renderà il web molto più livellato.
Rispetto al tema della creatività, Sabine Hossenfelder, fisica e divulgatrice, ha fatto vedere gli esiti di un studio (Hataya et al, arXiv:2211.08095) su come viene rappresentato un elefante man mano che l’Ia si alimenta delle sue stesse produzioni e in effetti la varietà delle immagini cala significativamente: alla fine gli elefanti sono quasi tutti uguali.
Da tempo ci ragiono in termini astratti e questo è proprio l’esempio che cercavo.
Può raccontarci la vicenda dei semafori?
Un secondo elemento che dà argine a questo tipo di algoritmi, di flussi di dati, è il provvedimento che ha preso Meta per ChatGpt per evitare che la versione 3 sbarellasse continuamente fra pornografia, torture, omicidi... bastava pochissimo a ottenere risposte estreme su qualsiasi tematica: due o tre domande azzeccate e la macchina partiva a razzo nelle direzioni più tremende. Ormai la storia la sappiamo. Migliaia di persone in paesi poveri sono state pagate (pochissimo) per leggersi tonnellate di dark web, analizzarne i contenuti frase per frase ed epurarli delle parti considerate non accettabili.
Ora, immagini lei che cosa vuol dire: persone che hanno avuto un’educazione scolastica sufficiente a leggere e scrivere, che sanno usare un computer e riflettere sul bene e sul male, pagate per mettere a frutto questo loro senso etico per far sì che questo algoritmo acefalo sia obbligato a correre all’interno di una serie di binari, rispettando appunto i semafori rossi.
È una storia che definirei di proletariato moderno. Una volta i proletari si chiamavano così perché grazie alla forza dei loro muscoli ottenevano i soldi per sfamare la famiglia; oggi parliamo di persone che hanno zero diritti, che operano in assenza di contesti associativi, sindacali, ecc., perché vengono pescati dalla rete da ditte che adottano sistemi di assunzione e di licenziamento assolutamente selvaggi, senza alcuna regola, e soprattutto parliamo di un lavoro fortemente usurante perché nel cosiddetto dark web ci sono davvero cose terrificanti. Alla fine si tratta di “estrarre” etica da noi esseri umani per incollarla a una macchina che così può fingere di averla. Se poi ci chiediamo qual è l’obiettivo di passare l’essenza stessa del nostro essere a degli algoritmi, temo che la risposta non sia il benessere dell’umanità, bensì il far soldi. Ora, l’etica, come i dati, non sono proprietà di Meta, OpenAi, Google, Microsoft... sono nostri, come l’aria, l’acqua... come le terre nell’Inghilterra che iniziò a organizzare i commons. Sono beni comuni, per questo parlo di una sottrazione di “bene comune etico”, analoga al furto del dato che sta nel web. I dati ci sono stati sottratti dalle sirene che ci hanno ammaliato dicendoci: “Dacci le tue informazioni così noi ti forniamo tante belle pagine e tanti servizi gratuiti”. Nel caso dell’etica e dei semafori del dark web, lì vedo proprio lo sfruttamento dell’uomo sull’uomo.
Questo è stato ciò che ha permesso a ChatGpt-3, impresentabile, ingestibile, potenzialmente un pazzo furioso, di diventare ChatGpt-3.5, così mellifluo, gentile e sorridente. Di tutto questo parla un libro molto bello intitolato Né intelligente né artificiale. Il lato oscuro dell’Ia, di Kate Crawford, di cui consiglio vivamente la lettura.
Personalmente trovo questa vicenda filosoficamente e culturalmente davvero emblematica e terribile.
Comunque, prendendo dal web per quello che era e appiccicandogli dei paletti di carattere etico, abbiamo fatto sì che il flusso di questa enorme quantità di risposte e di dati stesse all’interno di un argine, ma nel momento in cui la macchina incomincia a interagire con se stessa, magari l’etica dei semafori rossi rimane anche, ma ho l’impressione che il valore medio delle risposte sul web tenderà ad appiattirsi su qualche angolo di questo enorme spazio delle possibilità, riducendo l’inventività, l’originalità. Questo potrebbe portarci fuori dall’equilibrio attuale, che è puramente casuale, verso un’altra configurazione che sarà determinata da quali algoritmi corrono più veloci degli altri.
Alla fine stiamo parlando di politica...
Proprio così! Dati i tempi caratteristici di cui stiamo parlando, che sono rapidissimi, temo la politica possa fare solo una cosa: regolamentare. Però anche questo ha dei limiti. Ora l’Europa ha fatto una bella legge sulle intelligenze artificiali; se ne discuteva da anni, da ben prima che arrivasse ChatGpt. Il problema è che questo potrebbe causare una fuga dall’Europa delle ditte che si occupano di questi temi; ditte che tra l’altro non sono quasi mai europee. Ripeto, i tempi di evoluzione di questa roba sono impressionanti. Sarà interessante vedere dove saremo arrivati tra cinque-dieci anni. Quello che già vediamo è che stanno nascendo ChatGpt equivalenti cinesi, che devono obbedire al partito e non affrontare certe tematiche. Altra questione: cosa potrebbero fare i militari con queste macchine? Qualcuno ha già predetto che le prossime saranno guerre fra intelligenze artificiali.
Questa macchina al momento non ha intenzionalità: sostanzialmente, fotografa, rispecchia ciò che è stato già espresso e lo ricombina per rispondere al desiderio di chi la sta interrogando. Ma non ci vuole mica tanto sforzo per mettere alcuni parametri diciamo di “obiettivi da raggiungere”.
Le macchine che fanno il gioco degli scacchi, della dama o il go, dove vincono ormai a mani basse, non lasciano scampo, sono terribili, però è un gioco e chi se ne importa. Calma: e se poi diventa non più un gioco ma qualcosa che ha a che fare con le armi? Beh, allora il discorso cambia.
Faccio un esempio forse un po’ banale. Oggi ChatGpt è una scatola con dentro del codice a cui viene attaccata un’altra scatola dal titolo “intenzionalità e obiettivi”. Attualmente l’intenzionalità è “rendi contento quello con cui stai parlando”, ma nulla vieta che l’obiettivo diventi “distruggi il mio nemico”. Ripeto, fino a che questo obiettivo viene declinato con delle macchine che giocano a scacchi in modo assolutamente lucido e cinico, va bene, ma se parliamo invece di usare armi nucleari, avvelenare le acque... dov’è scritto che il nemico non deve far soffrire i civili, che i bambini vanno tutelati, che ci sono limiti etici?
Oggi ChatGpt ha dei semafori di un certo tipo, ma lo spazio dell’intenzionalità... intendiamoci bene: intenzionalità imitativa. Cioè, non è che la macchina si sveglia la mattina e pensa di conquistare il mondo. È imitativa, però imita oggi, imita domani, poi la differenza fra l’essere umano e la macchina comincia ad assottigliarsi molto... i sosia esistono e alla fine fai fatica a distinguere il vero dal falso...
(a cura di Barbara Bertoncin)