Carlo Alfredo Clerici, medico specialista in psicologia clinica, psicoterapeuta, è professore presso il Dipartimento di Oncologia ed Emato-Oncologia dell’Università degli Studi di Milano e dirigente medico presso la Pediatria dell’Istituto dei Tumori di Milano. Studia l’adattamento psichico alle malattie organiche, in particolare in oncologia pediatrica. Coordina inoltre l’Osservatorio sulle Prospettive Cliniche sull’Intelligenza Artificiale, dedicato alle applicazioni in campo clinico di queste tecnologie. https://www.prospettivecliniche.it. Sul sito è disponibile gratuitamente il testo “Cosa me ne faccio dell’Intelligenza Artificiale. Esperienze d’uso in clinica e nella didattica universitaria".

Il tema è l’intelligenza artificiale e la medicina. Lei ha avuto modo di avvicinarsi a queste nuove possibilità trovandosi all’improvviso nella condizione di medico e paziente al contempo. Può raccontare?
Si è presentata questa strana occasione, che mi sta offrendo la possibilità di vivere una vicenda di malattia anche in un’ottica, diciamo, di poterci fare filosofia. Premetto che questo mi è consentito perché sono curato bene e qui si aprirebbe subito il tema della buona cura.
Attualmente la mia etichetta è quella di un disabile al 100% con invalidità lavorativa; sto seguendo una chemioterapia che prendo per bocca e sono in carico al servizio di cure palliative, che è fondamentale. Questa rete  di protezione mi consente di avere delle giornate sensate, anche buone.
Questo per dire come la vita e la libertà sono in fondo i margini che riusciamo a ritagliarci rispetto a degli inscatolamenti che sarebbero invece senza risorse a priori.
Allora, la mia curiosità per questi temi è nata quando nella primavera del 2023 ha iniziato a diffondersi anche tra la gente comune la consapevolezza che esisteva ChatGpt; i tecnici lo sapevano dall’anno prima; di intelligenza artificiale, io che faccio l’universitario, avevo sentito parlare negli anni precedenti relativamente alle omiche e alle ricerche sui big data, ma erano cose che sembravano lontanissime. Per un clinico come me, che ha dedicato la vita a curare le persone, non c’era un impatto concreto. Invece nella primavera del 2023 è arrivato questo strumento che mi ha subito incuriosito. Un giorno d’estate, ero in spiaggia con un collega che fa lo psicanalista, e ci siamo detti: “Proviamo a vedere come ci suggerirebbe di organizzare un convegno sulla psicanalisi relazionale”, che è una materia abbastanza di nicchia. Ebbene, ne è uscita una proposta con una scaletta che sembrava fatta da un collega. Ne abbiamo però visto anche i primi limiti: ci siamo accorti, ad esempio, che era talvolta ingannevole; di lì a poco sarebbe emerso tutto il tema della distanza fra verità e verosimiglianza, le allucinazioni...
Aggiungo una nota. Io insegno e questa è una grande fortuna perché c’è un continuo confronto trans-generazionale. Ecco, ad esempio il quotidiano non lo legge quasi più nessuno; già io non lo leggo più di carta. Un giorno, in una classe di cinquanta studenti di odontoiatria, che sono uno spaccato di quello che una volta era la classe media, quelli che avevano la Treccani a casa, ho chiesto ai ragazzi come si informassero; su cinquanta solo due leggevano i quotidiani e 37 mi hanno detto di prendere le notizie dal mondo da Instagram. Ecco, il loro legame con i fatti e la concretezza non è più la terza pagina del Corriere della Sera che mio padre mi invitava a leggere, ma un social.
Questo è il contesto in cui arriva l’intelligenza artificiale.
Poi arriva la malattia.
Nel maggio del 2023 arriva la malattia e io mi trovo a essere meno efficiente fisicamente e però allo stesso tempo intellettualmente curioso e così questo strano interlocutore, essendo a disposizione nel tablet, diventa una presenza importante.
Negli anni ci siamo spesso interrogati su come i pazienti cerchino le notizie e su come si è evoluta la comunicazione in medicina. Io sono professore associato di psicologia clinica e insegno proprio “Comunicazione e relazione in medicina” (una materia che quando studiavo io non c’era). Sono corsi che vengono fatti nei primi anni. Io ci tengo moltissimo perché oggi sappiamo quanto la relazione non sia un accessorio, ma un pezzo fondamentale della cura.
Ecco nella relazione è entrato questo nuovo “oggetto”. Un tempo c’era l’Enciclopedia medica Garzanti, che però non era molto invasiva; poi sono arrivati gli inserti dei quotidiani, che hanno cominciato a dare un’idea di esercizio di un diritto e anche di una possibilità di scelta; erano anche gli anni in cui in Italia c’era il tema della sostenibilità del servizio pubblico.
Poi abbiamo avuto Google e quindi i pazienti che arrivavano già con un’idea di diagnosi e delle aspettative. Poi sono arrivati i social, molto interessanti per esempio per la possibilità di fare rete, di non sentirsi isolati, di far parte di una comunità.
Anche l’uso dei video ha avuto degli effetti. Ad esempio ci siamo accorti che i ragazzi, le idee sulle malattie, se le fanno vedendo cosa trovano in rete. Io lavoro all’Istituto dei tumori in pediatria. Ebbene, anni fa abbiamo scoperto una cosa agghiacciante sui tumori negli adolescenti. I ragazzi che andavano a cercare notizie su un certo tipo di sarcoma trovavano solo video di commemorazione, perché negli Stati Uniti si usa molto. D’altra parte i medici non sono usi a fare informazione, quindi i pochissimi video informativi erano noiosi e poco accattivanti. Di qui uno disallineamento dell’informazione: una malattia dalla prognosi buona veniva invece rappresentata in chiave catastrofica.
Infine, nella relazione medico-paziente, a un certo punto sono entrati anche ChatGpt e affini.
Io ho fin da subito pensato che fosse uno strumento con cui si dovevano fare i conti. Per esempio è molto interessante il fatto che le risposte diventino progressivamente più mirate; evidentemente fa un uso delle informazioni, non solo per profilarci, ma per migliorare la risposta. Una risposta in cui si intrecciano bisogni informativi, ma anche emotivi.
Si è imputato parte del successo di ChatGpt al fatto che è “gentile”.
Evidentemente c’è uno sforzo di programmazione e comunicativo; non è solo gentile: dovendo fare contenti gli avvocati americani, c’è un politicamente corretto di garanzia. Questo introduce un ulteriore tema su cui riflettere: parliamo infatti di un modello culturalmente molto connotato in cui l’Europa o l’Italia ad esempio sono molto poco rappresentative. Dico una banalità: abbiamo un mondo cinese dove tutti i dati sono dello stato in un’unione vertiginosa fra capitalismo e comunismo, con anche un controllo sociale molto forte; poi abbiamo queste compagnie americane a cui abbiamo regalato i nostri dati (o se li sono comprati); in mezzo c’è l’Europa, che sta tentando di costruire un qualche impianto valoriale, ma in questo momento la mediazione è molto difficile.
Comunque dal micro osservatorio dei miei pazienti e dall’uso che io stesso ne faccio, c’è in effetti questa specie di gentilezza e c’è un aspetto relazionale interessante (d’altra parte se possiamo affezionarci a un pupazzo di peluche, perché non anche a qualcosa che ci risponde simulando una presenza umana?).
Ora, nel mio caso, l’obiettivo era provare a testare gli esiti di queste conversazioni rispetto alle tematiche di salute. In effetti mediamente le risposte risultano corrette e abbastanza sicure. Inoltre l’intelligenza artificiale non assume il ruolo di medico (c’è un sistema di protezione dalle conseguenze legali), però, ripeto, c’è un mondo di relazioni che si mette in movimento.
Questa è una prospettiva assolutamente nuova sia nei rischi sia nelle potenzialità. Di rischi volendo ne abbiamo una tonnellata. Citavamo le allucinazioni. È ormai famosissimo il caso dell’avvocato americano che ha presentato un ricorso producendo dei precedenti forniti dalla macchina che erano inventati -verosimili, ma falsi. Di qui l’importanza di porre le domande in modo appropriato, per esempio chiedendo di attingere a un patrimonio di informazioni riscontrabili. Se procediamo con metodo scientifico possiamo essere aiutati, ma se confondiamo i piani e non abbiamo chiari gli obiettivi è molto pericoloso, soprattutto nel campo della salute, dove i temi della attendibilità e della sicurezza sono cruciali.
Lei vede l’aspetto più promettente, non nella paventata sostituzione del medico, ma in un supporto affinché possa potenziare quello che è il vero cuore del suo mestiere.
Quando arrivano delle novità, il rischio è di cedere a chiavi narrative catastrofiste o entusiastiche. Alcuni mestieri sono stati insidiatissimi dall’Ai: i grafici, i giornalisti... Nel caso del medico io vedo appunto un aspetto di supporto e convivenza, però la narrazione è stata un po’ terroristica e ha  paralizzato anche delle forze sane. Voglio dire: a me il metro che divide il paziente dal medico o lo unisce interessa molto.
In medicina si sono mobilitati moltissimi interessi su tutta una serie di idee di utilizzo, a partire da quella di far fare alla macchina il lavoro al medico: tanti più dati forniamo, tanto più la macchina diventerebbe perfetta in questo ruolo di decisore assoluto.
Questo è l’aspetto più allettante, ma anche il più problematico, tant’è che ci si è subito un po’ incagliati. Nel campo medico non abbiamo assistito a progressi analoghi a quelli visti nel campo del marketing, della comunicazione e di altri mestieri messi in crisi.
Ma perché la decisione medica non è un atto logico-razionale e basta: è conoscenza logico-razionale temperata però da un rapporto fatto di umanità e relazione. A meno che non pensiamo che l’atto medico sia invece una sorta di prodotto industriale.
Diverso se si pensa a un sistema consulenziale a cui rivolgermi se ho un dubbio e voglio verificare la mia ipotesi diagnostica, ma il clinico già lo fa: alza la cornetta e telefona a un collega o consulta il trattato, cerca su internet, guarda la letteratura.
Ci sarebbero altri campi da esplorare. Per esempio oggi esiste il fascicolo sanitario che potrebbe essere utile per provare a fondare su dei dati più ampi le pratiche cliniche. Però, ad esempio, le mie immagini radiografiche viaggiano ancora su dischetto, mentre in una visione più moderna, il medico che fa il decisore dovrebbe avere una specie di torre di controllo che in tempo reale compara le cose -tecnicamente è possibile. Sappiamo che ci sono progetti di evoluzione, ma è evidente che in questo campo non stiamo adottando la migliore tecnologia o le migliori possibilità.
L’altro aspetto secondo me molto interessante l’ho trovato confermato anche sul “British Medical Journal” di qualche mese fa, dove appunto qualcuno diceva: benissimo le proposte dell’intelligenza artificiale come decisore, ma il medico in realtà occupa una parte del suo tempo in faccende che non sono né decisioni cliniche né relazione con il paziente, bensì scavare dentro covoni di carta, riordinare documentazione. Ecco, quest’ambito potrebbe essere molto promettente.
Diceva anche dell’uso dell’Ai a supporto del paziente.
Una delle funzioni che ho potuto sperimentare trovandomi nel ruolo di paziente, avendo accesso alla documentazione clinica, è stato provare a vedere che cosa se ne può fare senza un vincolo di riservatezza. Non avendo necessità di tenere occultata la mia diagnosi, mi interessava capire che vantaggi potessi trarne.
Allora, c’è una cosa che già avevo intuito, ma che adesso ho vissuto in prima persona: la fatica di fare il paziente. Ogni volta che vengo visitato, avendo una patologia complessa, esco e devo studiare che cosa fare nei giorni successivi: capire quali medicine mi mancano, quali sono gli appuntamenti... cioè i concorsi universitari sono una roba facile, prepararsi alla prossima visita è un impegno! In più non possiamo pensare che tutti i pazienti siano professori, abbiano attorno a sé un entourage di aiuto e stiano abbastanza bene.
Questo tema è spesso sottovalutato dal punto di vista della gestione. Di qui l’importanza dell’attendibilità di una sintesi esplicativa fatta dall’Ai. Dal fascicolo sanitario, io scarico il pdf e poi chiedo a ChatGpt: “Il signor Clerici da domani che cosa deve fare per curarsi?”. E mi viene fornito un riassunto. Se poi avessi una badante straniera, il testo in pochi secondi potrebbe essere tradotto. Lo spazio che intercorre tra una visita e la successiva è spesso abitato da dei tracolli: si perdono dei pezzi, ci si dimentica un appuntamento... Ora, è vero che dovrebbe essere il medico di famiglia ad assumersi questo ruolo, e questo è un tema delicatissimo, però...
In questa situazione stranissima di essere prima professore, poi paziente, poi malato cronico e infine acuto, mi è capitato di rimbalzare in tutti i lati e di vedere la sproporzione che c’è fra la risorsa tempo, così limitata, e invece la necessità di avere chiarezza da parte del paziente, che rischia di rimanere bloccato in una sorta di terra di nessuno. Non so altrove, ma a Milano la situazione della medicina di famiglia, della medicina generale è molto critica. Molte persone non hanno più quell’interlocuzione per cui uno va dal suo medico, ci sta un quarto d’ora e questi ricompone un po’ il quadro. Dal post Covid avviene ormai quasi tutto per via telematica, senza più visite; a volte è già un miracolo che ci sia un interlocutore che risponde facendo una ricetta elettronica.
Resta poi il fatto che oggi tutto il patrimonio di informazioni e di conoscenze che noi abbiamo non è utilizzabile per la ricerca. Chi mi cura, ad esempio, non riesce a estrarre i dati degli altri pazienti col mio timoma, che è una malattia rara. Qui potrebbero esserci evoluzioni importanti. Ottenere dati aggregati tutelando la privacy non mi sembra un’impresa impossibile. L’impressione è che di fronte a tante promesse utopiche dell’intelligenza artificiale, già oggi ci si potrebbe comunque muovere sul fronte di una sperimentazione anche un po’ di cantiere, senza mega finanziamenti.
Tra gli ambiti d’uso dell’intelligenza artificiale c’è anche l’analisi delle immagini...
L’analisi delle immagini è fra i settori più promettenti per rendere più oggettivo il criterio di valutazione. Come ricordavamo però la clinica è basata sull’incontro fra valutazione oggettiva e conoscenza di qualche cosa che è molto meno protocollabile; il famoso “occhio clinico”. È difficile precisarlo scientificamente, ma è innegabile il ruolo dell’intuito clinico di un esperto.
Comunque, se pensiamo, non a una macchina che sostituisce, ma a una macchina che supporta, l’evoluzione in anatomia patologica, nell’imaging radiografico e dovunque ci sia immagine vede un indubbio miglioramento. Detto questo, bisognerà lavorare affinché una maggiore fondatezza su dati abbia riscontro in una maggiore efficacia ed efficienza clinica. L’esperienza ci ha infatti insegnato che non sempre vedere tutto serve; deve essere giustificato da un bilanciamento clinico. L’introduzione di certi esami ha prodotto un aumento dei costi ma non necessariamente un vantaggio clinico per i pazienti. Si tratta di una questione che va oltre la mera gestione dei dati e che spesso comporta un bilanciamento di valori.
Recentemente si è parlato dell’uso di chatbot nella salute mentale...
Non ho ancora avuto occasione di studiarli; non ho un osservatorio; me ne sono interessato guardando la letteratura. Su certe tematiche di salute mentale, come la prevenzione al suicidio,  avere una possibilità di consulenza di primo livello, con anche un interlocutore diciamo artificiale, che rilancia l’idea che c’è un domani, che c’è un ascolto, che il tuo dolore è importante, pare possa produrre dei risultati. Il gap da colmare ora è quello dal “sentore” alla verifica sperimentale; occorre raccogliere informazioni. È chiaro che se noi pensiamo al mondo perfetto, giustamente vogliamo un aiuto in presenza con qualcuno che ti può vedere. Non dobbiamo però dimenticare che oggi mediamente un paziente con un problema psichiatrico, nel servizio pubblico ha a disposizione pochi minuti al mese dallo psichiatra.
Io penso che dentro un’idea un po’ integrata e umanistica di queste cose, una formula di questo tipo ci possa stare. Quello che non vedo, ripeto, è la sostituzione, cioè se noi sostituiamo la persona con la macchina stiamo fallendo. Se, al contrario, riusciamo ad aumentare una quota di umanità perché gli operatori non sono più impegnati a spalare carte, quello è un buon risultato. Su certe funzioni burocratiche e organizzative la macchina potrebbe essere utilissima a liberare tempo permettendo al medico di dedicare le proprie risorse al paziente.
Apro una parentesi. Esistono anche dei bot inquietanti descritti in letteratura che riguardano, ad esempio, tutto il tema del lutto. Si addestrano dei bot con materiale del defunto per poter rimanere in dialogo con una specie di clone. Negli Stati Uniti sono già in uso, ma laggiù, come ricordavamo, ci sono delle coordinate sul lutto diverse: per commemorare fanno la festa con la grigliata, da noi ci sono altre abitudini.
Qui l’obiettivo è quello di creare un’illusione di sopravvivenza.
Sappiamo che l’elaborazione del lutto varia nelle varie culture. Il rischio che vedo è di una specie di riattualizzazione. Anni fa quando mi occupavo di trapianti di organi, c’erano alcune persone a cui l’idea della sopravvivenza di un organo dentro il corpo di un paziente trapiantato poteva creare delle difficoltà nell’elaborazione del lutto; era come se a un certo punto non si potesse dire: il mio congiunto è morto... una strana idea di sopravvivenza che rendeva talvolta necessario un lavoro di psicoterapia.
Io comunque ho fatto un test: ho chiesto a ChatGpt di fare una specie di decalogo di cose che io potrei lasciare dette sul modo di intendere il mondo. Beh, l’ha scritto che meglio io non avrei potuto; è anche un po’ scherzoso. Non l’avrei scritto proprio così, ma leggerlo è stato abbastanza vertiginoso... è come se avesse capacità di maneggiare aspetti non solo cognitivi ma con una valenza emotiva. Tant’è vero che l’algoritmo che unisce parole e significati permette di calibrare tonalità emotive. Per gioco possiamo fargli rappresentare immagini e poi dirgli: “Aumentami l’emozione”, “Aumentami l’empatia” e lo vediamo mutare di tonalità. Da qui ad attribuirgli una vitalità, una coscienza... Ci dobbiamo sempre ricordare che è un apparato di simulazione. Il rischio è di vederci cose un po’ animistiche. D’altra parte abbiamo animato di prospettive sovrumane qualsiasi oggetto; adesso è il turno della macchina, grazie al fatto che fa delle cose mirabolanti.
Tra i suoi colleghi questa opportunità com’è stata accolta?
Aumenta l’interesse e il dibattito, anche se non coi tempi che avrei immaginato. A livello universitario ora si sta discutendo anche del tema dell’impatto dell’intelligenza artificiale sui processi di costruzione del sapere scientifico. Ho partecipato sia in università che in ospedale a eventi informativi dove ci si inizia a interrogare sull’opportunità di far fare una revisione a una macchina, su come la possiamo far svolgere bene. Dall’altra parte sta emergendo il problema di un’invasione di pubblicazioni costruite dalla macchina, a cui bisogna impedire un accesso.
È appena uscito un bel libro, Sul pubblicare in medicina di Luca De Fiore, direttore del Pensiero scientifico, in cui parla delle cosiddette “paper mill” che sono queste fabbriche dove si producono in serie lavori pseudo-scientifici, e del rischio che l’ambito della ricerca possa essere intossicato se l’intelligenza artificiale viene usata in modo improprio. Viceversa nel processo di revisione di un articolo, io mi potrei servire -se lo so fare- dell’Ai per migliorare e velocizzare il processo critico e quindi il vaglio per valutare se quel testo è valido o meno.
A febbraio abbiamo fatto un convegno interno in istituto sul tema delicato di dire la verità agli adolescenti rispetto alla malattia oncologica. Quando ho iniziato a fare il medico, la verità era un accessorio per il paziente; poi ci si è resi conto che la verità è un aspetto importante; allo stesso tempo maneggiarla in un modo umano, umanistico è molto delicato. Io ero rimasto un po’ indietro sulla nuova letteratura uscita. Questi strumenti mi hanno dato la possibilità di arrivare al convegno abbastanza preparato, cosa che in altri tempi, senza un supporto di collaboratori o borsisti, non sarei riuscito a fare.
In momenti di stanchezza, affaticamento, impatto con qualche cosa di gravoso, questo strumento mi ha permesso una forma di compensazione, cioè di avere qualcosa in più in un momento in cui c’era qualcosa di meno, trovando un nuovo equilibrio. Se vuole, è una specie di interlocutore motivante: qualcuno che ti dà un po’ retta (casomai pure troppa, perché non ti contraddice mai) che può assumere un ruolo interessante anche nella generazione delle idee, nel brainstorming.
In un periodo di debolezza psico-fisica, l’intelligenza artificiale è stata per me un curioso ausilio, una bella possibilità.
Visto dalla parte del paziente, come già accadeva con Google, può essere attrattiva la possibilità di andare a chiedere un’altra diagnosi, un’altra opinione, un’altra prognosi. Su questo come la vede?
È delicatissimo. L’abbiamo già detto: fare il paziente è una roba molto complicata. In questa sfortuna io mi sono trovato a essere fortunato perché ho avuto fin dall’inizio piena fiducia in chi mi cura.
In una fase di recidiva, ho deciso di tornare nel posto dove lavoro e dove mi sentivo più protetto sul fronte di un andamento potenzialmente sfavorevole, perché ci sono strutture di cure palliative e di terapia del dolore. Ho fatto questa scelta in armonia con chi mi aveva curato fino a quel momento. L’idea che una malattia possa andare male appartiene alla categoria dell’impensabile e ahimè questo già espone a una serie di fragilità.
L’intelligenza artificiale dà una possibilità di ampliamento di risposte. Il rischio è di finire in un labirinto perché per ogni scelta clinica ci sono alternative possibili, con l’aggravante che non abbiamo dei sistemi per formare i pazienti a porre dei buoni quesiti. Temo che questo sarà uno dei problemi emergenti.
Se oggi chiedo all’Ai come va a finire la mia malattia, mi risponde in una maniera che si vede che c’è dietro un avvocato americano, si percepisce che c’è una programmazione improntata a prudenza e responsabilità, tant’è che ti rinviano sempre al medico, ci sono dei disclaimer... sono state messe delle pezze abbastanza visibili per evitare di incorrere in sanzioni.
Io continuo a preferire il dialogo con il mio medico con cui ho stabilito una relazione e che quindi può dirmi -faccio un esempio concreto- “Guarda, hai una Tac lunedì, anche se c’è una progressione, la terapia la continuiamo lo stesso”, che è un modo delicatissimo per dire che non molla, che non mi abbandona se le cose vanno male; che gli interessa il rigore scientifico, ma anche che io viva delle giornate sensate.
Se invece ci schiacciamo soltanto su parametri oggettivi, per cui io ti consegno un responso di cui non mi occupo e in assenza di una relazione, il rischio è di ridurre la medicina a un atto commerciale, tecnico.
Le faccio un altro esempio. Prendiamo certi rischi genetici. In alcuni casi sarebbe forse meglio non sapere, perché non c’è prevenzione possibile e quindi produrre un allarme indiscriminato sarebbe solo dannoso. Oggi, in alcuni contesti, soprattutto statunitensi, il testing genetico è stato reso un “prodotto”, per cui io ottengo un referto e poi lo devo reimpacchettare nella mia vita, oltretutto in un regime di sanità privatistico dove quel dato può avere un impatto anche sull’assicurazione. Quindi attenzione a scoperchiare questo vaso di Pandora... anche perché sappiamo che non è l’onnipotenza la via della salvezza. Ce lo dice la nostra mitologia antica.
Personalmente sono convinto che a guidarci non debbano essere i criteri di una buona produzione industriale. La buona vita è fatta anche di altre cose. Il punto è mediare: un buon imaging può agevolare una decisione, ma guai a pensare di sostituire il medico con un atto tecnico.
Io credo che l’attualità del dibattito debba rimanere focalizzata su questo. Mentre il rischio è che ci siano nuove proposte di strumenti, certo evoluti, ma che ci fanno perdere il contatto con la dimensione umanistica che la clinica deve avere.
L’altro tema cruciale riguarda gli esclusi, chi non riesce ad accedere a queste opportunità per mancanza di strumenti, e quindi il rischio che queste prospettive così promettenti lascino fuori strati di popolazione, a partire dagli anziani.
Per concludere?
Questo nuovo strumento ci sta costringendo a interrogarci su cosa voglia dire fare il medico. È un’occasione preziosa. Come ho tentato di spiegare, io vedo in questi servizi un potenziale di tutoraggio a sostegno della compliance del paziente, come si dice in medicina, e di supporto per i medici oggi gravati dalla burocrazia. Ecco, la mia speranza è che l’intelligenza artificiale trovi impiego per restituire tempo al rapporto medico-paziente. Poter interloquire con qualcuno che semplicemente ti ascolta e ti guarda in faccia è alla base della clinica. Occuparsi del tema della salute per me allora oggi vuol dire soprattutto supportare gli elementi di relazione, perché la cura è questo. Sembra ormai un concetto esotico, ma c’è una parte anche di accudimento nel curare bene.
(a cura di Barbara Bertoncin)