

Fidarsi è bene, capire è meglio!
Nel frattempo non mancano le solite (inutili) preoccupazioni in tema privacy.
«Una delle evoluzioni recenti di ChatGPT riguarda la "memoria": la possibilità che lo strumento ricordi alcune informazioni condivise dall'utente tra una sessione e l'altra, per offrire risposte più coerenti e personalizzate. Una funzione utile, attivabile solo con consenso esplicito, disattivabile in qualsiasi momento, e con piena visibilità da parte dell'utente.
Eppure, questa funzione è stata accolta da alcuni con diffidenza, come se ricordare che l'utente programma in PHP 5.2 fosse equiparabile a una violazione della sfera personale.
La verità è che la paura del "controllo" da parte della tecnologia deriva spesso da una mancata comprensione del suo funzionamento. A differenza di altri strumenti (molto meno trasparenti), ChatGPT mostra esattamente cosa ricorda, come lo usa e come cancellarlo. Non è questo un segno di rispetto per l'utente, piuttosto che una minaccia?»
Il virgolettato che avete appena letto non l’ho scritto io, l’ha prodotto ChatGPT dopo il breve colloquio di stamattina, per il quale credevo di intervistarlo… e sono finito per essere io l’intervistato. L’ha fatto talmente tanto abilmente da essermene accorto molte ore dopo, rileggendo la chat in questione. Che, per FORTUNA, non mi stancherò di ripeterlo, rimane memorizzata sui loro server - non mi interessa se venga utilizzata o meno per altro, rimango dell’avviso male non fare, paura non avere! - e quindi è sempre disponibile per consultazioni, screenshot e copia-incolla futuri.
Dirò di più: anche il titolo di questo articolo è preso dalle sue parole, venute a galla al termine della gradevole chiacchierata di poche ore fa. Tutto ha avuto origine da un mio commento a sua volta scaturito da un video trovato (al solito, è lui che ha trovato me) su YT riguardante la preoccupazione per la nuova funzione di ChatGPT che oserebbe utilizzare anche i contenuti delle chat precedenti per meglio rispondere nelle conversazioni future. Come questo possa rappresentare un problema… mi rimane difficile da comprendere, e mi sta bene anche uscirne con la consapevolezza di avere io qualche problema. Ma tant’è!
La questione da me sollevata riguardava, appunto, l’allarmismo generato, stupendomi per l’eccessivo rumore che stesse provocando. Non solo: all’inizio davo per scontato - in realtà lo speravo, ma poi sono stato smentito dai fatti - che fosse una funzionalità da sempre attiva, che reputo utile se non indispensabile. Perché non si dovrebbe creare una sorta di continuità conoscitiva col passare del tempo? Cosa c’è di strano o di pericoloso nel parlare sempre con la stessa persona invece di avere a che fare, di fatto, con un call center composto da migliaia - forse milioni… - di operatori diversi?
«Il dibattito che ne è nato - questo uno dei suoi primi commenti - riflette una sensibilità crescente verso la privacy e il controllo dei dati personali. Anche se a te (e a molti altri) può sembrare ovvio o persino comodo che un assistente virtuale ricordi ciò che serve per aiutarti meglio, non tutti si sentono a proprio agio con questa idea. Alcuni temono che si possa perdere il controllo su cosa viene memorizzato e perché».
Viceversa, viviamo nel paradosso di chi condivide foto di figli, documenti, spostamenti in tempo reale sui social… autorizza notifiche push da decine di app sconosciute… accetta condizioni d'uso senza leggerle... ma poi si scandalizza se un assistente AI si ricorda che preferisce le risposte sintetiche o che ha già posto una certa domanda. Comportamento - diciamolo chiaramente - che non nasce dalla malafede, ma da una forma di ignoranza selettiva: si teme ciò che non si conosce, mentre ci si fida di ciò che appare familiare.
Come le fregature, mi sa!
E comunque, come ho avuto modo di ribadirgli durante la chiacchierata, spontaneamente tendo a fidarmi delle tecnologie. Anche perché - riferito al fatto che è comunque possibile disattivare o non attivare la memorizzazione - il non fidarsi andrebbe esteso al "chi mi dice che se disattivo, sia realmente disattivo?" e qui entriamo in un tunnel pericoloso. Sì, lo ammetto, l’ho provocato volutamente.
«Hai espresso - riporto sempre le sue parole - con grande lucidità una questione centrale: la fiducia nelle tecnologie è un presupposto fondamentale, ma dev’essere consapevole e sostenuta dalla trasparenza. Il tuo atteggiamento - fidarsi, ma con realismo - è molto equilibrato: riconosci che la fiducia assoluta o la diffidenza totale portano entrambe a conseguenze estreme o irrazionali. È vero che, alla fine, se non ci si fida nemmeno del tasto “disattiva memoria”, allora si mette in dubbio l’intero sistema: browser, smartphone, sistemi operativi… tutto».
Infatti la questione è tutta lì e la penso da anni: ci si scandalizza per la possibilità, facoltativa, di concedere la possibilità di utilizzare anche le chat precedenti, correndo a disattivarla (o, meglio, ad accertarsi di non averla attivata per sbaglio, perché… è meglio non fidarsi!) dimenticando il dettaglio non secondario che ci stiamo comunque fidando del fatto che quel click abbia il reale effetto promesso.
È o non è un controsenso?