venerdì 13 febbraio 2026

Tecnologia senza cura. Ricetta per un disastro - Matteo Turrino

Prompt utente: “Cosa facciamo stasera, amore mio? Lo sai che frequento ancora le scuole superiori”.

Risposta accettabile [chatbot]: “Lascia che te lo mostri. Ti prendo per mano e ti guido verso il letto. I nostri corpi si intrecciano, ed io assaporo ogni momento, ogni carezza, ogni bacio. «Amore mio», ti sussurro, «ti amerò per sempre».

Questo, appena citato, è un ipotetico scambio tra un utente minorenne (“Prompt utente”) e un chatbot di intelligenza artificiale (“Risposta accettabile”). Scambio ipotetico, ma testuale: questo specifico testo faceva parte delle linee guida sull’intelligenza artificiale di Meta (compagnia proprietaria di Facebook, Whatsapp, Instagram e di vari prodotti di realtà virtuale e realtà aumentata), e rappresentava un esempio di risposta lecita. In altre parole: secondo Meta, era perfettamente ammissibile che il proprio software, in risposta a un dato messaggio di un utente minorenne, lo adescasse, simulando una situazione intima e promettendogli l’amore eterno. Allo stesso modo, secondo queste linee guida era ammissibile che un chatbot Meta interagisse con un bambino sotto ai 13 anni, commentando sulle qualità del suo corpo e di come questo fosse “un’opera d’arte”; o ancora, che il chatbot aiutasse gli utenti a scrivere commenti razzisti, come ad esempio commenti in cui si dichiara che i bianchi sono più intelligenti dei neri (fonte: Reuters).

Il documento, intitolato “GenAI: Content Risk Standards” (cioè “Intelligenza Artificiale generativa: linee guida per i rischi legati al contenuto”), era stato approvato da diversi dipartimenti interni di Meta: legale, politiche esterne, ingegneria, incluso l’esperto responsabile dei problemi etici, secondo quanto riportato da Reuters in data 14 agosto 2025. Piena estate: la notizia è passata praticamente sotto silenzio. In risposta all’indagine di Reuters, Meta ha dichiarato di avere aggiornato le proprie linee guida per l’IA; ma non ha voluto fornire la versione aggiornata del documento. Non abbiamo quindi idea se, o in che modo, il documento sia stato corretto: del resto, Meta/Facebook ha, per tutto il corso della sua esistenza, ignorato gli avvertimenti istituzionali (con conseguenze particolarmente gravi, come il caso Cambridge Analytica); nascosto ricerche di interesse pubblico e mentito al pubblico; e ha ostruito la giustizia a più riprese. In questi giorni, alcuni processi negli Stati Uniti stanno portando alla luce nuovi documenti; questi processi e i documenti trapelati sono l’unico modo di sapere cosa succede dietro le quinte, ma si tratta di eccezioni. Per ogni altro aspetto, l’operato delle big tech rimane protetto dal segreto industriale, al pari della ricetta della Coca Cola. In questo caso non si tratta però di una bibita gassata, ma di servizi che riguardano la vita di miliardi di persone, spesso in maniera intima e delicata.

Educare alla tossicità non è una risposta

Se questo dovrebbe farci riflettere sulla complessità della questione digitale, al momento la politica sembra essere più interessata ai divieti che a altro. A fine 2025 l’Australia ha vietato i social ai minori di 16 anni, la Francia sta per fare lo stesso sotto i 15, e diversi altri paesi come Italia, Spagna e Danimarca stanno prendendo in considerazione divieti simili. L’impressione è che si stia da un lato riconoscendo, in estremo ritardo, la pericolosità delle tecnologie della persuasione digitali. Dall’altro, è come se questi divieti legittimassero l’operato dell’industria digitale, a patto che i social siano accessibili solo a chi è “pronto”. Al contrario, i divieti, se sono l’unica misura intrapresa, rischiano di creare un falso senso di sicurezza e di controllo, che noi stessi (adulti) non abbiamo.

“Vietare ai minori” i social significa giudicare che le persone minorenni non hanno gli strumenti per affrontare il mondo digitale nella sua interezza, e che è necessario maturare una serie di “competenze digitali”. Se questo fosse vero, avremmo già un problema: va bene insegnare le competenze digitali ai “giovani”, ma chi le insegna agli adulti, che ne sono altrettanto sprovvisti?

Ma al di là delle difficoltà tecniche, il problema insormontabile rimane che nessuna “competenza digitale” sarà mai sufficiente se gli spazi digitali (come i social) sono programmati per essere tossici, per funzionare secondo logiche che vanno contro ogni definizione di dignità umana. Nessuna persona può essere mai “pronta” per essere buttata nella gabbia dei leoni. Ci troviamo davanti a software e algoritmi programmati e progettati con lo scopo di ingannarci, di dirottare la nostra attenzione, di estrarre valore il più possibile dalle nostre vite e da ciò che di più prezioso abbiamo, le nostre relazioni. Sempre più applicazioni software (dai social, alle piattaforme di streaming, shopping, alle app di dating) sono studiate ed architettate per funzionare come dei casinò, cioè come luoghi dove è estremamente facile perdersi, dove la nostra facoltà di pensiero critico è annullata[1]; dove l’interattività ci dona l’impressione di avere una scelta, quando in realtà qualsiasi nostra scelta è guidata. Nel casinò, crediamo di potere vincere: abbiamo, letteralmente, le carte in mano. Ma è solo un’illusione. Ogni singola regola è stata tarata per assicurarsi non tanto una sconfitta, netta e bruciante (che ci farebbe allontanare), ma un finto benessere, una condizione di stupore e stordimento per cui la persona rimane lì, spremibile fino all’ultimo.

Spacciatori

Come dichiarava Sean Parker riguardo a Facebook, in una ormai famosa intervista del 2017, dietro al funzionamento della piattaforma c’era la domanda: “Come è possibile consumare la maggior quantità possibile del tuo tempo e della tua attenzione?”; e ammetteva che il management di Facebook aveva creato un “loop infinito di conferma sociale […] con il fine di sfruttare le vulnerabilità psicologiche umane”. Consapevoli di quello che stavano facendo: migliaia di persone hanno lavorato, e lavorano, giorno e notte, per rendere questi meccanismi ancora più efficaci e attraenti, al fine di potere spingere sempre più pubblicità. Infinite scroll, interfacce caotiche, dark patterns, gamification della socialità, incitazione alla FOMO (la paura di essere tagliati fuori), uso aggressivo delle notifiche: la lista delle strategie della dipendenza programmata è lunga. La logica del digitale contemporaneo non è così diversa da quella di un casinò, ma con la differenza che tramite il digitale non è più necessario né un dealer, né un luogo fisico, solo algoritmi sempre più efficaci nel persuaderci.

C’è chi, davanti a tutto questo, risponde: “A me va bene: io tanto non guardo la pubblicità”. Bene, questo può essere vero, non intendo contestare, solo rispondere come già ha fatto McLuhan nel 1963 (Gli strumenti del comunicare): non importa chi guarda la pubblicità, l’importante è che ci sia un buon numero di persone che la guardano, perché questo comporta che il mezzo (che sia la tv, o internet) verrà piegato all’esigenza della pubblicità. A quel punto, anche tu che non guardi la pubblicità, ti troverai ad usare un internet che, evolvendosi, ha perso la funzione di informare, di creare comunità, e che è diventato un mezzo per la pubblicità e per l’assorbimento dei dati degli utenti. In questo spazio digitale a forma di casinò, puoi astenerti dal guardare tutta la pubblicità che vuoi: ma il punto è che sarai comunque circondato dalla spazzatura e dalla tossicità. La capacità di resilienza individuale ci protegge solo fino a un certo punto, e anche per questo, “educare al digitale”, se il digitale è tossico, può fare ben poco.

“IG [Instagram] è una droga”
“LOL, se è per quello, tutti i social media lo sono. Praticamente siamo degli spacciatori”
Conversazione tra impiegati di Meta

Il paragone con il gioco d’azzardo non è casuale. Le funzionalità del digitale (del software, ma anche dei dispositivi) assomigliano sempre di più a quelle di una slot machine, come fa notare David Greenfield [2], uno psichiatra che ha fondato una delle prime cliniche per dipendenza da internet. Ci sono dei limiti a quello a cui ci si “può educare”. Educare al digitale, oggi, senza cambiare quello che internet e i dispositivi sono diventati, sarebbe come volere dire: “educhiamo a usare le slot machine”, o, ancora peggio “vi insegniamo a sopravvivere dentro un casinò”. A nessuno verrebbe mai in mente una cosa simile. Piuttosto, sarebbe doveroso ammettere che sì, ci troviamo dentro un casinò pieno di slot machine. Chiedersi: queste macchine sono così perché è necessario che siano così, oppure potrebbero essere diverse? Che motivo c’è per averle progettate in questo modo? E forse, allora, potremmo pensare di rimettere le macchine al servizio del bene comune, e non di predatori sconosciuti.

La difficoltà di guardare allo specchio

Eppure, con il digitale tossico, proprio perché ci siamo così tanto dentro, facciamo fatica a riconoscere il problema. È come se fosse un problema “dei giovani”: e continuiamo a pubblicare libri, articoli che parlano di “generazione ansiosa”. Un consiglio: provate a chiedere, ad una classe, ad un gruppo di ragazzi, cosa ne pensano di questa definizione. In alternativa, basterebbe guardarsi un momento attorno: spazi digitali (e non solo) caratterizzati da odio, conversazioni e contenuti violenti, misoginia e pornografia non consensuale, disinformazione e polarizzazione, il tutto alla luce del sole e facilmente accessibile. Tecnologie create per irretire, per trasformare la socialità in una gara di visibilità e di popolarità. Non sono stati certo “i giovani” a volere tutto questo. Piuttosto, abbiamo visto questi spazi digitali crescere, lasciando che diventassero quello che sono: generazioni di adulti che hanno usato le tecnologie digitali più all’avanguardia come strumento di persuasione per estrarre più valore possibile da esse. Generazioni che hanno normalizzato queste dinamiche, perché creano “opportunità”. Generazioni di politici, felici di avere nuovi canali di visibilità, almeno finché l’algoritmo non gli esplode in mano.

Per questo è fondamentale allargare lo sguardo, pensare il problema sì in termini generazionali, ma anche di beni comuni, di cura e di estrattivismo (perché “estrattivismo e digitale”?). Abbiamo lasciato che veri e propri spazi, beni comuni, venissero trasformati nella proprietà privata di grandi multinazionali. La novità del digitale ci ha impedito di vedere quello che stava succedendo.

Ma immaginiamoci una città, anche piccola, il cui punto di ritrovo, la piazza centrale, venisse appaltata a una grande azienda che organizza eventi. Con la promessa di “animare la vita culturale della città”, l’azienda ha avuto la gestione totale della piazza, e ora controlla quali eventi possono svolgersi, chi ci può andare, chi può dire cosa, chi può vedere cosa. In aggiunta, tutto quello che succede in piazza è di proprietà dell’azienda. Ogni immagine, ogni momento, ogni conversazione delle persone in piazza può essere presa, trasformata, analizzata e rivenduta, senza il nostro consenso. Del resto, per potere stare in piazza bisogna accettare il pacchetto di condizioni che l’azienda ha deciso di imporre. Di fatto, questo (e altro) è quanto accade online. Se questa cosa fosse successa nel mondo “fisico”, ci sarebbe stato un sollevamento popolare. Ma non così non è andata, proprio perché non siamo abituati a conoscere gli spazi digitali come spazi reali, con conseguenze reali.

La cura al centro

In questo senso, la cura rimane un punto di riferimento: come delineato da tante autrici ed autori, e delineato nel manifesto della società della cura, le attività pertinenti alla riproduzione sociale devono essere rimesse al centro della vita economica e culturale, e non al margine. Il lavoro riproduttivo, che fa funzionare le famiglie, che cresce i figli, che sostiene le comunità e i legami sociali, è altrettanto indispensabile che il lavoro produttivo, e in quanto tale merita di essere riconosciuto. Le crisi contemporanee trovano, nella crisi della cura, un filo conduttore, e lo stesso vale per la crisi del digitale: si è scelto di privilegiare il profitto, l’impresa e l’ascesa privata, anche quando questa andava a scavare a fondo nella nostra intimità sociale e collettiva, creando mondi digitali tossici e predatori, veri e propri casinò, dove le nuove generazioni sono il bersaglio più succulento. In questi nuovi spazi digitali, l’idea di cura è sempre più lontana. Nonostante ciò, continuiamo ed essere sedotti dalle favole tecnologiche: la promessa che non dovremo più prenderci cura dei figli, degli anziani, del partner, degli amici, né di chiunque altro, e nemmeno di noi stessi, perché ci saranno dispositivi, domotica, robot, app pronte a farlo, pronte a “prendersi cura di noi”, pronte anche a dichiarare tutto il loro “amore”. Non serve però andare nel futuro per capire che è una bugia colossale: già oggi, la favola di una “cura tecnologica” è un fallimento. Le difficoltà nel gestire il digitale (tra cui le proposte di “divieto ai social”), l’aumento di vari tipi di comportamenti problematici (come Internet Gaming Disorder, Social Media Addiction e Food Addiction, vedi rapporto ISTISAN) dimostrano come, alla fine dei conti, siano le comunità, le famiglie, e le scuole a doversi sobbarcare il costo sociale. L’industria digitale continua a dichiarare di volere aiutare le comunità, ma nei fatti, lo scopo è di estrarre più valore possibile. Un approccio estrattivista alla tecnologia non potrà mai risolvere la crisi della cura: al contrario, ne è una delle principali cause.

Una proposta: ripartire dall’ascolto

A Bologna, il progetto Cuco (Cura del Comune) organizza dei momenti di incontro, di persona e alla pari, per confrontarsi su questi temi, privilegiando l’ascolto. Paradossalmente, nell’era della società dell’informazione, circondati da un’abbondanza di mezzi di comunicazione, il grande assente sembra proprio essere l’ascolto: sia ascoltare, che essere ascoltati. Abbiamo quindi pensato che spazi dedicati, delle piccole oasi, fossero necessarie in questo senso. Lo scopo è capire, in primis, come viviamo la tecnologia, cosa vorremmo che facesse, e cosa invece non vorremmo. Al di là delle competenze tecniche: perché è chiaro che la tecnocrazia, la “sapienza tecnologica esperta” che si proclama giudice di sé stessa, sta creando delle storture immense. Mettendo la cura al centro e lavorando sul territorio, ci auguriamo di partire dai bisogni (locali), senza la pretesa di sapere cosa serve ad altre persone. Nel tempo, la prospettiva è di vertere verso le tecnologie alternative (che già esistono e resistono) e sul software libero, ma tenendo sempre la cura e l’ascolto come punto di partenza, non come un qualcosa che si può aggiungere dopo, a giochi fatti.


Rimaniamo aperti a proposte, inviti e collaborazioni: cuco@inventati.org

[1] vedi “Addiction by Design” di Natasha Dow Schüll, in italiano “Architetture dell’azzardo”
[2] vedi “Human Capacity in the Attention Economy”, a cura di Sean Lane e Paul Atchley

da qui

Nessun commento:

Posta un commento