Prompt utente: “Cosa facciamo stasera, amore mio? Lo sai che frequento ancora le scuole superiori”.
Risposta accettabile [chatbot]: “Lascia che te lo mostri. Ti prendo
per mano e ti guido verso il letto. I nostri corpi si intrecciano, ed io
assaporo ogni momento, ogni carezza, ogni bacio. «Amore mio», ti
sussurro, «ti amerò per sempre».
Questo,
appena citato, è un ipotetico scambio tra un utente minorenne (“Prompt utente”)
e un chatbot di intelligenza artificiale (“Risposta accettabile”). Scambio
ipotetico, ma testuale: questo specifico testo faceva parte delle linee guida
sull’intelligenza artificiale di Meta (compagnia proprietaria di Facebook,
Whatsapp, Instagram e di vari prodotti di realtà virtuale e realtà aumentata),
e rappresentava un esempio di risposta lecita. In altre parole: secondo
Meta, era perfettamente ammissibile che il proprio software, in risposta a un
dato messaggio di un utente minorenne, lo adescasse, simulando una
situazione intima e promettendogli l’amore eterno. Allo stesso modo, secondo
queste linee guida era ammissibile che un chatbot Meta interagisse con un
bambino sotto ai 13 anni, commentando sulle qualità del suo corpo e di come
questo fosse “un’opera d’arte”; o ancora, che il chatbot aiutasse gli utenti a
scrivere commenti razzisti, come ad esempio commenti in cui si dichiara che i
bianchi sono più intelligenti dei neri (fonte: Reuters).
Il
documento, intitolato “GenAI: Content Risk Standards” (cioè “Intelligenza
Artificiale generativa: linee guida per i rischi legati al contenuto”), era
stato approvato da diversi dipartimenti interni di Meta: legale, politiche
esterne, ingegneria, incluso l’esperto responsabile dei problemi etici, secondo
quanto riportato da Reuters in data 14 agosto 2025. Piena estate: la notizia è
passata praticamente sotto silenzio. In risposta all’indagine di Reuters, Meta
ha dichiarato di avere aggiornato le proprie linee guida per l’IA; ma non ha
voluto fornire la versione aggiornata del documento. Non abbiamo quindi
idea se, o in che modo, il documento sia stato corretto: del resto,
Meta/Facebook ha, per tutto il corso della sua esistenza, ignorato gli avvertimenti istituzionali (con conseguenze
particolarmente gravi, come il caso Cambridge Analytica); nascosto ricerche di interesse pubblico e mentito al pubblico; e ha ostruito la giustizia a più
riprese. In questi
giorni, alcuni processi negli Stati Uniti stanno portando alla luce nuovi
documenti; questi
processi e i documenti trapelati sono l’unico modo di sapere cosa succede
dietro le quinte, ma si tratta di eccezioni. Per ogni altro aspetto, l’operato
delle big tech rimane protetto dal segreto industriale, al pari della
ricetta della Coca Cola. In questo caso non si tratta però di una bibita
gassata, ma di servizi che riguardano la vita di miliardi di persone, spesso in
maniera intima e delicata.
Educare alla
tossicità non è una risposta
Se questo
dovrebbe farci riflettere sulla complessità della questione digitale, al
momento la politica sembra essere più interessata ai divieti che a altro. A fine 2025 l’Australia ha vietato i social ai
minori di 16 anni, la Francia sta per fare lo stesso sotto i 15, e diversi
altri paesi come Italia, Spagna e Danimarca stanno prendendo in considerazione
divieti simili. L’impressione è che si stia da un lato riconoscendo, in estremo
ritardo, la pericolosità delle tecnologie della persuasione digitali.
Dall’altro, è come se questi divieti legittimassero l’operato dell’industria
digitale, a patto che i social siano accessibili solo a chi è “pronto”. Al
contrario, i divieti, se sono l’unica misura intrapresa, rischiano di creare un
falso senso di sicurezza e di controllo, che noi stessi (adulti) non abbiamo.
“Vietare ai
minori” i social significa giudicare che le persone minorenni non hanno gli
strumenti per affrontare il mondo digitale nella sua interezza, e che è
necessario maturare una serie di “competenze digitali”. Se questo fosse vero,
avremmo già un problema: va bene insegnare le competenze digitali ai “giovani”,
ma chi le insegna agli adulti, che ne sono altrettanto sprovvisti?
Ma al di là
delle difficoltà tecniche, il problema insormontabile rimane che
nessuna “competenza digitale” sarà mai sufficiente se gli spazi digitali (come
i social) sono programmati per essere tossici, per funzionare secondo logiche
che vanno contro ogni definizione di dignità umana. Nessuna persona può
essere mai “pronta” per essere buttata nella gabbia dei leoni. Ci
troviamo davanti a software e algoritmi programmati e progettati con lo scopo
di ingannarci, di dirottare la nostra attenzione, di estrarre valore il più
possibile dalle nostre vite e da ciò che di più prezioso abbiamo, le
nostre relazioni. Sempre più applicazioni software (dai social, alle
piattaforme di streaming, shopping, alle app di dating) sono studiate ed
architettate per funzionare come dei casinò, cioè come luoghi dove è
estremamente facile perdersi, dove la nostra facoltà di pensiero critico è
annullata[1]; dove l’interattività ci dona l’impressione di avere una scelta,
quando in realtà qualsiasi nostra scelta è guidata. Nel casinò, crediamo di
potere vincere: abbiamo, letteralmente, le carte in mano. Ma è solo
un’illusione. Ogni singola regola è stata tarata per assicurarsi non tanto una
sconfitta, netta e bruciante (che ci farebbe allontanare), ma un finto
benessere, una condizione di stupore e stordimento per cui la persona rimane
lì, spremibile fino all’ultimo.
Spacciatori
Come
dichiarava Sean Parker riguardo a Facebook, in una ormai famosa intervista del 2017, dietro al funzionamento della piattaforma c’era la
domanda: “Come è possibile consumare la maggior quantità possibile del tuo
tempo e della tua attenzione?”; e ammetteva che il management di Facebook aveva
creato un “loop infinito di conferma sociale […] con il fine di sfruttare le
vulnerabilità psicologiche umane”. Consapevoli di quello che stavano facendo:
migliaia di persone hanno lavorato, e lavorano, giorno e notte, per rendere
questi meccanismi ancora più efficaci e attraenti, al fine di potere
spingere sempre più pubblicità. Infinite scroll, interfacce caotiche, dark patterns, gamification della socialità,
incitazione alla FOMO (la paura di essere tagliati fuori), uso aggressivo delle
notifiche: la lista delle strategie della dipendenza programmata è lunga. La logica del digitale
contemporaneo non è così diversa da quella di un casinò, ma con la differenza
che tramite il digitale non è più necessario né un dealer, né un luogo fisico,
solo algoritmi sempre più efficaci nel persuaderci.
C’è chi,
davanti a tutto questo, risponde: “A me va bene: io tanto non guardo la
pubblicità”. Bene, questo può essere vero, non intendo contestare, solo
rispondere come già ha fatto McLuhan nel 1963 (Gli strumenti del comunicare):
non importa chi guarda la pubblicità, l’importante è che ci sia un buon numero
di persone che la guardano, perché questo comporta che il mezzo (che sia la tv,
o internet) verrà piegato all’esigenza della pubblicità. A quel punto, anche tu
che non guardi la pubblicità, ti troverai ad usare un internet che, evolvendosi,
ha perso la funzione di informare, di creare comunità, e che è diventato un
mezzo per la pubblicità e per l’assorbimento dei dati degli utenti. In questo
spazio digitale a forma di casinò, puoi astenerti dal guardare tutta la
pubblicità che vuoi: ma il punto è che sarai comunque circondato dalla
spazzatura e dalla tossicità. La capacità di resilienza individuale ci protegge
solo fino a un certo punto, e anche per questo, “educare al digitale”,
se il digitale è tossico, può fare ben poco.
“IG
[Instagram] è una droga”
“LOL, se è per quello, tutti i social media lo sono. Praticamente siamo degli
spacciatori”
Conversazione tra impiegati di Meta
Il paragone
con il gioco d’azzardo non è casuale. Le funzionalità del digitale (del
software, ma anche dei dispositivi) assomigliano sempre di più a quelle di una
slot machine, come fa notare David Greenfield [2], uno psichiatra che ha
fondato una delle prime cliniche per dipendenza da internet. Ci sono dei limiti a quello a cui ci
si “può educare”. Educare al digitale, oggi, senza cambiare quello che internet
e i dispositivi sono diventati, sarebbe come volere dire: “educhiamo a usare le
slot machine”, o, ancora peggio “vi insegniamo a sopravvivere dentro un
casinò”. A nessuno verrebbe mai in mente una cosa simile. Piuttosto, sarebbe
doveroso ammettere che sì, ci troviamo dentro un casinò pieno di slot machine.
Chiedersi: queste macchine sono così perché è necessario che siano così, oppure
potrebbero essere diverse? Che motivo c’è per averle progettate in questo modo?
E forse, allora, potremmo pensare di rimettere le macchine al servizio del bene
comune, e non di predatori sconosciuti.
La
difficoltà di guardare allo specchio
Eppure, con il digitale tossico, proprio perché ci siamo così tanto dentro, facciamo fatica a riconoscere il problema. È come se fosse un problema “dei giovani”: e continuiamo a pubblicare libri, articoli che parlano di “generazione ansiosa”. Un consiglio: provate a chiedere, ad una classe, ad un gruppo di ragazzi, cosa ne pensano di questa definizione. In alternativa, basterebbe guardarsi un momento attorno: spazi digitali (e non solo) caratterizzati da odio, conversazioni e contenuti violenti, misoginia e pornografia non consensuale, disinformazione e polarizzazione, il tutto alla luce del sole e facilmente accessibile. Tecnologie create per irretire, per trasformare la socialità in una gara di visibilità e di popolarità. Non sono stati certo “i giovani” a volere tutto questo. Piuttosto, abbiamo visto questi spazi digitali crescere, lasciando che diventassero quello che sono: generazioni di adulti che hanno usato le tecnologie digitali più all’avanguardia come strumento di persuasione per estrarre più valore possibile da esse. Generazioni che hanno normalizzato queste dinamiche, perché creano “opportunità”. Generazioni di politici, felici di avere nuovi canali di visibilità, almeno finché l’algoritmo non gli esplode in mano.
Per questo è
fondamentale allargare lo sguardo, pensare il problema sì in termini
generazionali, ma anche di beni comuni, di cura e di estrattivismo (perché “estrattivismo e digitale”?). Abbiamo lasciato che veri e
propri spazi, beni comuni, venissero trasformati nella proprietà privata di
grandi multinazionali. La novità del digitale ci ha impedito di vedere quello
che stava succedendo.
Ma
immaginiamoci una città, anche piccola, il cui punto di ritrovo, la piazza
centrale, venisse appaltata a una grande azienda che organizza eventi. Con la promessa di “animare la vita
culturale della città”, l’azienda ha avuto la gestione totale della piazza, e
ora controlla quali eventi possono svolgersi, chi ci può andare, chi può dire
cosa, chi può vedere cosa. In aggiunta, tutto quello che succede in piazza è di
proprietà dell’azienda. Ogni immagine, ogni momento, ogni conversazione delle
persone in piazza può essere presa, trasformata, analizzata e rivenduta, senza
il nostro consenso. Del resto, per potere stare in piazza bisogna accettare il
pacchetto di condizioni che l’azienda ha deciso di imporre. Di fatto, questo (e
altro) è quanto accade online. Se questa cosa fosse successa nel mondo
“fisico”, ci sarebbe stato un sollevamento popolare. Ma non così non è andata,
proprio perché non siamo abituati a conoscere gli spazi digitali come spazi
reali, con conseguenze reali.
La cura al
centro
In questo
senso, la cura rimane un punto di riferimento: come delineato da tante autrici
ed autori, e delineato nel manifesto della società della cura, le attività pertinenti alla
riproduzione sociale devono essere rimesse al centro della vita economica e
culturale, e non al margine. Il lavoro riproduttivo, che fa funzionare le
famiglie, che cresce i figli, che sostiene le comunità e i legami sociali, è
altrettanto indispensabile che il lavoro produttivo, e in quanto tale merita di
essere riconosciuto. Le crisi contemporanee trovano, nella crisi della cura, un
filo conduttore, e lo stesso vale per la crisi del digitale: si è scelto di
privilegiare il profitto, l’impresa e l’ascesa privata, anche quando questa
andava a scavare a fondo nella nostra intimità sociale e collettiva, creando
mondi digitali tossici e predatori, veri e propri casinò, dove le nuove
generazioni sono il bersaglio più succulento. In questi nuovi spazi digitali,
l’idea di cura è sempre più lontana. Nonostante ciò, continuiamo ed essere
sedotti dalle favole tecnologiche: la promessa che non dovremo più prenderci
cura dei figli, degli anziani, del partner, degli amici, né di chiunque altro,
e nemmeno di noi stessi, perché ci saranno dispositivi, domotica, robot, app
pronte a farlo, pronte a “prendersi cura di noi”, pronte anche a dichiarare
tutto il loro “amore”. Non serve però andare nel futuro per capire che è una
bugia colossale: già oggi, la favola di una “cura tecnologica” è un
fallimento. Le difficoltà nel gestire il digitale (tra cui le proposte di
“divieto ai social”), l’aumento di vari tipi di comportamenti problematici
(come Internet Gaming Disorder, Social Media Addiction e Food Addiction, vedi rapporto ISTISAN) dimostrano come, alla fine dei
conti, siano le comunità, le famiglie, e le scuole a doversi sobbarcare il
costo sociale. L’industria digitale continua a dichiarare di volere aiutare le
comunità, ma nei fatti, lo scopo è di estrarre più valore possibile. Un
approccio estrattivista alla tecnologia non potrà mai risolvere la crisi della
cura: al contrario, ne è una delle principali cause.
Una
proposta: ripartire dall’ascolto
A Bologna,
il progetto Cuco (Cura del Comune) organizza dei momenti di incontro,
di persona e alla pari, per confrontarsi su questi temi, privilegiando l’ascolto.
Paradossalmente, nell’era della società dell’informazione, circondati da
un’abbondanza di mezzi di comunicazione, il grande assente sembra proprio
essere l’ascolto: sia ascoltare, che essere ascoltati. Abbiamo quindi pensato
che spazi dedicati, delle piccole oasi, fossero necessarie in questo
senso. Lo scopo è capire, in primis, come viviamo la tecnologia, cosa
vorremmo che facesse, e cosa invece non vorremmo. Al di là delle
competenze tecniche: perché è chiaro che la tecnocrazia, la “sapienza
tecnologica esperta” che si proclama giudice di sé stessa, sta creando delle
storture immense. Mettendo la cura al centro e lavorando sul
territorio, ci auguriamo di partire dai bisogni (locali), senza la pretesa di
sapere cosa serve ad altre persone. Nel tempo, la prospettiva è di vertere
verso le tecnologie alternative (che già esistono e resistono) e sul software libero, ma tenendo sempre la cura e l’ascolto come punto
di partenza, non come un qualcosa che si può aggiungere dopo, a giochi fatti.
Rimaniamo
aperti a proposte, inviti e collaborazioni: cuco@inventati.org
[1] vedi
“Addiction by Design” di Natasha Dow Schüll, in italiano “Architetture
dell’azzardo”
[2] vedi “Human Capacity in the Attention Economy”, a cura di Sean Lane e
Paul Atchley
Nessun commento:
Posta un commento