Eccomi qui, come sempre, smartphone fra le mani, intenta a «scrollare», più o meno compulsivamente, i miei social di riferimento: Facebook, ovviamente, ormai diventato il social d’elezione dei cosiddetti boomer (come la sottoscritta), ma anche Instagram, Threads, talvolta X, il meno frequentato BlueSky e, perché no? concedendomi pure un’occhiata veloce a quel che accade su TikTok. Aggiungiamo pure i video su Youtube e i podcast su Spotify.
Cosa mi spinge?
Un tempo avrei addotto senz’altro nobili motivazioni: visti i miei interessi sociologici e il mio desiderio di informazione, condivisione, approfondimento, avrei difeso appassionatamente la mia dispersiva presenza in Rete, motivandola con la banale considerazione che è bene stare dove sta la maggioranza delle persone, se si vuole capire dove va il mondo e, magari, contribuire a cambiarlo.
Ma oggi non sono più così convinta: a parte la sgradevole sensazione che il mio comportamento si radichi piuttosto nella cosiddetta sindrome FOMO (acronimo per «Fear Of Missing Out», la paura di perdersi qualcosa di fondamentale e quindi di essere tagliati fuori), la verità è che mi sento sempre più a disagio, contesa fra dipendenza dopaminergica e timore delle conseguenze che la mia eccessiva esposizione potrebbe generare.
È un disagio talmente forte che i miei tentativi di analizzarlo e scardinarlo stanno diventando ripetitivi, quasi ossessivi. Ci sono senz’altro delle motivazioni personali, ma ho l’impressione che la mia ansia si leghi ad un’ansia generale, per così dire un’ansia «sociale», che dipende da meccanismi indipendenti dalle singole e individuali nevrosi: l’opacità dei meccanismi algoritmici, le logiche di branco che minacciano i singoli utenti non allineati, la polarizzazione estrema e violenta delle opinioni, la dinamica spesso tossica delle interazioni sui social.
In questo mio contributo, vorrei provare ad analizzare nel dettaglio il contesto in cui questo diffuso malessere si radica, nel convincimento che la comprensione sia propedeutica alle possibilità di cura.
Sin dagli anni Settanta era nota e studiata la teoria della cosiddetta «spirale del silenzio», elaborata dalla sociologa tedesca Elisabeth Noelle-Neumann (2002), secondo la quale gli individui, temendo naturalmente l’isolamento sociale, tendono a non esprimere apertamente la propria opinione nel momento in cui la percepiscono come minoritaria o impopolare (viceversa, se si riterrà che la propria opinione sia condivisa dalla maggioranza, ci si sentirà incoraggiati a manifestarla senza nessun tipo di remora).
Nel 2014, il Pew Research Center pubblicò i risultati di un sondaggio fra 1.801 adulti statunitensi: la ricerca sembrò dimostrare che per lo più gli utenti di Facebook e Twitter erano pronti a manifestare apertamente il proprio punto di vista su questioni politiche divisive, solo nel caso in cui ritenessero che i loro contatti e, o, followers lo condividessero. Non solo: questa istintiva prudenza sembrava estendersi anche alle relazioni offline.
La «spirale del silenzio» offre senz’altro una spiegazione credibile alla prudenza che oggi, in presenza di un contesto politico ampiamente polarizzato, molti manifestano nell’uso dei social, quando si tratta di esprimere opinioni non allineate. Ma di sicuro il panorama è stato complicato da ulteriori meccanismi comunicativi che sfuggono al controllo e, soprattutto, alla consapevolezza dell’utente medio.
La estrema polarizzazione strutturale che sembra caratterizzare la comunicazione politica via social (Falkenberg et al. 2024) limita fortemente le possibilità di dialogo costruttivo e informato fra utenti che appartengono a gruppi contrapposti.
In particolare, le interazioni politiche seguono uno schema comune, in cui gli utenti si comportano come alleati o nemici, con scarse interazioni tra gruppi opposti e una tendenza a evitare il dialogo diretto. Del resto, le interazioni rivolte a membri del gruppo avversario tendono ad essere tossiche e quindi soggette a maggiori penalizzazioni sia da parte di altri utenti che degli algoritmi di moderazione. D’altra parte, proprio i meccanismi algoritmici tenderanno a chiudere gli utenti nelle proprie «bolle di filtri», o echo chambers (Pariser 2011): ognuno sarà prioritariamente esposto a quei contenuti che l’algoritmo ritiene gli siano più affini, sulla base delle interazioni e delle preferenze espresse precedentemente, favorendo di fatto la limitazione dell’orizzonte comunicativo al gruppo di affini (fenomeno che nelle analisi delle reti sociali si definisce come omofilia, in base alla quale «simile attrae simile»).
Ma è proprio il ruolo degli algoritmi a determinare ulteriori distorsioni, a partire dal fatto che il loro funzionamento non è affatto trasparente. Se è vero che l’algoritmo è un insieme di regole, calcoli e modelli matematici progettati per analizzare e organizzare in tempo reale i contenuti pubblicati dagli utenti, decidendo quali mostrare, a chi e con quale priorità, sarebbe interessante avere la possibilità di verificarne i presupposti (che potrebbero peraltro non essere neutri e incorporare pregiudizi e limiti di progettazione).
La questione è cruciale, visto che lo scopo principale dell’algoritmo è massimizzare l’engagement (interazioni come like, commenti, condivisioni, tempo di visualizzazione) e trattenere gli utenti il più a lungo possibile sulla piattaforma.
L’algoritmo influenza quindi direttamente la visibilità dei contenuti e la possibilità che diventino virali, premiando solitamente quelli che generano reazioni rapide, intense o prolungate, in base a criteri dinamici che possono variare nel tempo.
Non solo. L’algoritmo premia, ma anche punisce, penalizzando, diminuendo o azzerando la visibilità di post e profili secondo parametri poco chiari: per esempio, se il contenuto viene arbitrariamente valutato come non interessante e non coinvolgente; se sono presenti parole ritenute «pericolose» o non consone rispetto ai (mitologici) «standard della comunità»; se, per un motivo imprecisato, il post o l’immagine riceve pochi like o interazioni nei primi minuti dalla pubblicazione; se l’algoritmo non è in grado di valutare contesto e tono (in generale, per esempio, l’ironia non è colta) di frasi, rappresentazioni, fotografie etc.
E qui, ragionando appunto di «premi» e «punizioni» distribuiti da un meccanismo opaco che sembra agire in modo arbitrario, entriamo nel vivo del «teatro del controllo» o, se si preferisce, del cosiddetto «Panoptico Digitale».
Quest’ultima definizione, riferita ai meccanismi di controllo e sorveglianza che le piattaforme operano nei confronti degli utenti, è nota, ma per chiarire meglio gli snodi della mia argomentazione, sarà utile spiegare e motivare la metafora. ù
Sappiamo che il panopticon è un carcere ideale progettato da Jeremy Bentham nel 1791, il cui modello è riutilizzato da Michel Foucault nel suo “Sorvegliare e Punire” (1975) per spiegare i meccanismi di sorveglianza operati dal potere in istituzioni come il carcere, l’ospedale, il manicomio, la scuola. Nel panopticon di Bentham i prigionieri erano osservati da una torre centrale, senza poter vedere chi li guardava; di conseguenza, l’incertezza sulla sorveglianza li spingeva ad auto-regolarsi.
Riportando la medesima idea alla società moderna, Foucault vede il panopticon come metafora di un potere diffuso e invisibile a chi lo subisce: un potere non più esercitato attraverso la forza brutale, ma per mezzo dell’interiorizzazione della sorveglianza. In pratica, in contesti organizzati secondo strutture di potere gerarchico (scuola, carcere, ufficio), il soggetto si disciplina, non perché sa di essere osservato, ma perché crede che potrebbe essere osservato.
L’immagine del panopticon sembra particolarmente efficace nel descrivere le dinamiche di sorveglianza e monitoraggio all’opera in Rete e, più nello specifico, sulle piattaforme sociali. Like, condivisioni, commenti, nonché il tempo passato su un post, vengono registrati dagli algoritmi.
Gli utenti sono costan
temente “tracciati”, anche senza esserne consapevoli (es. cookie, geolocalizzazione, riconoscimento facciale). Le piattaforme (e gli attori che le sfruttano: governi, aziende pubblicitarie) osservano senza essere visti. L’utente, come il prigioniero di Bentham, non sa quando viene monitorato, ma sa che potrebbe esserlo.
L’analogia funziona a più livelli. Nella consapevolezza di essere osservato, l’utente può modificare il proprio comportamento, autocensurando le opinioni che giudica più impopolari (torna, in altra chiave, la «spirale del silenzio») e, allo stesso tempo, sforzandosi di rendere appetibile all’algoritmo la propria presenza online sia attraverso meccanismi di «vetrinizzazione sociale» (Codeluppi 2007), sia omologandosi a trend o discorsi generali allo scopo di ottenere visibilità e riconoscimento (una sorta di conformismo algoritmico, che opera attraverso contenuti ritenuti in grado di generare maggior engagement).
Esistono tuttavia alcune importanti differenze.
Prima di tutto, la volontarietà del nostro sottoporci alla sorveglianza algoritmica, sebbene la scelta sia condizionata dal fatto che oggi è difficile sfuggire ai meccanismi di profilazione che operano generalmente in Rete. Tuttavia, la presenza e le attività sulle piattaforme social non sono ancora obbligatorie, sebbene, soggettivamente, possono essere avvertite come obbligate: per restare informati, per connettersi con parenti, amici, contatti reputati interessanti, per condividere opinioni e stati d’animo, per sfuggire alla solitudine, talvolta per praticare un simulacro di impegno politico e civico
In secondo luogo, come scrive Byung-Chul Han (2014, p.76),
«il panottico digitale del XXI secolo è aprospettico, nella misura in cui non è sorvegliato da un centro unico, dall’onnipotenza dello sguardo dispotico […]. Questo ne determina l’efficienza. Il rischiaramento aprospettico è più efficace del controllo prospettico, perché si può essere illuminati da ogni lato, dappertutto e da ciascuno».
Insomma, secondo una peculiare logica «orizzontale» (quindi, appunto, «aprospettica»), siamo tutti allo stesso tempo «sorvegliati» e «sorveglianti».
In questo senso, il potere della sorveglianza non è solo subito, ma anche condiviso ed esercitato attivamente dagli utenti, attraverso pratiche diffuse: segnalazioni (reporting) di massa di profili e, o, post, allo scopo di ottenerne il ban o la cancellazione; diffusione di screenshot relativi ad affermazioni o immagini ritenute problematiche, tossiche o negative; doxxing (ovvero raccogliere e diffondere pubblicamente, senza consenso, informazioni private o identificative su una persona, come nome, indirizzo, numero di telefono, dati lavorativi, ecc., solitamente con l’intento di danneggiarla, intimidirla o esporla a molestie; shaming (umiliare, deridere o esporre pubblicamente qualcuno al disprezzo collettivo, solitamente a causa dell’aspetto fisico, oppure di un comportamento, o ancora di un’opinione ritenuti inaccettabili); tutto ciò che può essere riportato alla cosiddetta cancel culture, ovvero quel fenomeno sociale, diffuso soprattutto online, in virtù del quale una persona (o un’organizzazione) viene boicottata, ostracizzata o esclusa dalla vita pubblica a seguito di comportamenti, affermazioni o idee ritenute offensive, problematiche o moralmente inaccettabili (da notare che il “cancellare” implica spesso il ritiro del supporto pubblico, la perdita di opportunità lavorative e la marginalizzazione sociale).
Se il branco, a torto o a ragione, si scatena, può essere complesso mantenere il controllo del proprio account, senza che venga compromesso in modo più o meno grave (talvolta irrimediabile) dalle conseguenze di segnalazioni o ban.
E così, naturalmente, si ritorna al tema dell’autocensura: da spazio libero, da agorà digitale dove condividere e confrontare le proprie idee, la Rete diventa un luogo dove muoversi con circospezione, evitando argomenti troppo divisivi, così da non mutilare o danneggiare la propria identità digitale.
Senza contare altre forme di sorveglianza più subdole, che hanno conseguenze anche nella vita offline: dal datore di lavoro, pubblico o privato, che controlla ed eventualmente sanziona aggiornamenti di stato o like dei dipendenti, al fidanzato/a geloso/a che monitora ossessivamente spostamenti e interazioni social del/della partner, dal genitore che segnala il comportamento online di una docente, a suo modo di vedere inappropriato, fino al cliente che recensisce un’attività o un servizio talvolta in modo scorretto, incurante del danno reputazionale arrecato.
Senza necessariamente ambire a diventare «influencer» di professione, tutti, in un modo o nell’altro, ci esponiamo: con un aggiornamento, un selfie, un’opinione espressa autonomamente o condivisa da altri, la manifestazione di un nostro stato d’animo, un commento, una reaction.
Come scrive Byung- Chul Han (2014, p.78):
«L’esibizionismo e il voyeurismo alimentano la rete come un panottico digitale. La società del controllo si realizza là dove il suo soggetto si denuda non in conseguenza di una costrizione esterna, ma di un bisogno auto-prodotto, quindi là dove l’angoscia di dover abbandonare la propria sfera privata e intima cede al bisogno di esporsi alla vista senza pudore».
Se esporsi significa cercare il conforto dell’altrui approvazione, che sia un like, un commento, un’emoticon, uno sticker, da un altro punto di vista implica anche il rischio della disapprovazione e del conflitto.
Di per sé, come ci ha insegnato Benasayag (2018), il conflitto può essere un’espressione positiva della complessità, un volano del cambiamento, uno strumento di creatività collettiva, un seme di pensiero critico e di libertà.
Dopotutto, il conflitto viene messo a tacere solo in contesti di oppressione totalitaria. Ma, ovviamente, tutto dipende da come il conflitto è gestito e interpretato. Perché i social, piuttosto che favorire un conflitto costruttivo, secondo la tesi di Benasayag, tendono, come abbiamo visto, all’esasperazione delle differenze e alla polarizzazione che esula dalla disponibilità all’ascolto, ma si connota subito come reciproca aggressività e tribalizzazione delle opinioni.
Di fatto, non si cerca la ricomposizione dei contrasti, ma l’annientamento dell’avversario o comunque la sua espulsione dal proprio orizzonte comunicativo. In questo contesto di controllo verticale (profilazione, verifica algoritmica) e orizzontale (implicato dall’esposizione volontaria allo sguardo giudicante e non sempre benevolo degli altri utenti), non c’è da meravigliarsi se la frequentazione dei social sia diventata per molti fonte di ansia: si cerca l’altrui approvazione, ma i criteri con i quali si finisce per essere giudicati e valutati spesso non sono né chiari né prevedibili.
Senza volerlo, ci siamo trasformati in soggetti prestazionali, definiti attraverso la nostra capacità di performare, ottenere risultati e migliorarci continuamente.
Siamo apparentemente liberi di esprimerci come vogliamo e di raggiungere qualsiasi traguardo, ma questa supposta libertà si traduce spesso in auto-sfruttamento, ansia da prestazione e senso di inadeguatezza. Come se fossimo «prodotti» da pubblicizzare o da vendere, selezioniamo e comunichiamo aspetti della nostra identità (competenze, passioni, valori) per renderli attraenti e riconoscibili agli altri, ma se le nostre «strategie di marketing» non funzionano o vengono boicottate, il colpo può essere durissimo.
Se anche il nostro scopo è semplicemente quello di esercitare il sacrosanto diritto alla libertà di opinione, non possiamo sapere se non finiremo in pasto a qualche spiacevole flame che faremo fatica a gestire e che potrebbe rivelarsi persino dannoso per la nostra reputazione.
Nessuna meraviglia, dunque, se su temi controversi tendiamo ad evitare «la tana del lupo», non infilandoci in discussioni nel campo «nemico», e preferiamo frequentare e interagire in contesti che ci siano affini, chiudendoci quindi volontariamente nella nostra «bolla» ed evitando di esporci direttamente a contrasti e discussioni.
Ma qui si apre un dilemma etico cruciale. Se da un lato evitare flame e valutare bene la propria esposizione pubblica sono scelte di self-care digitale, visto che in questo modo potremo risparmiare tempo ed energia, nonché proteggere la nostra integrità, la nostra reputazione e, soprattutto, il nostro benessere, dall’altro il silenzio di fatto favorisce l’emergere e il rafforzamento di punti di vista estremi, disinformati o comunque in contrasto con i nostri valori e convincimenti, che rischiano di essere compromessi, soffocati, sottostimati.
E tutto questo in un contesto politico e sociale, sia nazionale, sia internazionale, nel quale riemergono pericolosamente tendenze autoritarie, manipolazione del consenso, disinformazione sistemica, minacce a diritti che venivano dati per acquisiti, repressione delle minoranze ed emarginazione dei soggetti più fragili e vulnerabili.
Ritirasi su una specie di Aventino digitale, riducendo e selezionando le interazioni, fino alla soluzione estrema della disconnessione, potrebbe essere salutare per il nostro equilibrio mentale. Ma potrebbe anche configurarsi come un atto di disimpegno, se non di indifferenza, una colpevole resa a forze che hanno tutto l’interesse ad «avvelenare i pozzi comunicativi», per così dire.
Chiudo con qualche domanda aperta.
Se, come ho cercato di dimostrare, il disagio di cui parlavo all’inizio è il sintomo di una malattia più grave e generalizzata, una volta che se ne siano comprese le cause, quale può essere la cura?
I social cosiddetti mainstream possono ancora essere emendati e corretti, oppure dobbiamo ritenere che, stante anche il loro allineamento alle richieste della nuova amministrazione americana, debbano essere abbandonati a favore di alternative ancora poco frequentate, ma sicuramente più salubri (BlueSky, Mastodon)?
È possibile rimediare attraverso la leva educativa, diffondendo un’adeguata media literacy che comunque dovrebbe riguardare non solo i ragazzini, ma anche gli adulti (persino gli adulti dotati di notevole capitale culturale in altri contesti, ma che a volte sembrano disarmati nella giungla digitale) che in linea generale usano i social in modo molto istintivo e spesso poco consapevole?
La disinformazione può essere arginata? Fino a che punto la crisi reputazionale del giornalismo incide sulla diffusione di bufale e fake news, e dunque sui meccanismi di creazione e deformazione dell’opinione pubblica che ho cercato di delineare?
Senza consapevoli scelte politiche di verifica e controllo, come può essere possibile arginare e limitare l’opacità e l’arbitrarietà delle decisioni algoritmiche?
Questioni non semplici, come si vede, che rimandano a scenari di indubbia complessità.
Eppure, non escludo che proprio nei segnali di inquietudine che pare di cogliere, nella riscoperta di blog e di forme di informazione e interazione più «lente» e meditate (per esempio le newsletter su Substack), si nascondano i semi di una trasformazione positiva, di una resistenza silenziosa, ma non per questo meno efficace, in grado di sottrarsi a logiche tossiche e dinamiche di sopraffazione comunicativa.
Bibliografia
- Benasayag, Miguel, e Angélique del Rey. 2008. Elogio del conflitto. Milano: Feltrinelli.
- “Il dark side dei social: la polarizzazione del pensiero e l’incomunicabilità interpersonale.” 2024. Rizzoli Education (blog). 9 dicembre 2024. https://www.rizzolieducation.it/news/il-dark-side-dei-social-la- polarizzazione-del-pensiero-e-lincomunicabilita-interpersonale/.
- Falkenberg, Max, Fabiana Zollo, Walter Quattrociocchi, Jürgen Pfeffer, e Andrea Baronchelli. 2024. “Patterns of Partisan Toxicity and Engagement Reveal the Common Structure of Online Political Communication across Countries.” Nature Communications 15 (1): 9560. https://doi.org/10.1038/s41467-024-53868-0.
- Foucault, Michel. 1976. Sorvegliare e punire: Nascita della prigione. Torino: Einaudi.
- Han, Byung-Chul. 2014. La società della trasparenza. Roma: nottetempo.
- “La spirale del silenzio: il ‘lato oscuro’ dell’influenza sociale.” 2022. Corsi online, Master Online, Sicurezza Lavoro, Corsi Universitari (blog). 28 marzo 2022. https://www.igeacps.it/la-spirale-del-silenzio-il-lato-oscuro- dellinfluenza-sociale/.
- Lyon, David. 2018. La cultura della sorveglianza: Come la società del controllo ci ha convinti a rinunciare alla libertà. Milano: LUISS University Press.
- Nasi, Francesco. 2021. “‘La cultura della sorveglianza’ di David Lyon.” Pandora Rivista (blog). 12 aprile 2021. https://www.pandorarivista.it/articoli/la-cultura-della-sorveglianza-di-david-lyon/.
- Noelle-Neumann, Elisabeth. 2002. La spirale del silenzio. Per una teoria dell’opinione pubblica. Roma: Meltemi Editore.
- Pariser, Eli. 2011. The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. New York: Penguin.
- Purcell, Keith, Lee Rainie, Weixu Lu, Maria Dwyer, Inyoung Shin, e Kristen Hampton. 2014. “Social Media and the ‘Spiral of Silence’.” Pew Research Center (blog). 26 agosto 2014. https://www.pewresearch.org/internet/2014/08/26/social-media-and-the-spiral-of-silence/.
- “Social Networking and Ethics.” s.d. In Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/entries/ethics-social-networking/.
- “Spirale del silenzio – La Comunicazione.” s.d. Consultato il 27 aprile 2025. https://www.lacomunicazione.it/voce/spirale-del-silenzio/.
- “Variazioni del dispositivo: dal Panopticon all’esibizione.” 2015. Nazione Indiana. 23 giugno 2015. https://www.nazioneindiana.com/2015/06/23/variazioni-del-dispositivo-dal-panopticon-allesibizione/.
- Zuboff, Shoshana. 2019. Il capitalismo della sorveglianza: Il futuro dell’umanità nell’era dei nuovi poteri. Roma: Luiss University Press.