ARPA-Firenze 2018
La rete non è neutra, è il tuo specchio
Peripezie della società digitale e dei suoi utenti dalle origini al 2018
________________________

Premessa del curatore (Roberto Maffei) – Il testo che segue è un’introduzione all’intervista all’autore (sul tema della Rete e delle modalità del suo uso, al punto di incontro tra tecnologia e società) condotta dal curatore e pubblicata in questo stesso numero de Il Caos Management.
I termini tecnici meno comuni usati in questo articolo sono scritti in corsivo e sono chiariti in un piccolo glossario alla fine dell’articolo.

L’autore – Dr. Andrea Mannino Fiaschi, Laureato in Architettura – Disegno Industriale, da sempre affascinato dalle “nuove frontiere”. Mai seduto sugli allori, non ha mai pensato di aver raggiunto lo stato definitivo, né riguardo la propria persona, né riguardo al mondo in cui viviamo. Costantemente alla ricerca di nuove sfide e soluzioni tecnologiche, ha sempre affrontato il tema del futuro attraverso una visione sistemica e di ampie prospettive. Interessato agli aspetti filosofici e sociologici riguardo alle nuove scoperte e pratiche, non perché più importanti degli aspetti meramente tecnici ma perché indissolubilmente legati gli uni agli altri. Questa “weltanschauung” lo ha portato a considerare molteplici aspetti della vita come costanti che, benché formalmente mutevoli, si ripetono attraverso le culture e le religioni di tutti i popoli durante tutte le epoche.

Breve storia della congestione digitale

C’è stato un tempo mitico e glorioso, un’età dell’oro, in cui ci scambiavamo solo e-mail. Pressappoco, tra corrispondenza e bollettini, non facevamo altro che generare pochi kilobyte di traffico a testa al giorno. Tutto sembrava andare a gonfie vele, visto l’esiguo numero di terminali collegati alle reti ed i loro saggi utenti. Le reti erano così semplici e ben strutturate che si poteva imparare a memoria e tenere a mente il percorso intrapreso dai pacchetti che si spedivano di persona. Questo tempo idilliaco al quale ci si riferisce, non è altro che quello di ARPAnet, MILnet ed Internet: gli anni ‘80, insomma. Tim Berners Lee non aveva ancora lanciato il World Wide Web al di fuori del CERN di Ginevra1.

Perché queste reti funzionavano così bene, trattando “tutti nello stesso modo”? Ovviamente, è facile far funzionare bene reti piccole, con poco traffico. Peccato che a quei tempi tali infrastrutture non venissero affatto percepite come qualcosa di limitato e primordiale bensì come meraviglie tecnologiche avveniristiche e strategiche. La cosa più notevole da ricordare è il senso di coesione dei pochi fortunati utenti: persone brillanti, studenti, militari, ricercatori uniti non soltanto dalla “rete” ma da comuni tensioni ideali; un ristretto gruppo di privilegiati ad alto tasso di educazione e disciplina che teneva in massima considerazione le meraviglie tecnologiche usate per mantenersi in contatto. Questo genuino senso di vantaggio comune e di specialità portò con sé la formazione di un’identità cameratesca. Le community di universitari e militari erano diventate anche community online, gente che condivideva saperi sui bulletin board systems e che sapeva bene come servirsi dei sofisticati e costosissimi strumenti a propria disposizione2.

Quando il World Wide Web viene aperto al pubblico generale, nel 1993, il suffisso più diffuso non diventa .us o .org ma .com, che sta per “commercial”. Le logiche di mercato capitalista sono qualcosa di molto diverso dalle filosofie postilluministe e pseudolibertarie che aleggiavano nei campus universitari e la rete ne risente immediatamente. Si paga per accedere, a tempo o a quantità di dati. All’inizio sono pochi gli interessati, persone spesso illuminate e anch’esse dotate di senso della community. Utenti “Pro”, appassionati di tecnologia che usano la rete per sviluppare progetti innovativi ed accrescere la propria cultura. America Online e i suoi concorrenti, però, sanno che ci vuole ben altro per attrarre il grande pubblico e potenziare la rete tramite i proventi dei nuovi sottoscrittori. Fino a quel momento, gli amministratori di rete avevano vita piuttosto facile e molti appassionati si improvvisavano anche host coi propri piccoli server.
Metà anni ’90: boom di vendite per i personal computer con Windows 95 e il browser integrato Internet Explorer. Da quel periodo in poi, il Web si trasforma in un coacervo di pornografia, pirateria musicale, videogames e siti “multimediali”. Nascono anche gli abbonamenti flat a tariffa fissa, perfetti per i grandi “scaricatori seriali”. Gli amministratori sperimentano cose come saturazioni della banda da reti Peer-to-Peer o attacchi Denial-of-Service. Insomma, ormai è chiaro che qualcuno deve prendere il toro per le corna e dominare i routers secondo la propria volontà e la propria politica. Il popolo sfrutta le reti fino allo sfinimento delle stesse, quando non si tratta di veri e propri attacchi sferrati da parte di bande criminali3.

In corrispondenza della bolla speculativa delle dot-com companies nel 1999, i providers cercano di bloccare il traffico generato dalle reti peer-to-peer. Le azioni, concertate insieme con multinazionali dei media e governo degli Stati Uniti, sono molteplici e poco risolutive. Gli anni 2000 vedono crescere il volume di traffico dati in maniera incredibile a causa della sempre crescente fame di video ad alta definizione, videogames e social networks da parte del pubblico. Si rende così necessario alzare il livello di complessità nell’amministrazione delle reti ed un maggior numero di professionisti e società si specializzano nel gravoso e delicato compito.

Il forum per la sicurezza informatica ISF redige un vademecum di buone pratiche, “Standard of Good Practice”, che viene tranquillamente e regolarmente ignorato dalla massa4. Gli uffici Cyber Security di Akamai, per non citare la solita Google, vedono la faccenda più seriamente e si preoccupano di proteggere le proprie miniere di dati personali valutate miliardi di dollari. Cisco e Ibm si sono specializzati a tal punto da offrire a terzi una vasta gamma di servizi di sicurezza, insieme a una pletora di nomi più o meno volutamente poco conosciuti come Herjavec e Sophos.

In questo mondo, vige una massima che ne sintetizza meglio di ogni altra cosa la filosofia: “The user’s going to pick dancing pigs over security every time”: meglio i porci danzanti della sicurezza, per l’utente. Così le agenzie governative, gli ospedali e le grandi corporation non riescono a tenere a bada il proprio organico e non hanno altra scelta che rivolgersi ai professionisti5.

Il colpo più duro al corretto funzionamento delle reti arriva però negli anni ‘10 a seguito della capillare diffusione degli smartphone: streaming di video HD, aggiornamenti continui di status ed apps, immagini continuamente inviate tramite protocollo TCP/IP vanno già a costituire una formula micidiale per la salute delle reti. Aggiungiamo anche l’ossessione mobilità, per cui il traffico deve spostarsi su radiofrequenze, e il patatrac è completo. Le radiofrequenze sono gestite dai providers in concessione dallo Stato, il quale regolamenta le bande utilizzabili e le potenze raggiungibili: 3G, 4G, LTE, 5G. Le generazioni di sistemi traffico dati si susseguono vorticose alla ricerca della sempre crescente larghezza di banda: Wi-Fi protocollo a, b, g, n. Le reti senza fili si evolvono rapidamente alla ricerca della velocità sempre più alta: sempre più dati da scambiare, sempre più potenza dei terminali, sempre più grandi gli schermi da riempire con immagini sempre più grandi6.
Il mercato spinge verso questa direzione, qualcuno dovrà pur pagare. Chi?

Le reti vengono gestite, non vanno da sole

Quando il mondo era più semplice, come dicono i saggi memori di un passato ormai lontano, gestire le reti era anche un piacere e gli “admin”, ragazzi appassionati di tecnologia, si dedicavano al loro lavoro quasi come fosse un hobby.
Il professionalismo è però imprescindibile, e questo significa che l’utente non ha nemmeno idea di quello che succede ai pacchetti di dati inviati e ricevuti dal proprio terminale. Quanti degli utenti di Internet conoscono a memoria la mappa di qualche rete? Si può essere tacciati di essere tipi molto strani a rispondere di essere uno di loro. Il primo passo nella gestione delle reti, per gli utenti comuni, è configurare il proprio router. Operazione non facile e non banale che, però, viene portata a termine da un tecnico al momento dell’installazione. La maggior parte degli utenti, infatti, si trova a fare i conti con router-modem-access point wifi integrati e forniti dal provider di rete. Questo significa che si tratta di macchine molto semplici e limitate, con firmware poco complessi e molti passaggi automatizzati. Spesso, la parte più difficile di tutta l’operazione per collegarsi al web è copiare sul proprio terminale la password del wifi.

Peccato, perchè ciò significa che quasi nessuno conosce i propri indirizzi IP nella WAN (Wide Area Network) e quelli dei terminali connessi alla propria LAN (Local Area Network). Sarebbe molto istruttivo conoscere almeno i percorsi dei pacchetti che si lasciano viaggiare in casa propria, sulla propria LAN. Impostare indirizzi IP fissi per i propri terminali, invece che affidarsi al DHCP, sarebbe un bel punto di partenza nell’ottica di eseguire traceroute ed altre operazioni di analisi delle reti7.

“Qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia”; questa la legge dettata dal grandissimo romanziere Arthur Clarke. Almeno in questo caso, la dinamica della magia si può conoscere ed è molto meno “metafisica” di quanto la citazione suggerisca. I pacchetti di bit, instradati secondo il protocollo TCP/IP o simili, sono impulsi elettrici quantificabili e viaggiano all’incirca alla velocità della luce. Un singolo pacchetto può “pesare” all’incirca 1500 bytes ed è un piccolo capolavoro di pensiero logico digitale che viaggia in un dedalo di cunicoli elettronici insieme a tantissimi suoi simili. Tutto, letteralmente tutto, quello che passa da Internet diventa un pacchetto. Puoi trasmettere la Gioconda, le previsioni del lotto o gli ordini ad un chirurgo robot ma tutto sarà scomposto in pacchetti pressoché identici e così trattato8 9.

Qui nasce il bellissimo concetto filosofico della net neutrality: visto che questi pacchetti sono tutti fratelli, essi vanno trattati tutti allo stesso modo. Tuttavia dobbiamo osservare che certi concetti egualitari sono piuttosto facili da mettere in atto in condizioni pionieristiche, nel nostro caso quando si parla di connettere pochi individui illuminati che si scambiano tra loro principalmente testi piuttosto brevi. Le cose si complicano quando si entra in una fase a regime con molti milioni (ormai miliardi) di utenti, condizione che richiama una frase di Sartre: “L’inferno sono gli altri”. Cosa fai quando i pacchetti diventano così tanti da saturare i tuoi strumenti per gestirli10?

Capita, così, che alcuni pacchetti ricevano un trattamento di riguardo, vengano privilegiati. Quality of Service, in breve QoS, è il termine utilizzato per riassumere le tecniche di selezione di quei pacchetti che devono passare prima, più velocemente, ed essere trattati in modo prioritario. Questo avviene da decenni e non ci sarebbe nemmeno molto da obiettare:

“QoS is important because it takes into account the way our human bodies are designed (!) and the expectations that we have as consumers. Our ears can easily tolerate 2 to 3 percent packet error rate but they would notice more than 300 milliseconds of delay… Most people wouldn’t notice if, for example, an e-mail delivery was delayed by a few hundred milliseconds…”.

Scientific American
[https://blogs.scientificamerican.com/observations/the-downside-of-net-neutrality/]

Tradotto: “La QoS è importante perché tiene conto del modo in cui i nostri corpi umani sono progettati (!) e delle aspettative che abbiamo come consumatori. Le nostre orecchie possono facilmente tollerare il tasso di errore del pacchetto dal 2 al 3%, ma noterebbero più di 300 millisecondi di ritardo… La maggior parte delle persone non si accorgerebbe se, per esempio, una consegna di e-mail fosse ritardata di alcune centinaia di millisecondi…”. A ciò si aggiungono le difese contro il cybercrimine come lo spionaggio e gli attacchi DDoS provenienti da botnet composte da miriadi di terminali infetti. Per questo, l’arte del condurre i pacchetti a loro destinazione oscilla, da anni e anni, tra la bieca dittatura e la guida occulta. La diversa sensibilità e politica degli amministratori chiamati a gestire tali flussi ha portato a differenziare vari stili di Traffic Shaping. Spiegare la sottile arte di applicare il throttling ed il cap della banda richiederebbe libri e libri. Sebbene basate sulla scienza, si tratta a primo impatto di conoscenze  quasi metafisiche, esoteriche. Quello che è importante ricordare è che i professionisti in questione programmano macchine, utilizzano algoritmi e traggono vantaggio dalla più evoluta intelligenza artificiale11 12.

I prossimi Anni ‘20 saranno gli anni del cloud, dell’Internet of Things, delle connessioni wireless onnipresenti ed ininterrotte. Flussi di informazioni in continua crescita, spesso generati da macchine per macchine, così intensi da sfuggire alle capacità umane. Per questo l’intelligenza artificiale assume un ruolo sempre più preponderante. Quest’ultima non è mai neutra, ma un’estensione e moltiplicazione dei valori e della filosofia di chi la sviluppa e utilizza. Ma ideologie, slogan e chiacchiere contano fino a un certo punto: chi programmerà queste macchine e come? Questioni conosciute davvero a fondo solamente da pochi professionisti.

Nuovi canali, vecchi conflitti

Abbiamo visto che da Internet passavano, in origine, informazioni scientifiche e militari in semplice formato testuale; oggi da quegli stessi canali passa pressappoco ogni aspetto dell’esistenza umana e presto passeranno fiumi di informazioni da una macchina “intelligente” all’altra, aspetto che vediamo già crescente anche nell’industria automobilistica. I tempi in cui si inneggiava al ciberspazio come terra di nessuno, Far West digitale, appartengono alla storia raccontata dagli anziani.
Viviamo in una società votata al capitalismo e solo un ingenuo può pensare che la rete globale di scambio di informazioni e compravendite non sia gestita secondo tale filosofia. Comunismo, anarchia, democrazia, dittatura eccetera sembravano parole polverose relegate ad un passato lontano; peccato che, quando non si tratta più di una élite di scienziati ma di intere popolazioni, la politica c’entra eccome. Atteggiarsi ad hacker romantico che diffonde terabytes di contenuti pirata tramite reti peer-to-peer, pagando la tariffa flat alla compagnia telefonica, è un gioco lussuoso per privilegiati ormai insostenibile. Ci sono, letteralmente, orde di persone che si attaccano coi propri dispositivi portatili alle reti wireless e scaricano video in HD in streaming ed immagini di tutti i tipi; questo significa che la rete arriva al collasso. Chi paga per questo?
La politica europea della socialdemocrazia si è rispecchiata nella rete incentivando l’accesso alla banda larga e gli investimenti per potenziare l’infrastruttura. La fibra ottica posata principalmente nelle grandi città, però, non risolve il problema; lo sposta soltanto. Presto, la larghezza di banda sarà saturata a sua volta. Le compagnie telefoniche sono state multate più di una volta per i loro piani tariffari dai costi occulti; la concorrenza del mercato impone di proporre prezzi bassi, però la gestione e il potenziamento della rete determinano un costo. Le antenne 5G non crescono sugli alberi, i film in 4K non arrivano quasi mai per posta; l’amministrazione Trump propone di spostare una parte di questi costi verso gli utenti finali. Possiamo semplificare all’osso il concetto in questo modo: vuoi vedere video in HD? Paga in HD13.

Obama si è sempre ammantato di un’aura progressista, tecnologica ed ottimista fino al punto da sviluppare la rete più micidiale di sempre: i droni militari pilotati dall’intelligenza artificiale e controllati da migliaia di chilometri di distanza sono stati il punto cruciale delle sue amministrazioni. Proprio questa propensione a tutto ciò che è “smart” lo ha messo in ottimi rapporti con i guru stramiliardari della Silicon Valley; questi ultimi, padroni di multinazionali come Alphabet, Apple ed Amazon, rappresentano il volto cool e giovanile (meglio dire giovanilista) del capitalismo e ci tengono a passare per i paladini della rete libera. I fatti, tuttavia, parlano di abusi di posizione dominante, capitalizzazioni e ricavi da capogiro, miliardi di dollari occultati in paradisi fiscali; niente male, davvero niente male per essere simpatici (ex) ragazzi in felpa e ciabatte come Zuckerberg14 15.

Nei paesi comunisti, Cina e Nord Corea, la musica suona un po’ diversamente. La Grande Muraglia di Fuoco e firewall similari rendono il web un coacervo di sorveglianza, censura, propaganda univoca e repressione; in pratica, si rispecchia molto fedelmente la linea dei regimi politici in questione. Ovviamente non c’è molta concorrenza tra i providers ma bisogna riscontrare una certa ingegnosità nel realizzare infrastrutture, macchine e sistemi operativi creati dalla nazione per la nazione; infatti, dipendere dagli USA può essere un problema di sicurezza nazionale, specie da quando Snowden ha rivelato che hardware e software venduti da compagnie americane portano in dote backdoor e sistemi spionistici (vedi Prism) praticamente inestirpabili. Forse il fatto di essere il primo produttore mondiale di apparecchiature elettroniche aiuta, nel caso della Cina, ma anche l’ex Unione Sovietica riesce a dire la sua quando si parla di gestire il tutto in casa propria16 17 18.

Un po’ ovunque nel mondo la rete rispecchia il grado di autoritarismo presente nel governo, in barba alla retorica della rete globale uguale per tutti.

La soluzione; ognuno faccia la propria parte

Se, dalla parte dell’utente, c’è una cosa da fare prima di tutte, di sicuro è quella di informarsi bene. Quando il dibattito affronta tematiche così vaste e, al tempo stesso, così tecniche, l’ignoranza non è certamente ammissibile; soltanto questo processo, però, potrebbe durare anni, se non tutta la vita. A giudicare dalle flame wars, le guerre da tastiera che si portano avanti su chat e forum ogni giorno, nessuno riesce a dominare la materia in modo definitivo. Però preoccuparsi è inutile, l’importante è raggiungere un livello tale da poter parlare ed agire con una certa cognizione di causa.
Non importa sviluppare una conoscenza simil-esoterica di oscuri protocolli ed algoritmi ma non si dovrebbe nemmeno continuare ad installare smart tv in ogni stanza della casa e connetterle in rete senza sapere un minimo sulla configurazione delle stesse. I sistemi smart stanno diventando sempre più automatici e limitano l’accesso all’utente che vuole sapere di più su cosa stanno facendo. Si tratta di un caso o di una ben distinta scelta progettuale? Prima di tirare in ballo cospirazioni e citazioni orwelliane, che comunque non sfigurano vista la complessità dei sistemi di sorveglianza implementati, dobbiamo chiederci una cosa: vogliamo davvero sapere qualcosa sul funzionamento dei nostri apparecchi elettronici19?

Il mercato, composto da miliardi di persone come quelle della propria famiglia, richiede semplicità e immediatezza d’uso. Storicamente, il mercato premia i prodotti meno trasparenti e configurabili, basta guardare al successo e alla diffusione di Windows preinstallato sui PC, dei router forniti insieme al contratto telefonico, dell’adozione di Android come standard indiscusso per gli smartphone. Tutto questo è stato sancito, in ultima analisi, dal mercato20 21.

Quale è stata l’ultima volta che ci siamo chiesti quale percorso compiono i pacchetti che inviamo dal nostro terminale? Basterebbe ordinare un semplice traceroute che ci consentirebbe visualizzare sulla mappa i nodi che vengono percorsi. Com’è che sappiamo benissimo tutti i nomi delle strade del nostro quartiere, delle uscite più prossime delle autostrade, ma non ci interessiamo del percorso che compiono i nostri dati? Eppure si tratta di una parte di noi, anche molto importante. Quando facciamo l’upload di un nostro selfie su Facebook, sappiamo che tale file passerà per i server di Akamai e resterà di proprietà della sopracitata compagnia per sempre? La nostra vita è praticamente online, passa da quei canali e da quelle strade; perché non le conosciamo, pensando che sia tutto un qualcosa di virtuale22?

Questo tipo di conoscenze è fondamentale al fine di affrontare il discorso politico odierno. Non esiste solo la propria vita online ma quella di miliardi di persone, quindi è importante pensarci quando scegliamo di visualizzare un video in streaming in HD invece che in SD; devo proprio scaricare quel gioco online mentre mi connetto in wireless alla stazione ferroviaria aspettando il treno? Prima di lasciarsi prendere da sparate sensazionalistiche o crociate ideologiche per sentito dire, chiediamoci qual è la vera cognizione che il grande pubblico di utenti del Web ha riguardo alla natura dello stesso. Trump è stato accusato di razzismo e di favorire le lobby americane ma (senza per questo schierarsi con Trump) cosa è stato detto quando Zuckerberg ha proposto la riforma dell’immigrazione FWD.us (per privilegiare i laureati a discapito dei migranti meno istruiti) insieme ad altri big della Silicon Valley23?
La rete non può essere neutrale, finché ci siamo tutti dentro.

Piccolo Glossario:

Access Point – router che permette all’utente mobile di accedervi in modalità wireless (senza fili).

Backdoor – metodo, spesso segreto, per passare oltre la normale autenticazione.

Botnet – rete controllata da un botmaster e composta da dispositivi infettati da malware, detti bot.

Bulletin board system – computer che permette a utenti esterni di connettersi a esso, con funzioni di messaggistica e file sharing.

Cloud computing – erogazione di risorse informatiche dalla disponibilità on demand attraverso Internet.

Denial-of-service – attacco in cui si fanno esaurire le risorse di un sistema informatico.

Firewall – parafiamma, è un componente di difesa perimetrale di una rete informatica.

Host (Client) – terminale collegato, attraverso link di comunicazione, ad una rete informatica.

Hosting – allocare servizi di rete su un server, come un sito web, rendendolo così accessibile.

Internet of things (IOT) – estensione di Internet al mondo degli oggetti e dei luoghi concreti.

Peer-to-peer – rete informatica in cui i nodi non sono gerarchizzati sotto forma di client o server fissi.

Provider (ISP) – fornitore di servizi Internet, spesso chiamato semplicemente “provider”.

Router –  dispositivo che si occupa di instradare i dati, suddivisi in pacchetti, su reti fisiche.

Server – componente di elaborazione e gestione del traffico di informazioni che fornisce un qualunque tipo di servizio.

Streaming – flusso di dati audio/video trasmessi da una sorgente a una o più destinazioni tramite una rete telematica.

Traceroute – percorso seguito dai pacchetti sulle reti, ovvero l’indirizzo IP di ogni router attraversato.

Note:

1.http://info.cern.ch/hypertext/WWW/TheProject.html

2.https://livinginternet.com/u/u.htm

3.https://www.gnu.org/philosophy/rms-hack.en.html

4.https://www.securityforum.org/tool/the-isf-standardrmation-security/

5.http://news.cnet.com/8301-27080_3-10381460-245.html

6.https://spectrum.ieee.org/telecom/wireless/decoding-5g-new-radio

7.https://www.lifewire.com/how-to-build-and-maintain-the-best-home-network-4097862

8.https://io9.gizmodo.com/technology-isnt-magic-why-clarkes-third-law-always-bug-479194151

9.https://www.techrepublic.com/article/exploring-the-anatomy-of-a-data-packet/

10.https://www.the-philosophy.com/sartre-hell-is-other-people

11.https://blogs.scientificamerican.com/observations/the-downside-of-net-neutrality/

12.https://www.a10networks.com/resources/articles/traffic-shaping

13.https://www.freepress.net/blog/2017/04/25/net-neutrality-violations-brief-history

14.https://www.theverge.com/2018/7/18/17580694/google-android-eu-fine-antitrust

15.https://www.theguardian.com/technology/2017/dec/12/facebook-ad-revenue-countries-earned-ireland

16.https://www.theguardian.com/news/2018/jun/29/the-great-firewall-of-china-xi-jinpings-internet-shutdown

17.https://www.cloudwards.net/prism-snowden-and-government-surveillance/

 
Bibliografia:

Può essere molto utile approfondire direttamente su Wikipedia o sui siti dei produttori e fornitori dei servizi. Per questo ci sono un paio di fonti chiave da cui iniziare.
Ovviamente, questo da solo non basta e c’è bisogno di una integrazione tramite fonti giornalistiche. Tutto sommato, comunque, saremo ancora molto lontani da poter asserire di essere esperti della materia. Solo pochissimi si annoverano questo privilegio, mentre molti millantano.
https://en.wikipedia.org/wiki/Net_neutrality
https://en.wikipedia.org/wiki/Traffic_shaping
https://en.wikipedia.org/wiki/Dancing_pigs
https://en.wikipedia.org/wiki/Internet_of_things
http://www.securityforum.org/
https://www.ibm.com/watson/index.html