I.
Ventisei ore è il tempo che sarebbe durata – secondo un documento preparato per il presidente Kennedy – una guerra atomica qualora le forze sovietiche e cinesi avessero deciso un attacco missilistico diretto verso il territorio americano. La previsione nei dettagli delle fasi di svolgimento del conflitto e la scelta delle possibili azioni di risposta da parte degli Stati Uniti erano fondamentali per sperare in una pace accettabile. Il documento The Management and Termination of War with Soviet Union, redatto dalla CIA e datato 4 novembre 1963, oltre a calcolare le ventisei ore descrive in modo dettagliato lo scenario e le possibilità di azione che un tale evento avrebbe prodotto. Durante il primo attacco una parte consistente della popolazione, delle infrastrutture e della potenza bellica americane – dal 30 al 70% – sarebbero state dissolte nell’esplosione, ma il presidente avrebbe avuto ancora la possibilità di reagire, sfruttando quello che sul territorio americano si era salvato. Il tempo concesso per decidere il da farsi, chiamare Mosca o contrattaccare, era stimato in trenta minuti. Dal suo bunker il presidente doveva quindi essere nelle condizioni di poter entrare in contatto con le basi superstiti, dare ordini di attacco agli aerei e di lancio dei missili, organizzare la resistenza o minacciare di farlo. Perché questo accadesse la struttura interna delle comunicazioni doveva reggere l’urto atomico; gli alti comandi militari superstiti dovevano rimanere in contatto da un lato con il presidente, dall’altro con l’arsenale nucleare sparpagliato per il paese. In questo scenario l’efficienza dei canali di comunicazione assumeva un ruolo fondamentale: la possibilità di una reazione adeguata era l’arma più forte per dissuadere i sovietici da un attacco e, in caso di attacco avvenuto, per contrattare un cessate il fuoco e una pace favorevole. Dallo scoccare dell’ora zero, quella del primo attacco, in ventisei ore si sarebbe decisa la sorte del pianeta. Nel 1963 gli Stati Uniti non disponevano di un sistema di telecomunicazioni tale da poter rendere realistica la controffensiva prospettata. Se un’esplosione nella ionosfera avrebbe reso inutilizzabile per ore i canali radio, il problema della rete telefonica era ben più radicale. Le infrastrutture di questa rete erano costruite su un modello verticale e rigido: il collegamento tra due punti avveniva attraverso un centro di snodo, i pochi centri di snodo erano collegati tra di loro e diffusi nel paese. (Il telefono che chiama entra in contatto con il centralino che lo collega con il telefono che risponde; questa operazione rimane identica se è fatta da una centralinista o da un selettore meccanico che combina i numeri degli apparecchi). Colpendo pochi punti strategici sul territorio la rete di comunicazione sarebbe collassata rendendo i terminali inservibili poiché sganciati dalla rete stessa; il presidente, o chiunque potesse decidere, sarebbe rimasto isolato, gli armamenti scollegati da un comando centrale e impossibilitati ad agire: i superstiti avrebbero tentato di parlare attraverso cornette telefoniche ormai mute. In poco più di una giornata il mondo libero sarebbe finito.
La struttura del sistema telefonico – costruita su un modello gerarchico e centralizzato nel quale due nodi possono entrare in contatto solo attraverso la mediazione di un nodo gerarchicamente superiore – è figlia del suo tempo dal punto di vista tecnico: il progresso tecnologico rendeva impossibile un modello diverso. Ma la rete telefonica è figlia del suo tempo anche per ragioni più profonde, omologa alle forme rigide, gerarchiche e verticali tipiche della modernità come la fabbrica fordista, il partito, lo stato. In tutte queste la possibilità di controllo – la catena di trasmissione degli ordini – viene garantita dalla dipendenza dei nodi rispetto a un centro che ha il potere di determinarli (spesso con una struttura ad albero), una struttura di mediazione fissa e palese con ampia capacità organizzativa e nella quale i ruoli sono ben definiti. La struttura telefonica centrata e facilmente controllabile si dimostrava però rigida e lenta, inadatta ad affrontare le specificità di una guerra nucleare: per paura delle bombe c’era bisogno di finirla con inutili mediazioni.
Quanto meno a livello teorico il problema della struttura verticale delle telecomunicazioni era già stato risolto dal documento On distributed comunication network di Paul Baran del settembre 1962. Baran – ricercatore di una corporation finanziata dal ministero della difesa – proponeva una rete distribuita: una rete che non ha punti centrali vulnerabili e nella quale ogni nodo può comunicare con qualsiasi altro senza dover di necessità passare per punti di controllo o per un tracciato determinato. In questo modo, anche qualora un attacco atomico avesse distrutto un parte consistente della rete, i nodi rimanenti, non più subordinati alla mediazione di un centro, avrebbero potuto comunicare fra di loro. La rete distribuita, costruita sul modello neuronale e sfruttando la ridondanza dei collegamenti e delle trasmissioni, si mostra più flessibile e quindi più affidabile e sicura rispetto a reti con una forma centralizzata o decentralizzata. Quello che si guadagna in flessibilità lo si perde però in possibilità di controllo: una volta che la gerarchia viene appiattita i nodi si ritrovano ad essere tutti sullo stesso livello, ognuno un centro ma ognuno incapace – a livello di struttura – di gestire e determinare il flusso di comunicazione.
Se internet è la rete delle reti – il sistema che consente la tessitura che interconnette apparecchi e reti locali, in questo modo costruendo una rete globale di comunicazione – non è difficile indicarlo come struttura di mediazione. Grazie alla mediazione della rete che internet costituisce, un computer (o uno smartphone) può collegarsi con un altro computer, per comunicare o per rintracciare e fruire dati che nella memoria di questo sono contenuti (quindi raggiungere un sito, guardare un video o una foto, scaricare un file). Sfruttando infrastrutture diverse ogni nodo della rete globale è allacciato, potenzialmente, ad ogni altro nodo e rete locale. In questo senso l’essenza di internet è il protocollo TCP / IP: il software che organizza l’interconnessione tra computer e reti attraverso tutti i canali di comunicazione disponibili. Nella metà degli anni Settanta, quando V. Cerf e R. Khan resero pubblico il protocollo TCP / IP, la struttura di internet (o proto-internet che allora si chiamava ARPANET) era costruita come connessione tra reti locali preesistenti, e non come connessione tra computer singoli. Ogni contatto tra computer appartenenti a reti locali diverse doveva essere mediato da un computer centrale che si poneva come centro di snodo e, quindi, di controllo gerarchicamente superiore. Il protocollo TCP / IP – con una separazione delle connessioni tra computer e le connessioni tra reti – appiattirà le gerarchie precedenti, costruendo un’architettura nella quale ogni nodo può interconnettersi direttamente alla rete globale emancipandosi dalla mediazione di un centro. Al computer singolo e interconnesso vengono conferite parti fondamentali di responsabilità sul buon funzionamento della rete e di verifica della buona riuscita delle trasmissioni, responsabilità che fino a quel momento era stata dei computer che si incaricavano di connettere tra di loro le reti. Come per le infrastrutture a rete distribuita proposte da P. Baran anche il protocollo TCP / IP guadagna in flessibilità nel momento stesso in cui perde in possibilità di controllo, disegnando la forma di un super-organismo senza testa, definito dalle cellule del quale è composto ma incapace di organizzarle.
II.
Qui si apre uno squarcio. Tutto questo è internet, eppure appare ben diverso dall’oggetto della nostra esperienza quotidiana che chiamiamo con lo stesso nome. Possiamo pensare a quanto abbiamo appena descritto – l’infrastruttura materiale collegata ad una rete distribuita e il protocollo che utilizziamo per percorrerla – come le fondamenta sotterranee di un’architettura che negli anni si è costruita per stratificazione grazie alle miliardi di ore di lavoro di programmatori e individui comuni. In questo senso la storia di internet è fatta di tanti piccoli apporti, correzioni, annessioni che pezzo per pezzo, utente per utente, costituiscono una forma perennemente soggetta alle forze, anche conflittuali, che la compongono. La struttura di mediazione (di cultura, informazioni, relazioni, esperienze) che comunemente chiamiamo Web 2.0 è il prodotto di mezzo secolo di lavoro umano. Miliardi di pagine di codici e algoritmi che diventano programmi, poi siti collegati tra di loro, e su questi contenuti digitali e applicazioni scritti da persone diverse battendo sulla tastiera in ambienti diversi, mosse da interessi, idee e logiche diverse, senza una direttiva centralizzata o un progetto definitivo, per uno stipendio o per passione. Un’architettura in perenne mutamento che reagisce oggi non più e non solo al lavoro dei programmatori – sacerdoti di una religione informatica, iniziati ai saperi esoterici della programmazione – ma anche agli stimoli degli utenti normali, senza conoscenze specifiche, che in massa, ogni giorno, agiscono internet utilizzandolo più o meno passivamente, ma in questo modo determinandone la conformazione. La forma infrastrutturale di internet e quella del lavoro che l’ha costituito sono legate in un rapporto circolare di determinazione. Il lavoro assieme autonomo e collettivo, disperso geograficamente e senza gerarchie di controllo che ha costituito internet era possibile solo all’interno di quella specifica infrastruttura decentrata e orizzontale. Fuori dal collegamento attraverso internet non erano pensabili le forme e i modi di attività che caratterizzano la storia di internet come prodotto di mano umana e non era pensabile, forse, nemmeno la cultura che si è prodotta attorno al mondo dell’informatica. Senza la rete le persone potenzialmente appassionate del mondo informatico e di programmazione sarebbero rimaste diffuse sul territorio – americano prima, globale poi – ma scollegate tra di loro, e quindi inermi. Nello stesso senso però, internet è la struttura di mediazione che conosciamo grazie al lavoro e ai valori che l’hanno prodotto. Il termine immediatezza avrà allora due significati strettamente intrecciati: da una parte quello di abolizione degli intervalli di tempo che separano un’azione e il suo effetto – velocità -, dall’altra significherà quel processo di soppressione delle strutture atte a mediare alcune forme specifiche di relazioni tra individui in vari campi dell’esistere nell’utopia del rapporto diretto – disintermediazione.
Il web 2.0 è il punto d’arrivo (momentaneo) di una storia che ha reso possibile questo livello di democraticità. La sovranità appartiene al prosumer (crasi di producer e consumer, l’utente massa che consuma e produce contenuti, specifico dell’internet sociale e archetipo umano dell’orizzontalità contro la verticalità del consumatore passivo dei media moderni: radio, televisione, giornali). In questo contesto chiunque senza conoscenze informatiche o di programmazione, e spesso senza grandi oneri economici, può navigare liberamente sul web ed entro certi limiti agirlo. L’utilizzo di uno strumento e di alcune pratiche che fino ad un certo punto della storia sono state appannaggio di tecnici e specialisti diventano possibili per tanti (forse per tutti) grazie ad un lungo lavoro di semplificazione dell’interfaccia con la quale le persone interagiscono con i computer e attraverso questo con la rete. (La facilità con la quale i bambini imparano a navigare su internet è segno inequivocabile di un rapporto semplificato fino alla naturalità tra uomo e macchina). Le strutture atte a mediare questo rapporto – che altro non sono che pagine e pagine di programmazione che macinano silenziose e invisibili dietro la superficie bidimensionale dei nostri schermi – non sono neutre, ma sono il frutto conflittuale della storia, di tante visioni di ciò che internet poteva o doveva essere.
III.
Nell’aprile 1993 il Cern regala il software del World Wide Web alla comunità internazionale in modo che possa essere utilizzato gratuitamente da chiunque disponga di un computer connesso alla rete. È un momento fondamentale: d’ora in poi qualsiasi documento pubblico in internet può essere rintracciato tramite un nome personale (url) che gli è assegnato nel momento della sua pubblicazione. Il linguaggio di tutti i documenti viene standardizzato (html) di modo da renderne più facile la condivisione. La rete di internet assume qui per la prima volta una dimensione globale e, grazie alla semplicità d’uso che il WWW permette, inizia a essere pensabile una diffusione di massa. Rendere libero e aperto il codice sorgente del WWW permette inoltre un lavoro di modifica e miglioramento dello stesso da parte degli utenti. La decisione di diffondere senza restrizioni il codice sorgente del WWW non è certo pacifica. Negli anni precedenti all’interno del Cern si è consumato un conflitto tra l’ideatore del software, Berners-Lee, che spingeva in questa direzione e i vertici del Cern, interessati a promuoverne lo sfruttamento commerciale tramite una gestione privata. Se la vittoria di Berners-Lee non era scontata, tanto meno ci pare scontata la decisione del programmatore di sottrarre il WWW alle logiche del profitto. La scelta di Berners-Lee è radicata in un humus culturale specifico che ha caratterizzato – e in certe frange e in certi modi continua a caratterizzare – gli ambienti dell’informatica. In buona parte della storia dell’informatica in generale, e di internet in particolare, serpeggia una speranza utopica che vede la possibilità di creare attraverso i computer uno spazio virtuale e comunitario liberato dalle forme di oppressione della società. Fuori dalla domanda sulla verità genuina o la falsità, questa utopia ha caratterizzato e continua a caratterizzare un certo tipo di immaginario. Possiamo ricordare la lotta contro il monopolio dell’IBM o di Microsoft sulla quale si fonda la mitica pubblicità della Apple per il Superbowl del 1982 nella quale il non ancora colosso dell’informatica attenta e sconfigge simbolicamente il potere monopolistico di Microsoft rappresentato con toni da Grande Fratello orwelliano; o possiamo ricordare il mito delle comunità hacker, orizzontali, antigerarchiche e contro-culturali, legate alle rivolte di Berkley e al sessantotto americano; mito che sopravvive rinnovato nell’informalità delle aziende della Silicon Valley dove si ci sono i tavoli da ping-pong e – dicono – si può andare a lavorare in infradito.
Prodotto ben più significativo di questo ambiente culturale è il movimento open source o del software libero. Secondo l’idea open source i software sono un prodotto comunitario e non devono ricadere sotto l’egida della proprietà privata, il codice sorgente deve essere reso pubblico e aperto in modo che l’utente possa non solo utilizzarlo liberamente, ma migliorarlo per il bene della comunità stessa. Il problema non è posto in maniera strettamente critica, ma anche funzionale: la proprietà privata del software, la conseguente impossibilità da parte degli utenti di apportare modifiche e migliorie, è un ostacolo al perfezionamento dello stesso: «con tanti occhi a disposizione tutti gli errori si notano in fretta» recita la Legge di Linus. Il buon funzionamento del software è garantito dalla posizione attiva che intrattengono gli utente nei suoi confronti; i bugs vengono risolti dalla comunità, la bestia dai mille occhi si cura da sé. (In questa figura dell’utente attivo non è difficile vedere sorgere il primo abbozzo del prosumer, utente di massa e non più specializzato, ma produttore. Tra il programmatore appartenente alla community di Linux che agisce sulla struttura profonda del software che usa e l’utente dei social network che, agito dall’algoritmo, agisce sulla superfice di Facebook, è rintracciabile una continuità determinata dalle forma stessa della rete.) Prodotto massimo di queste direttive culturali sarà Linux. Dopo che nel 1991 L. Torvalds lo mise a disposizione della comunità informatica, milioni di persone lo scaricarono non solo per usarlo, ma anche con l’intento di migliorare un sistema operativo che, infatti, oggi ha il vanto di essere – oltre che libero e gratuito – probabilmente il migliore del mondo, considerata la scelta di lavorare in e con Linux da parte di aziende del calibro di Google (che quindi in Linux ha sviluppato il sistema Android), IBM e Hewlett-Packard. Il libertarismo di Berners-Lee, il valore universalistico e sociale sedimentato nell’idea sottostante al WWW, trovano le loro radici in questo tipo di ambiente; ma nello stesso ambiente dovremmo posizionare cose a noi più vicine, come lo streaming gratuito, l’accettabilità morale della pirateria di file digitali o l’abitudine di fruire la gran parte dei servizi informatici liberamente, ritenendo impensabile pagare per una casella mail o un account Facebook.
IV.
Nella storia di Internet l’egemonia che ne determina la forma passa per ambienti diversi, l’esercito, l’università e la ricerca prima, gli ambienti contro-culturali poi; in tutti questi casi gli interessi produttivi (industriali e finanziari) non determinano in modi diretti la rete e la sua cultura: questo avviene fino ad una certa data. Progressivamente il prezzo dei computer cala e l’uso commerciale si generalizza, le macchine iniziano a entrare anche nei salotti non più come strumento di lavoro e d’ufficio ma anche per lo svago; la connessione a internet si fa sempre più democratica grazie a software che semplificano la navigazione, la pratica del navigare comincia a diffondersi, lo spazio della rete aumenta in estensione, in quantità di siti, informazioni e piattaforme, aprendosi anche all’utilizzo delle persone senza conoscenze specifiche; internet si mostra sempre più nella sua potenzialità di massa e l’interesse degli imprenditori e della finanza per il mondo della rete cresce esponenzialmente. I ventures capitalists iniziano a investire in questo nuovo e incontaminato spazio di speculazione vedendoci una miniera d’oro dalla quale in poco tempo possono estrarre profitti immensi. La forma del nostro internet è determinata dal conflitto tra la tensione contro-culturale e la logica del profitto che negli anni successivi al 1993 trova dei compromessi diversi da quello che ha caratterizzato la pubblicazione del WWW.
Il 1995 sembra essere un anno fondamentale a partire dal quale prendono forza in modo significativo gli interessi speculativi: dal 1° gennaio vengono ammesse le attività commerciali che fino a quel momento erano state proibite; il 30 Aprile la National Science Foundation (agenzia governativa americana particolarmente significativa nella storia dell’informatica) vende le proprie dorsali di rete ad aziende private, determinando l’effettiva perdita di potere da parte del governo USA e rendendo possibile la sovra-nazionalità caratteristica di internet; nel 1995 inoltre la Netscape Corporation, azienda proprietaria del browser Netscape, si quota in borsa aumentando in modo ingente l’interesse della finanza per le azioni delle società dot.com che crescono rapidamente di valore. Negli anni successivi le aziende che in modi diversi sono legate a internet cominciano ad attrarre investimenti sempre maggiori. Fra il 1995 e il 2000 il Nasdaq (l’indice dei principali titoli tecnologici della borsa americana) cresce del 75%, soprattutto grazie alle aziende che hanno a che fare con Internet. La febbre dell’investimento mostra il suo lato patologico nel 2001 quando la bolla speculativa – creata dalla valorizzazione finanziaria eccessiva rispetto alle possibilità materiali delle aziende legate alla rete – scoppia, bruciando buona parte del valore prodotto (nel 2002 l’indice del Nasdaq si riduce ad un quarto di quello che era nel 2000). Nonostante l’eccessiva speranza nelle possibilità di rapido profitto porti alla crisi dei titoli dot.com nel 2001, il 1995 segna un punto di non ritorno nei rapporti tra internet, investitori e finanza. Dal 1995 in poi inizia a crescere l’importanza degli interessi finanziari e semplicemente economici nella composizione delle forze che definiscono la conformazione di internet, ma non senza conflitti. La crisi del Nasdaq e la bancarotta di numerosissime aziende avviene per impossibilità materiali (per esempio, Amazon non aveva ancor un sistema di logistica capace di realizzare le promesse fatte agli investitori) e per errori di prospettiva; ma anche per ragioni più profonde. In un primo momento sembra che l’organismo, per la sua stessa conformazione strutturale, rifiuti, quasi come un agente esterno e incompatibile, il centralismo monopolistico della logica del profitto. La bestia internet, formata al libertarismo, alla gratuità, e alla democrazia della community sembra opporre qualche resistenza. Il capitale dovrà inventare nuovi modi per auto-valorizzarsi, trovare forme diverse e più creative, dovrà cambiare faccia, nascondersi, camuffarsi, prendere giri più larghi, strade secondarie, sentieri poco battuti, aprire nuove vie. Per entrare nella forma di internet e determinarla, la logica del profitto dovrà mutare per rimanere identica a se stessa.
La Guerra dei Motori di Ricerca che si combatte tra la fine degli anni Novanta e i primi anni Duemila, tra molti soggetti, ma in particolare tra Google e Yahoo! è emblematica. Quando nel 1998 nasce Google il campo dei motori di ricerca è saturo di concorrenti: Yahoo! ed Exite in particolare dominano il mercato. L’importanza strategica di questi portali – nodo di ingresso obbligato alla rete per i nuovi utenti massa incapaci di navigare altrimenti – ne determina un significato sociale e una prospettiva economica che scatena interessi finanziari, investimenti e una guerra per il dominio monopolistico. I problemi che si pongono ai vari siti di ricerca sono fondamentalmente due: qual è il modo migliore di dirigere le ricerche degli utenti e – poiché gli investitori che hanno investito vogliono vedere i proventi – come monetizzare gli ingenti flussi di navigazione. Il primo problema è questione da programmatori, il secondo da manager. Far pagare l’utilizzo dei siti è fuori discussione, nessuno accetterebbe. Titubante, insicura sulle reazioni degli utenti, alla fine del 1995 Yahoo! inserisce nelle sue pagine il primo banner a pagamento; il flusso degli utenti rimane costante; nonostante le critiche alle pratiche pubblicitarie che si respirano negli ambienti di internet, la rete sembra acconsentire. Vendere spazi di visibilità e posizioni privilegiate nell’indicizzazione dei siti sarà il modello aziendale di Yahoo!. In poco tempo però la pubblicità prende il sopravvento sull’affidabilità del motore di ricerca, il programmatore e il manager entrano in conflitto. Le pagine diventano caotiche, con banner lampeggianti e pop-up; i risultati sempre più dominati dagli annunci sponsorizzati non rispondo più alle domande dell’utente; Yahoo! smette di essere un motore di ricerca e diventa uno spazio pubblicitario.
Google impara la lezione; oltre la superiorità tecnologica dell’algoritmo di ricerca (se Yahoo! indicizzava manualmente le pagine «Google interpreta un collegamento dalla pagina A alla pagina B come un “voto” espresso dalla prima in merito alla seconda» e indicizza principalmente secondo questa democrazia del merito, mettendo al centro del suo modello la garanzia degli stessi utenti), anche il rapporto con la pubblicità è più maturo ed equilibrato. L. Page e S. Birn – i fondatori di Google – capiscono subito che la risposta elementare di Yahoo! e di altri motori di ricerca alla questione della pubblicità inficia l’affidabilità del motore di ricerca stesso che smette di funzionare secondo il primato della qualità della ricerca e introietta la logica della sponsorizzazione. Le pagine di ricerca non devono essere intasate di annunci pubblicitari, l’affidabilità della ricerca dev’essere salvaguardata per salvaguardare la sovranità dell’utente. Il modello aziendale di Google nel 1998 è quello di vendere sì spazi e indicizzazioni, ma in modo parsimonioso, separando le pagine sponsorizzate dai risultati organici, tutelando la qualità della ricerca e gli interessi dell’internauta. (Don’t be evil è il motto aziendale di Google: non essere cattivo, non essere rapace, non fare la fine di Yahoo! che è morto d’avidità.) Ma soprattutto Google comprende il valore dell’immensa mole di dati che le ricerche degli utenti producono quasi come scoria, materia di scarto delle loro attività. Sarà questa la miniera d’oro che getta le basi del colosso informatico, la nuova frontiera delle analisi di mercato: la capacità di garantire un servizio pubblicitario più mirato e meno caotico attraverso la mappatura dei movimenti degli utenti che, per entrare nel regno di internet, passano dalla porta di Google lasciando all’azienda la traccia di quello che cercano, di quello che pensano, di quello che desiderano, di quello che sono. Questi dati si possono vendere o utilizzare direttamente nel campo pubblicitario, in entrambi i casi hanno un valore immediatamente monetizzabile. La compravendita dei dati mette d’accordo tutti: gli utenti, non direttamente coinvolti nella transazione economica, rimarranno soddisfatti del servizio di ricerca affidabile e libero; gli investitori vedranno il loro investimento fruttare; l’interfaccia di Google.com sarà pulita, ordinata e disponibile, un servizio naturale come le fragole selvatiche, con dietro – non nascosta, non mistificata ma semplicemente dietro – la produzione di valore.
La Guerra dei Motori di ricerca è solo un esempio di una forma del compromesso tra quelle che oramai sono le due anime che si agitano nelle interiora della bestia acefala. Tante, fra quelle di dimensione significativa, sono le aziende e i siti web che riusciranno a costituirsi su modalità simili, salvaguardando un’esteriorità libera e democratica della rete e spostando dagli occhi degli utenti (oramai consumatori) la filiera produttiva. È anche vero però che negli ultimi anni si sono visti avanzare servizi a pagamento diretto (Netflix, Spotify, Amazon Prime…), mutamenti nei rapporti con la pubblicità (YouTube, Facebook…) che manifestano un ulteriore cambiamento dell’equilibrio tra tensione democratico-libertaria e nudo profitto a favore della seconda.
V.
Si potrebbe usare la metafora dell’effetto di realtà per descrivere la simulazione di immediatezza che agisce nel nostro rapporto giornaliero con internet. Per il critico letterario R. Barthes l’effetto di realtà è una strategia retorica messa in atto dagli scrittori per celare lo statuto fittizio e linguistico dei testi letterari; un meccanismo che aiuta a far cadere il lettore nella tranello (positivo) della finzione. Attraverso una serie di espedienti il testo letterario rende più facile e credibile un rapporto con un personaggio o un’ambientazione di carta come se fossero persone di carne o luoghi reali. Dal destkop che finge una scrivania, all’algoritmo di Google che tenta di anticipare i desideri dell’utente, dalla presenza perenne e tattile di una porta sulla rete possibile attraverso gli smartphone alla rapidità con la quale si compie un acquisto o una transizione economica – la costruzione di un rapporto uomo-macchina e uomo-internet sempre più semplice, veloce, intuitivo e pervasivo (in una sola parola inglese userfriendly), produce una simulazione di immediatezza e naturalità che fa da velo a dei rapporti estremamente più complicati. Cliccare su un icona virtuale e produrre effetti reali dà l’impressione di rapporti causa-effetto semplici e comprensibili, di relazioni immediate tra un gesto compiuto nello spazio digitale e la prevista conseguenza di questo nel mondo materiale, anche quando l’icona e il suo effetto sono separati da una selva di codici e da rimbalzi planetari. In letteratura quando le strategie retoriche sono troppo esposte il lettore smette di credere nella verità genuina del testo; nello stesso modo la struttura di mediazione rappresentata da internet celando la profondità macchinosa dietro la superficie fa cadere l’utente nel tranello della falsa immediatezza, nella sensazione della libera naturalità del suo sguardo e della sua azione attraverso internet.
1 reply to La bestia strana o la forma dell’internet
Comments are closed.
Correlati