L'inganno del web 2.0

Un coccodrillo scostante su Friendfieed e un ricordo un po’ più affettuoso da parte di un amico di rete dai tempi dei modem a 2400 baud avevano attirato la mia attenzione su un personaggio che ho ritrovato nella libreria di un amico sociologo. Ho letto quindi avidamente il libro, con la curiosità di vedere che cosa si nascondesse dietro un personaggio controverso, che chissà come non mi era familiare.

Molto brevemente, non c’è pagina del libro sulla quale in definitiva io non sia d’accordo e, se ci sono chiose da fare, si può parlare di quello che è stato lasciato fuori dal mirino.

Non ci sono dubbi, per incominciare, sul fatto che la blogosfera italiana sia un circolo di poche persone, sostanzialmente autoreferenziali e che, in massima parte si possono lasciare fuori dalla reading list, o quantomeno in fondo, senza compromettere la propria crescita. Diversi mesi di frequentazione assidua di FriendFeed e di lettura dei feed mi hanno convinto del fatto che non avere trovato tesori non dipende dalla malaccortezza nel ricercare.

D’altra parte, se pure il web 2.0 è prodigo di promesse e avaro di risultati, restano due punti da considerare.

Il primo è che Internet è sempre Internet, lo spazio di informazione facilmente reperibile che abbiamo sempre amato e usato con profitto dai tempi in cui era una comunità un po’ più ristretta di scienziati e esperti di programmazione e non si chiamava web. Il ruolo di internet come le ruote per la mente non è in discussione.

Il secondo punto è che ci sono delle novità, ben descritte nel libro, che vanno su due filoni: l’aumento di affluenza alla rete consentito da tecnologie di pubblicazione sempre più amichevoli e la perdita di terreno dei media tradizionali.

La somma degli ultimi due fattori è una proliferazione di fuffa che non è minimamente contrastata dalla blogosfera e investe di ritorno anche i media tradizionali, come nel caso dei giornali che sempre più spesso stampano notizie quasi vere prese da fonti su Internet.

Tracciare la conoscenza è un problema sempre maggiore e una disciplina poco insegnata e poco praticata, anche in ambito universitario, come si sottolinea nel libro.

Se il web degli anni ’90 fosse stato quello del progetto Xanadu, di cui abbiamo parlato, e non quello di Tim Berners-Lee, il tracciamento sarebbe stato automatico, ma la rete ha giustamente scelto la strada meno involuta tecnicamente.

I problema di tracciare l’informazione è ben posto e svolto nel libro e bene fa la presentazione del libro sul sito Laterza a concentrarsi su questo punto, sicuramente, sarà un tema importante dell’evoluzione tecnologica nel prossimo futuro, non solo perché è importante socialmente risolvere questo problema, ma anche per una forza più potente: la pigrizia.

Non abbiamo infatti il tempo e le energie di rileggere per la centesima volta il copia e incolla della stessa notizia o di derivati man mano che i blogger più disparati si imbattono nelle tracce di una certa informazione. Nessuno ha il tempo e le energie per accumulare derivati tossici, stavolta di informazioni. Quindi il problema sarà risolto nei prossimi anni.

Annunci

Discussione cercasi. 1: i mezzi

Per uno come me, che si è formato sui canoni della Internet prima del browser, è sempre interessante fare dei confronti fra le forme di comunicazione nelle diverse fasi evolutive.

La internet dei blog ha visto un’esplosione della pubblicazione, ma, stranamente, anche un peggioramento della discussione per lo meno sotto certi punti di vista, vediamo come.

Nel 1985 non c’erano molte scelte e i canali di comunicazione erano sostanzialmente tre: la posta per le comunicazioni da persona a persona, le mailing list per le discussioni da fare in pubblico fra un gruppo ristretto di persone, per esempio i membri di un team di progetto, magari distribuiti geograficamente sulle sponde di due oceani.

L’ultima forma di discussione, la discussione pubblica a tema avveniva sulle Usenet news.

Le news, che adesso sono più note come parte di Google Groups, erano una specie di forum di discussione realizzati riciclando in larga parte il formato dei messaggi di posta e aggiungendo una directory globale di argomenti, mutuata dall’allora nascente domain name system.

I gruppi di discussione avevano nomi come comp.lang.c++, comp.lang.c o alt.guitar.bass. Ogni gruppo di discussione era dedicato a un argomento specifico. Le uscite dal seminato erano poco tollerate.

C’erano almeno tre cose notevoli di quel periodo che francamente mancano adesso.

In primo luogo l’elemento portante della discussione era un formato dati definito in uno standard pubblico, come è oggi HTML. Il trasporto dei messaggi si basava su un protocollo definito in uno standard pubblico. Grazie a NNTP i server che partecipavano alla discussione, sostanzialmente tutti i grandi server aziendali, si collegavano punto a punto e si scambiavano gli elenchi dei messaggi per stabilire cosa copiare da uno all’altro. I documenti presenti a un capo e non all’altro venivano trasmessi in modo da aggiornare lo stato di entrambi i server partecipanti a uno scambio.

Così, di scambio in scambio, con questo meccanismo detto store and forward (conserva e inoltra) i messaggi si propagavano – lentamente – per tutta la rete.

Gli archivi di quei messaggi sono stati conservati e Google possiede sostanzialmente tutto quello di cui si è dibattuto dagli anni ’80 ad ora, quindi quelle discussioni sono state persistenti e sono sopravvissute alla nascita del PC IBM, a MS-DOS, a Windows. Perché l’organizzazione era estesa oltre i computer.

Le news erano più aperte, più persistenti, più organizzate dei forum e dei blog di oggi e la discussione era più organizzata e navigabile.

Oggi le tue parole sono dentro facebook o Friendfeed, o sparse per i vari blog senza garanzie di persistenza nel caso che qualche sito chiuda, di consistenza fra siti diversi, di indicizzabilità e reperibilità. In ultima analisi non sono più le tue parole ma il content offerto da servizi di relazione di massa o dal blog in cui hai iniziato una discussione.

L’unico strumento che cerca di dare una visione unitaria di ciò che viene detto in contesti diversi è Friendfeed, che però viene – purtroppo – utilizzato solo per veloci chat, come IRC. Non è un problema di Friendfeed, che permette anche interventi più lunghi di Twitter, ma un problema di come ci si mette in relazione su Friendfeed.

(segue)

Oxite, un motore CMS open source da Microsoft

Microsoft ha creato piattaforma di pubblicazione open source chiamata Oxite e la sta utilizzando per il sito del convegno Mix09.
C’è sicuramente bisogno di strumenti per creare sistemi di gestione del contenuto su misura, vediamo come si comporta questo.

Xanadu non si arrende

Quasi trent’anni prima che il gruppo di Tim Berners-Lee scrivesse il primo server web al Cern di Ginevra nel 1990 c’era già chi parlava di ipertesti: Ted Nelson. Gli studi di Nelson cominciano nel 1960 e nel 1974 sono pubblicati in un libro, Computer Lib/Dream Machines, nel 1974.

Il disegno iniziale del progetto Xanadu

Secondo Nelson, il punto di vantaggio dei documenti elettronici rispetto ai documenti cartacei sta nella possibilità di conservare traccia della relazione fra diverse versioni dello stesso documento, fra i testi derivati e i testi originari, fra le fonti e le citazioni.

La visione di Nelson va più in profondità del World Wide Web come lo conosciamo, che è fatto di link a senso unico affidabili solo in parte perché il legame fra i documenti dovrebbe essere strutturale, un po’ come consente Word quando lo si usa per tenere traccia di versioni e modifiche.

Queste sono le idee con cui Ted Nelson fonda il progetto Xanadu nel 1967.

Con obiettivi così ambiziosi non stupisce il fatto che fino al 1972 non sia realizzato un prototipo del software.

Mentre il web e il browser cambiano la faccia della rete il progetto Xanadu cade lentamente nell’oblio conquistandosi la fama di essere il vaporware di maggiore durata dell’industria dei computer.

Eppure il progetto Xanadu non demorde e ha rilasciato recentemente un visualizzatore tridimensionale di ipertesti, che funziona su Windows. Il software può essere scaricato dalla home page del progetto.

Cosa viene dopo Ajax?

Se lo chiede anche Dare Obasanjo, soprattutto perché quello che arriverà dopo Ajax è sicuramente benvenuto.

Sviluppare un’applicazione Ajax, infatti, è un incubo.

In primo luogo occorre mischiare standard come Html e Css che sono standard solo nella testa di quelli che li scrivono.

Le mailing list dedicate al disegno Web sono piene di richieste curiose, tipo “come faccio a mettere questo a sinistra e quello a destra?”. Non sono le domande di neofiti che non sanno come scrivere una tabella: sono le domande di professionisti che hanno rinunciato alle tabelle.

I signori del W3C, che sono convinti di avere la proprietà del Web, quelli che hanno dichiarato morto Html nel 1999 per intenderci, sono riusciti a fare dimenticare a tutti che creare pagine Web è un compito banale, anche perché i browser accettano qualsiasi schifezza nel markup uscendo vittoriosi dalle cose peggiori.

Adesso però occorre validare le pagine anche per legge per l’ottimo motivo che si vuole rendere accessibile il contenuto su Internet a tutti, anche ai disabili. In fondo – si dice – progettando le pagine con la stretta aderenza agli standard si ha anche il vantaggio di avere pagine di migliore qualità.

Però poi lungo la strada si scopre che occorrono trucchi e trucchetti a non finire per riuscire a avere una presentazione accettabile in Firefox, Internet Explorer (il 6 e il 7) e magari anche Safari.

Alla fine, poi, si scopre che è quasi impossibile creare l’applicazione dinamicamente Web 2.0 e Ajax che ha chiesto il cliente o che fa la concorrenza, che vince la gara. 

Continua a leggere