Etichettato: internet

L'inganno del web 2.0

Un coccodrillo scostante su Friendfieed e un ricordo un po’ più affettuoso da parte di un amico di rete dai tempi dei modem a 2400 baud avevano attirato la mia attenzione su un personaggio che ho ritrovato nella libreria di un amico sociologo. Ho letto quindi avidamente il libro, con la curiosità di vedere che cosa si nascondesse dietro un personaggio controverso, che chissà come non mi era familiare.

Molto brevemente, non c’è pagina del libro sulla quale in definitiva io non sia d’accordo e, se ci sono chiose da fare, si può parlare di quello che è stato lasciato fuori dal mirino.

Non ci sono dubbi, per incominciare, sul fatto che la blogosfera italiana sia un circolo di poche persone, sostanzialmente autoreferenziali e che, in massima parte si possono lasciare fuori dalla reading list, o quantomeno in fondo, senza compromettere la propria crescita. Diversi mesi di frequentazione assidua di FriendFeed e di lettura dei feed mi hanno convinto del fatto che non avere trovato tesori non dipende dalla malaccortezza nel ricercare.

D’altra parte, se pure il web 2.0 è prodigo di promesse e avaro di risultati, restano due punti da considerare.

Il primo è che Internet è sempre Internet, lo spazio di informazione facilmente reperibile che abbiamo sempre amato e usato con profitto dai tempi in cui era una comunità un po’ più ristretta di scienziati e esperti di programmazione e non si chiamava web. Il ruolo di internet come le ruote per la mente non è in discussione.

Il secondo punto è che ci sono delle novità, ben descritte nel libro, che vanno su due filoni: l’aumento di affluenza alla rete consentito da tecnologie di pubblicazione sempre più amichevoli e la perdita di terreno dei media tradizionali.

La somma degli ultimi due fattori è una proliferazione di fuffa che non è minimamente contrastata dalla blogosfera e investe di ritorno anche i media tradizionali, come nel caso dei giornali che sempre più spesso stampano notizie quasi vere prese da fonti su Internet.

Tracciare la conoscenza è un problema sempre maggiore e una disciplina poco insegnata e poco praticata, anche in ambito universitario, come si sottolinea nel libro.

Se il web degli anni ’90 fosse stato quello del progetto Xanadu, di cui abbiamo parlato, e non quello di Tim Berners-Lee, il tracciamento sarebbe stato automatico, ma la rete ha giustamente scelto la strada meno involuta tecnicamente.

I problema di tracciare l’informazione è ben posto e svolto nel libro e bene fa la presentazione del libro sul sito Laterza a concentrarsi su questo punto, sicuramente, sarà un tema importante dell’evoluzione tecnologica nel prossimo futuro, non solo perché è importante socialmente risolvere questo problema, ma anche per una forza più potente: la pigrizia.

Non abbiamo infatti il tempo e le energie di rileggere per la centesima volta il copia e incolla della stessa notizia o di derivati man mano che i blogger più disparati si imbattono nelle tracce di una certa informazione. Nessuno ha il tempo e le energie per accumulare derivati tossici, stavolta di informazioni. Quindi il problema sarà risolto nei prossimi anni.

Discussione cercasi. 1: i mezzi

Per uno come me, che si è formato sui canoni della Internet prima del browser, è sempre interessante fare dei confronti fra le forme di comunicazione nelle diverse fasi evolutive.

La internet dei blog ha visto un’esplosione della pubblicazione, ma, stranamente, anche un peggioramento della discussione per lo meno sotto certi punti di vista, vediamo come.

Nel 1985 non c’erano molte scelte e i canali di comunicazione erano sostanzialmente tre: la posta per le comunicazioni da persona a persona, le mailing list per le discussioni da fare in pubblico fra un gruppo ristretto di persone, per esempio i membri di un team di progetto, magari distribuiti geograficamente sulle sponde di due oceani.

L’ultima forma di discussione, la discussione pubblica a tema avveniva sulle Usenet news.

Le news, che adesso sono più note come parte di Google Groups, erano una specie di forum di discussione realizzati riciclando in larga parte il formato dei messaggi di posta e aggiungendo una directory globale di argomenti, mutuata dall’allora nascente domain name system.

I gruppi di discussione avevano nomi come comp.lang.c++, comp.lang.c o alt.guitar.bass. Ogni gruppo di discussione era dedicato a un argomento specifico. Le uscite dal seminato erano poco tollerate.

C’erano almeno tre cose notevoli di quel periodo che francamente mancano adesso.

In primo luogo l’elemento portante della discussione era un formato dati definito in uno standard pubblico, come è oggi HTML. Il trasporto dei messaggi si basava su un protocollo definito in uno standard pubblico. Grazie a NNTP i server che partecipavano alla discussione, sostanzialmente tutti i grandi server aziendali, si collegavano punto a punto e si scambiavano gli elenchi dei messaggi per stabilire cosa copiare da uno all’altro. I documenti presenti a un capo e non all’altro venivano trasmessi in modo da aggiornare lo stato di entrambi i server partecipanti a uno scambio.

Così, di scambio in scambio, con questo meccanismo detto store and forward (conserva e inoltra) i messaggi si propagavano – lentamente – per tutta la rete.

Gli archivi di quei messaggi sono stati conservati e Google possiede sostanzialmente tutto quello di cui si è dibattuto dagli anni ’80 ad ora, quindi quelle discussioni sono state persistenti e sono sopravvissute alla nascita del PC IBM, a MS-DOS, a Windows. Perché l’organizzazione era estesa oltre i computer.

Le news erano più aperte, più persistenti, più organizzate dei forum e dei blog di oggi e la discussione era più organizzata e navigabile.

Oggi le tue parole sono dentro facebook o Friendfeed, o sparse per i vari blog senza garanzie di persistenza nel caso che qualche sito chiuda, di consistenza fra siti diversi, di indicizzabilità e reperibilità. In ultima analisi non sono più le tue parole ma il content offerto da servizi di relazione di massa o dal blog in cui hai iniziato una discussione.

L’unico strumento che cerca di dare una visione unitaria di ciò che viene detto in contesti diversi è Friendfeed, che però viene – purtroppo – utilizzato solo per veloci chat, come IRC. Non è un problema di Friendfeed, che permette anche interventi più lunghi di Twitter, ma un problema di come ci si mette in relazione su Friendfeed.

(segue)

Correlazioni

Il grafico di correlazione fra la frequenza di certe ricerche su Google e un fenomeno sociale, come l’influenza, che si può osservare su google.org, è un esempio folgorante di come si può sfruttare l’enorme mole di dati che raccoglie Google per fini del tutto diversi dalla ricerca sul web.

La correlazione fra le ricerche su Google legate all'influenza e i dati dell'agenzia governativa di controllo e prevenzione delle malattie

La correlazione fra le ricerche su Google legate all'influenza e i dati dell'agenzia governativa di controllo e prevenzione delle malattie

Le interrogazioni che contengono parole chiave legate all’influenza sono legate all’insorgenza di casi di influenza in modo diretto, come è mostrato dall’animazione dei dati. L’analisi di questi dati, è temporalmente avanti di due settimane ai dati clinici del Center for Disease Control and Prevention (CDC), un dato straordinario.

Detto in termini semplici, Google predice l’andamento dell’influenza con due settimane di anticipo rispetto ai dati clinici.

L’animazione sul sito, che vi invito a guardare, è anche un’illustrazione eccellente del concetto di correlazione statistica.

I medici cercano, per esempio, la correlazione fra l’assunzione di un farmaco sperimentale e la guarigione dei pazienti, o fra certe abitudini alimentari e certe malattie. Spesso c’è uno sfasamento temporale fra un fenomeno, come fumare quaranta sigarette al giorno, e un altro fenomeno, come ammalarsi di tumore. In ogni caso si cerca la correlazione.
In marketing si cerca la correlazione fra canali e campagne e risultati economici o di immagine misurabili.

Che ci sia una correlazione fra le interrogazioni a Google e l’influenza è molto interessante: significa anche che si chiede a Google molto prima che al medico e anche prima di un ricovero o una richiesta di terapia, dati che arrivano due settimane più tardi, per l’appunto.

Va anche aggiunto che in pratica è molto difficile trovare a priori ricerche utili per creare indicatori sociali utilizzabili, mentre naturalmente a posteriori si può tracciare il percorso di un’epidemia sul motore di ricerca scegliendo le parole chiave giuste.

Lawrence Lessig, i media e la democrazia

L’incontro con Lawrence Lessig organizzato dall’attivissima Maria Grazia Mattei di Meet the Media Guru, è stato ricco di spunti e di stimoli, come c’era da aspettarsi da un personaggio del suo calibro.

L’emozione inizia in coda per entrare: arriviamo prestissimo e c’è già gente, nonostante non abbiano ancora finito di preparare la sala. Resistiamo: ci teniamo ad avere uno degli ambiti pass per entrare nella sala interna. Gli altri dovranno accontentarsi di un posto davanti al video in cortile o nel bar della mediateca di Santa Teresa, che fra l’altro è una location molto interessante e ispirante.

Continua a leggere

Il signor Rossi e Internet

Gianluca Dettori interviene contro la proposta Carlucci sulla libertà di pubblicazione su Internet, una proposta che è stata redatta da Davide Rossi e pubblicata senza nemmeno cambiare il nome dell’autore, come si vede spulciando nelle proprietà del documento in linea sul sito dell’onorevole Carlucci.

Il documento riporta anche nelle proprietà il nome dell’organizzazione e si tratta di Univideo, un’associazione che si occupa di tutelare i diritti degli editori di materiale audiovisivo, un fatto senz’altro interessante.

Va senz’altro letto il post di Dettori sul suo blog sul sole, ma anche la lunga lista di adesioni che rappresentano il meglio dell’innovazione degli ultimi venti anni.

Occorre anche seguire il video con l’intervento in cui si giudica con sufficienza quello che si vuole regolamentare facendo passare il sistema nervoso del pianeta come un parco giochi alla Facebook, che è solo l’aspetto più vistoso che Internet ha preso da quando è aumentata la popolazione.

Si vuole fare passare questo testo come un intervento contro la diffusione in rete di materiale diffamatorio e contro la pedofilia vietando l’anonimato e applicando ai siti web le stesse leggi che si applicano ai giornali, senza sapere che non è necessario, perché nessuno è mai stato anonimo su Internet, se non nella misura in cui non c’è la motivazione per scoprire un’identità, dato che si può tracciare qualunque movimento di byte con l’accuratezza che si desidera.

Ma forse la pedofilia è un finto bersaglio, magari la pirateria audiovisiva è più presente.

Di seguito riporto una parte del secondo commento che ho fatto all’articolo.

L’Italia è un paese in cui la tecnologia annaspa anche per la presenza di una cultura storica che si fa vanto di non conoscere e non capire la scienza, svalutandola per disprezzarla.

Quante volte ho sentito dire “non capisco nulla di matematica” con l’intenzione nascosta di affermare la propria appartenenza a un elite.

Non si può affermare che Internet non ha cambiato il mondo quando ogni passo avanti degli ultimi 30 anni nell’industria dei computer è tracciabile su Internet.

Il codice per risolvere i nomi di dominio (tanto per fare un esempio) è stato creato e messo a disposizione di tutti su usenet più di trenta anni fa, permettendo a tutti di usare indirizzi espressivi come quello di questo blog, invece di numeri come 204.9.177.195 (altri dettagli in questo libro http://bit.ly/ph3yU).

Oggi su Internet si trova il software necessario per la creazione di telefoni, computer, sistemi di navigazione e in diversi ambiti operativi internet è lo strumento di lavoro numero uno, quello che dà le ruote all’immaginazione e l’accesso a tutte le soluzioni e gli strumenti.

Il signor Rossi, come tutti i signori Rossi, usa quasi certamente telefoni cellulari creati in Svezia o Finlandia senza domandarsi come mai non ne trova di creati in Italia, ma sarebbe bene che chi ha a cuore il futuro del paese si domandasse che futuro può avere un’economia che obbliga i giovani ambiziosi a partire o essere degli sconfitti.

Reblog this post [with Zemanta]

Google Chrome supporterà le estensioni

Google Chrome
Image via Wikipedia

Chrome, il browser creato da Google supporterà le estensioni verso primavera. Il sito di sviluppo di Google (dev.chromium.org) contiene un documento che illustra il meccanismo per creare le estensioni.

Sicuramente, la disponibilità di estensioni interessanti renderà ancora più popolare il browser di Google.
È anche interessante notare che WebKit, il motore di rendering alla base del browser Safari di Apple, è sempre più popolare. WebKit è stato adottato da Adobe per il rendering di Air, dato che il browser è multipiattaforma. Nokia ha usato WebKit per il browser dei suoi telefoni e Google lo ha adottato per Chrome.

Sommando tutto, dovremmo avere numeri importanti.

WebKit
Image via Wikipedia

Nel frattempo, comunque vale la pena di tenere gli occhi addosso a Chrome e pensare a qualche widget simpatico, per esempio un client Twitter agile ma adatto per seguire le conversazioni.

Di passaggio ricordiamo anche che Nokia Widgets, un progetto sempre basato su Webkit offre opportunità interessanti agli sviluppatori che vogliano farsi conoscere con un’interfaccia dedicata per qualche servizio popolare.

Reblog this post [with Zemanta]

Better than free, di Kevin Kelly

Un saggio molto interessante su internet, la copia e l’unicità, con implicazioni interessanti in termini di marketing e economia.

Si inizia dalla considerazione che

“Our digital communication network has been engineered so that copies flow with as little friction as possible. Indeed, copies flow so freely we could think of the internet as a super-distribution system, where once a copy is introduced it will continue to flow through the network forever, much like electricity in a superconductive wire. We see evidence of this in real life. Once anything that can be copied is brought into contact with internet, it will be copied, and those copies never leave. Even a dog knows you can’t erase something once its flowed on the internet.”

La premessa è molto interessante e la conclusione è logica:

“I have an answer. The simplest way I can put it is thus:

When copies are super abundant, they become worthless.
When copies are super abundant, stuff which can’t be copied becomes scarce and valuable.”

Infine il saggio esamina otto direttrici su cui può svilupparsi il valore legato all’unicità. Come tutti i saggi provocatori sarà parzialmente vero e sicuramente interessante da approfondire.

Soprattutto, chissà se arriverà anche alle case discografiche questa consapevolezza dell’inutilità del tentativo di arginare la copia. Nel testo si fa riferimento al desiderio del pubblico di compensare le star, per lasciare un segno.

Si citano come esempio i Radiohead, che hanno preso una media di cinque dollari per download mettendo in linea un disco a offerta libera. Cinque dollari è sempre stato il mio limite personale per l’acquisto di un cd prima di un download di prova.

Il Corriere della sera, per contro valuta un fiasco l’iniziativa dei Radiohead, ma i dati a spanne sono confrontabili. Probabilmente il giudizio negativo è dato da due fattori: il grande numero di download senza pagamento e il basso compenso per download, ma si sottovaluta il fatto che chi ha scaricato il disco senza pagare lo avrebbe comunque fatto lo stesso e che il prezzo di 5 sterline è esattamente quello che io pagherei un cd per il piacere di averlo e rigirarlo fra le mani mentre ascolto la musica. A venti euro a copia non posso considerare l’acquisto.

Una cosa interessante è che la pubblicità non entra minimamente nell’equazione, mentre la catena di distribuzione è inutile. E il marketing?