Net Sourcer

Il blog di Alessandro Palmisano



venerdì, marzo 30, 2007

Web 2.0: la nuova rivoluzione di internet

Qualche appunto al volo sulla tavola rotonda tenutasi ieri in Cattolica a Milano.

La prima sessione è del professor Lamborghini che ripercorre le origini di Internet: la rete nacque in ambito militare con lo scopo di scambiare files; a ben pensarci, oggi si fa la stessa cosa; ma ai nostri giorni il fenomeno è di massa.

Alla base del web 2.0 c'è anche la diffusione delle connessioni broadband and always-on. Il web 1.0 viene oggi definito il "world wide wait", in quanto caratterizzato dalle lentissime connessioni dialup che al massimo raggiungevano i 56 kbps.

Il web 2.0 è qui ed ora. Ma parliamo della - cosi' definita da Luca de Biase - "scienza delle conseguenze". Cosa succede saltando la value chain? Quali sono i nuovi modelli di business? Basta l'advertising nel web 2.0 per recuperare gli investimenti effeettuati?

E già si parla e siamo proiettati verso il web 3.0, con l'evoluzione della sofisticazione della semantica che rendera' piu' facile effettuare le ricerche. Lo scopo: trovare prima e meglio quello che cerchiamo.

Prende poi la parola Annamaria di Ruscio Net Consulting, societa' di consulenza che supporta le aziende e utenti per capire come contestualizzare nel web, caso per caso. Annamaria parla di web 3.0. I suoi pilastri portanti saranno il lavoro collaborativo, la ricerca intelligente, l'interconnessione dei DataBase. Le tecnologie che vi saranno alla base saranno essenzialmente: RDF, URI RIA, semantic web e SPARQL. Il 3.0 sarà un web semantico, ontologico, neutrale.

Ci focalizziamo poi su una ricerca delal Arthur D. Little. L'utente è prosumer.

Nel passato: l'evoluzione tecnologica era guidata dalle leggi di Moore e di Pareto. La legge di Moore affermava che le prestazioni dei processori, e il numero di transistor ad esso relativo, raddoppiano ogni 18 mesi. La legge di Pareto (legge 80/20) è una legge empirica sintetizzabile nell'affermazione: la maggior parte degli effetti è dovuta ad un numero ristretto di cause (considerando grandi numeri). Secondo questa legge in genere l'80% dei risultati dipende dal 20% delle cause. Questo principio può avere applicazioni pratiche in diversi settori, ad esempio nel web: il 20% dei siti cannibalizza l'80% delle transazioni.

Oggi secondo Chris Anderson è la legge della Long Tail a farla da padrona. Secondo Anderson vige il modello della nicchia: si puo' valorizzare l'ultima parte della coda e con essa sviluppare biz. Alcuni economisti, tuttavia, ritengono che la "lunga coda" non contraddice le precedenti leggi ma le integra. Esempio: Google non potrebbe esistere senza la legge di Pareto.


Uno sguardo al futuro

Secondo Tim Bernes Lee il web 3.0 vedrà la luce fra tre anni e terminerà attorno al 2020. Nova Spivack si spinge addirittura oltre: dopo il web 3.0, giungeremo al web 4.0, tra il 2020 e il 2040. Ma quali saranno le caratteristiche peculiari di questi web X.0? Per sommi capi:

- la connetività ubiqua: broadband, accesso a Internet da terminali mobili

- il network computing

- le tecnologie aperte

- l'identità aperta: openID, Open reputation

- il web intelligente: tecnologie per il web semantico, DB distribuiti, applicazioni intelligenti


Conclude la tavola rotonda, prima del dibattito con gli studenti, Lele Dainesi, del cui intervento è disponibile un podcast al seguente link:

http://senduit.com/aa4eb9

3 Comments:

At 2:09 PM, Anonymous Anonimo said...

che faccio?
1) lo scarico
2) ti rinrazio tanto
3) me lo leggo attentamente

 
At 8:11 AM, Anonymous Anonimo said...

necessita di verificare:)

 
At 8:15 AM, Anonymous Anonimo said...

molto intiresno, grazie

 

Posta un commento

<< Home