Perchè RSS distruggerà il web

di Daniele Bochicchio, in Sviluppo web,

Ok, non è proprio questa la vera storia, ma un titolo pomposo attira più lettori :D

RSS è una delle cose migliori che gli ultimi anni abbiano prodotto. E' XML con qualche namespace per estenderne le funzionalità (come i trackback o le commentAPI) ed è talmente semplice e geniale che, ed è questo il bello, tutti, dal sito dedicato a cose serie a quello di gossip, passando per i blog sulla cucina o sulla coltivazione della barbabietola da zucchero, l'hanno abbracciato come standard de facto.

Senza RSS probabilmente i blog non avrebbero avuto tutto il successo che hanno. E senza RSS non sarebbe nata una nuova categoria di applicazioni, gli aggregator, che hanno cambiato il modo in cui viviamo le informazioni.

Viviamo non è un termine usato a caso. Porto il mio esempio, credo condiviso da molti. Attualmente ho circa 150 feed, da quello con le notizie, passando per i vari feed RSS di blog o siti, per finire con alcuni che mi sono fatto a mio uso e consumo (quello sul Milan, tanto per fare un esempio caro a Cristian).

Credo che il fatto di poter leggere con calma, tutte insieme, le novità dei miei 150 siti preferiti all'interno di una sola interfaccia sia più che comodo. Non devo girare per 150 siti, a mano. Ci metterei un tempo che è sproporziontamente alto. E così, al tempo stesso, curo i miei "hobby" meglio e faccio il mio lavoro più informato.

Troppo bello fin qui, vero?

Qualche giorno fa il feed dei blogs di MSDN è cambiato. Il motivo è semplice: hanno tagliato via il body dai feed. E' diventato scomodo, molto, seguire i post.

Anche Robert Scoble ha parlato dell'argomento. Il traffico generato dai feed era talmente alto che hanno dovuto, per non pagare cifre assurde in banda, ridurre il testo. Gli aggregator sono fatti per cercare informazioni ogni 60 minuti, come default. Il mio computer è mediamente acceso 12 ore, il che vuol dire che, fatto 12*150 = 1.800, queste saranno le richieste a pagine web che, come minimo, usciranno dal mio computer!

E qui viene fuori la natura pericolosa di RSS. Essendo web-based, ogni richiesta consuma banda. Ci sono sistemi, come implementare header particolari, per evitare questo consumo, ma alla fine resta il mezzo di trasporto, HTTP, ad avere problemi. E' un cane che si morde la coda. Se trecento persone fanno come ed hanno sottoscritto il mio stesso feed,  ci saranno 1.800*300 = 540.000 richieste allo stesso feed. Bel numero eh? :)

La soluzione c'è, ovviamente. Bisogna studiare un nuovo protocollo (o sfruttarne uno che c'è già) che preveda la replicazione delle informazioni. Basta usare un modello simil-NNTP, dove un server centrale scarica e sincronizza le informazioni e molti utenti accedono alla stessa copia, in genere condensata in una moltitudine di server, che fa sì che il server che ha originato l'informazione non sia subissato di richieste e che il sistema sia in grado di scalare.

Oppure inventarsi un reale modello push, dove chi pubblica le informazioni avvisa i propri "iscritti" delle modifiche, e non sono gli iscritti a cercarle direttamente sul server, emulandone le funzionalità.

E' un ottimo spunto di riflessione per il futuro, dato che RSS è una tecnologia che si sta evolvendo e diffondendo molto velocemente. Per la cronaca, dato che praticamente ho fatto feed RSS di tutto, sto sperimentando dei sistemi di compressione basati su gzip, che IIS 6 supporta in maniera nativa, che aiutano a comprimere il contenuto delle informazioni, che poi sono decompresse una volta ricevute dal client. Ed aggiungo che potremmo incominciare, tutti, a fare feed RSS più leggeri. Tenere gli ultimi 10 post/item va più che bene. Ma in giro ho visto anche 100, 200 post tutti insieme. E questo è davvero uno spreco.

Commenti

Visualizza/aggiungi commenti

| Condividi su: Twitter, Facebook, LinkedIn

Per inserire un commento, devi avere un account.

Fai il login e torna a questa pagina, oppure registrati alla nostra community.

Nella stessa categoria
I più letti del mese