Arbor Networks torna sugli "iper-giganti" della Rete

Dopo aver pubblicato, nei mesi scorsi, un'interessante analisi sul traffico generato da Google (ved.

Dopo aver pubblicato, nei mesi scorsi, un’interessante analisi sul traffico generato da Google (ved. questo nostro articolo), Arbor Networks ha recentemente reso noti i risultati di un’indagine incentrata sulla crescita di Facebook e degli altri “iper-giganti” della Rete. Ad essere prese in esame, le strategie messe in campo da colossi del calibro di Google, Microsoft, Akamai e Facebook.

Lo studio di Arbor Networks ha evidenziato come il traffico generato dal social network Facebook sia passato da zero allo 0,5% d tutto il traffico globale di Internet. La “piattaforma sociale” di Mark Zuckerberg poggia su più di 30.000 server, a conferma della strategia finalizzata a basarsi sempre di più su un’infrastruttura di tipo proprietario.
Google, invece, sta facendo segnare una crescita destinata a toccare il 10% di tutto il traffico Internet.
Secondo Craig Labovitz, di Arbor Networks, i giganti sembrano sfidarsi con progetti di investimenti analoghi, destinati a decidere il futuro della rete Internet. Considerati i costi ed il tempo necessario per la costruzione di nuovi “data center”, molte delle società che distribuiscono contenuti sono nate utilizzando ambienti in “co-location” come Twitter od affittati all’ingrosso come nel caso di Facebook. Tante società nuove, Facebook incluso, hanno mosso i primi passi facendo leva su infrastrutture di distribuzione di terze parti (Akamai ne è un esempio; genera tutt’oggi lo 0,4% del traffico Internet).
Ad inizio anno, Facebook ha iniziato la costruzione del suo primo “data center” proprietario e si vocifera che l’azienda intenda aprirne presto altri quattro.
Secondo Labovitz, sebbene Facebook non detenga ancora la medesima presenza infrastrutturale che è invece propria di Google così come degli altri “iper-giganti”, i giochi sarebbero ancora del tutto aperti. Basti pensare che a marzo Facebook riferì di aver superato Google in termini di numero di visite al proprio sito.

Craig Labovitz ha risposto ad alcune nostre domande sul tema.

Michele Nasi, IlSoftware.it. Innanzi tutto, può chiarire ai nostri lettori di cosa si occupa Arbor Networks ed il suo ruolo all’interno dell’azienda?

Arbor Networks fornisce soluzioni per la sicurezza degli rete ai carrier e ai data center. Tra i nostri clienti ci sono il 70% dei ISP a livello mondiale e molte realtà aziendali di grandi dimensioni. Chief scientist presso Arbor Networks, sono responsabile dell’architettura dei nostri prodotti, delle strategie tecniche e delle attività di ricerca.

Di recente ha pubblicato sul blog della sua società un’interessante riflessione offrendo alcuni dati statistici sul traffico generato dai vari colossi – battezzati “iper-giganti” – quali Google, Microsoft, Facebook ed Akamai. Al vertice della classifica vi sarebbe Google, in grado di generare oggi il 6% del traffico totale. Come termine di paragone, Microsoft genera l’1,2% mentre il social network Facebook lo 0,5%. Può spiegare in che modo avete stilato questa particolare “classifica”?

I risultati che abbiamo reso noti si basano su uno degli studi di più ampio respiro che siano mai stati stilati a riguardo del traffico Internet. Abbiamo analizzato più di 200 Exabytes di dati di traffico Internet “commerciale” in un periodo di tempo pari a due anni. Ciò è avvenuto “mettendo sotto la lente” 110 operatori di grandi dimensioni, attivi in zone geografiche differenti; le dorsali internazionali; le reti regionali ed i fornitori di contenuti.

Per veicolare contenuti ed offrire servizi ci vogliono investimenti infrastrutturali. Che diventano “pesanti” quando un sito web inizia a riscuotere successo. Lei stesso ha ricordato come Facebook sia nato in un “dormitorio universitario” nel 2005. Dal marzo 2007 ad aprile 2010, il social network – con una crescita sostenutissima – ha raggiunto lo 0,5% di tutto il traffico Internet. Quali sono le strategie che stanno utilizzando gli “iper giganti” della Rete e che Lei ritiene più efficaci? La soluzione migliore è la costruzione di un’infrastruttura proprietaria?

Il futuro della rete Internet si sta decidendo oggi attraverso investimenti del valore di miliardi di dollari. Tali investimenti si concentrano sui “data center“, infrastrutture per le dorsali ed alleanze/accordi commerciali con proprietari di contenuti e fornitori di accesso che operano sull'”ultimo miglio“.
Le strategie dei cosiddetti “iper-giganti” stanno convergendo verso investimenti infrastrutturali molto simili così da restare competitivi su più fronti: contenuti, capacità (larghezza di banda, storage e risorse computazionali), costi e performance.
All’aumentare del bisogno di risorse computazionali, di capacità di memorizzazione dei dati e della loro distribuzione, anche le minime differenze nelle spese fisse ed in quelle operative diventano importanti discriminanti sul piano della competitività nell’ottica di Internet.

Quali rischi per la “neutralità della rete” vede se un provider di servizi e contenuti dovesse diventare troppo “grande”? Google, come avevamo anticipato qualche tempo fa, ha annunciato di avere intenzione di realizzare una rete di connessione in fibra ottica per portare la banda larga nelle case e nelle aziende di un buon numero di americani. Il fornitore di contenuti e servizi diventa provider e mette a disposizione l’accesso alla Rete. Quali sono le sue opinioni in merito?

Ritengo che la competizione in Rete stia evolvendo in modo molto rapido. E’ ancora troppo presto per stabilire chi sono i vincitori oppure i perdenti.

Perché Google (ma anche Facebook si sta muovendo nella stessa direzione) vuole spingere l’acceleratore sul “peering” diretto? Quali vantaggi per Google, Facebook od altre aziende simili e quali “pro” per gli utenti e le aziende?

I vantaggi sono: a) contenimento dei costi e b) performance migliori per gli utenti finali o i clienti.

Cambiamo argomento e chiediamo a Lei qual è il reale “stato dell’arte” per quanto riguarda IPv6. E’ noto che gli spazi di indirizzamento IPv4 ancora liberi stiano ormai scarseggiando. Siamo già giungi “alla soglia critica”? Cosa ci aspetta da qui ad uno o due anni? Secondo questo sito, potrebbero non esserci più indirizzi IPv4 disponibili già il prossimo 1° agosto 2011… La stima è reale? Come si stanno attivando le reti scientifiche e quelle commerciali?

L’adozione di IPv6 è ancora allo stato embrionale. Gli ISP potrebbero essere costretti ad attendere per ottenere nuovi indirizzi o ritrovarsi forzati ad implementare costose soluzioni temporanee per fronteggiare la scarsità di indirizzi IP.
Maggiori informazioni su IPv6 sono disponibili su IlSoftware.it facendo riferimento a queste pagine.

Ti consigliamo anche

Link copiato negli appunti