Negli ultimi 12 mesi il WiMAX è balzato improvvisamente alla ribalta, scalando velocemente le priorità nelle agende della politica e dell’interesse dei media. Su WiMAX nell’ultimo anno si sono organizzati convegni, tavole rotonde, seminari, si sono scritti articoli, si son mossi politici, ministri, regolatori, operatori piccoli, operatori grandi, produttori, enti pubblici, enti locali, sindaci, associazioni di settore, di consumatori, di utenti, investitori, e tante altre realtà che nulla centrano direttamente con il mondo delle telecomunicazioni.
Prima di un’anno fa WiMAX era già conosciuto, apprezzato e atteso nell’ambiente delle tlc italiane, ma allora come mai tanto improvviso e diffuso fervore?
Alzi la mano chi, nel corso di ques’ultimo anno, è riuscito a sentir pronunciare la parola WiMAX disgiunta dal termine DigitalDivide: cosa vedo? Nessuna mano alzata? Eh già, di WiMAX si è parlato tanto, ma sempre in abbinamento con quel brutto problema del digital divide, che tutti aborrano, alcuni subiscono, pochi capiscono.
Che cos’è il Digital Divide?
Il termine, in generale, indica il divario che c’è tra le persone (o porzioni di popolazione) dotate di strumenti di comunicazione, informazione, elaborazione digitale al passo con i tempi, e quelle, per varie ragioni, che ne sono prive. Le ragioni possono essere economiche (non se lo possono permettere), culturali (non ne conoscono l’esistenza o manca la capacità di utilizzare, o non ne hanno l’interesse), infrastrutturali (manca la disponibilità delle tecnologie necessarie).
Nelle conversazioni correnti, il termine digital divide assume, tra queste, l’accezione di “indisponibilità di accessi a larga banda in alcune zone del territorio nazionale”, tipicamente le zone rurali e montane (ma in alcuni casi anche le cinture di periferia più esterna delle città). Dove, come si suole dire “manca l’ADSL”, chi desidererebbe allacciarsi e risiede in queste zone non puo’ farlo perché non trova fornitori che abbiano trovato commercialmente interessante (o economcamente sostenibile) installare l’ADSL in quelle zone. Quindi un digital divide infrastrutturale.
Quello del digital divide è sicuramente un problema importante, perché oggi che tutto lo sviluppo culturale, economico, sociale passa per i sistemi di elaborazione e comunicazione digitali avanzati, coloro i quali (persone o aziende) non possono accedere a tali sistemi sono discriminati, rimangono indietro rispetto al resto della popolazione. E’ giusto è importante risolverlo.
WiMAX, come il coniglio del prestigiatore, salta fuori e si candida a risolvere il problema.
Ecco spiegato il fervore dell’ultimo anno: il WiMAX, si dice, è la cura per il digital divide nazionale, ecco perché si è improvvisamente acceso l’interesse per una tecnologia da parte del mondo della politica, del Governo, e conseguentemente della stampa.
Ma perché proprio WiMAX? Quali particolari caratteristiche possiede che lo fanno eleggere a soluzione ideale? E’ veramente la tecnologia che risolve meglio di altre il problema? Ed è vero che non è possibile risolvere oggi il problema del digital divide senza WiMAX?
L’interpretare WiMAX come soluzione per il digital divide deriva da due ragioni: non conoscere esattamente quali siano le reali cause del digital divide, e da aver assunto come incondizionatamente vere alcune caratteristiche positive delle tecnologie WiMAX.
Le caratteristiche che hanno innescato l’illusione sono: a) che WiMAX consente una banda di accesso fino a circa 60MBps, b) la sua capacità di connettere apparati anche non in linea di vista tra le antenne, c) una portata che puo’ arrivare anche a 70Km.
Queste tre caratteristiche (che sono vere, in certi casi), associate tra loro ed accettate in maniera superficiale ed acritica, sembrano effettivamente essere la panacea del digital divide, perché se è vero che le aree digital divise sono in genere quelle distanti alcune decine di chilometri dalle metropoli, e che specie se si tratta di aree montane non sono in vista diretta delle città, un sistema in grado di allacciare utenti fino a 60Mbit, anche non in linea di vista e a diverse decine di kilometri di distanza sembra effettivamente la soluzione ideale per risolvere rapidamente ed economicamente il problema.
Ma quando sono vere tali caratteristiche? Iniziamo a parlare della banda trasportabile e della distanza superabile.
Innanzitutto va ricordato che la capacità di trasporto è direttamente proporzionale all’ampiezza del canale trasmissivo, ovvero della quantità di spettro elettromagnetico utilizzato come vettore dei nostri bit. Più sono i megahertz a disposizione del canale, più sono i megabit che potranno essere trasportati. Considerando un’ampiezza di canale di 21(+21) MHz, si traduce (considerando un’efficienza media di tre bit per hertz) nella capacità di veicolare verso gli utenti circa una 60tina di Mbps. Questo su piano teorico, perché poi bisogna fare i conti con una serie di fattori. Uno di questi è la distanza dell’utente dall’operatore. La distanza implica un progressivo affievolimento dell’intensità del campo elettromagnetico irradiato (che tende a dimezzarsi con il quadrato della distanza), e l’affievolimento determina una via via decrescente capacità di trasporto. In pratica, più è distante l’utilizzatore minore è la quantità di banda ovvero i megabit in grado di scambiare nell’unità di tempo. Un utente vicino all’antenna avrà una banda teorica a disposizione vicina al 100%, un utilizzatore distante alcuni chilometri potrà goderne solo di una frazione. Ciò significa che anche se WiMAX, dotandolo della massima potenza in antenna che la legge consente, in condizioni ideali è in grado di superare distanze di alcune decine di kilometri, a queste distanze è impossibile ottenere le stesse prestazioni (i famosi 60Mbps teorici) che potremmo invece avere a breve distanza. (va detto che vi sono molti altri parametri fisici che influenzano le prestazioni della trasmissione via etere, ma per semplicità qui ho descritto solo quelli più macroscopici).
NOTE: a) Le illustrazioni sono puramente esemplificative, per semplicità di rappresentazione i rapporti tra le lunghezze raffigurate non rappresentano le proporzioni reali I valori numerici espressi sono indicativi. b) nell’illustrazione la diminuzione di banda in funzione della distana è rappresentata per semplicità solo nel verso impianto⇒ utilizatore (download). In realtà la comunicazione è simmetrica pertanto va considerata anche l’attenuazione della banda nel verso utente ⇒ impianto (upload)
Come detto, un’altra caratteristica che rende WiMAX una tecnologia interessante per dare accesso last-mile agli utenti, è la sua capacità di sfruttare le riflessioni multiple delle onde radio sulle superfici per consentire, in alcuni casi e con peggioramento delle performances complessive, collegamenti anche non in linea di vista tra le antenne. Ma l’ambiente dove si riesce a sfruttare al meglio il multipath è l’ambiente cittadino, dove grazie alle numerose superfici verticali dei caseggiati le riflessioni sono molte. L’ambiente peggiore sono invece proprio le aree rurali dove scarseggiano le superfici riflettenti ed abbondano quelle assorbenti (alberi, pendii erbosi, etc..).
Da queste precisazioni si comprende quindi che WiMAX non consente di trasportare 60Mbps a distanze ragguardevoli persino in mancanza di linea di vista. WiMAX è una tecnologia nata per fare MAN (Metropolitan Area Network), ovvero il cosiddetto ultimo miglio, come tecnologia integrativa (più che alternativa) alle reti cablate. (E va aggiunto che la capacità di banda in antenna, ad esempio i 60Mbps teorici, viene condivisa tra tutti gli utenti simultaneamente attivi, non è indipendente per ogni utente. Quindi nel caso di applicazioni pesanti come il videostreaming, una manciata di utenti attivi consuma tutta la banda disponibile.)
La cosiddetta “mancanza di ADSL” in certe zone del Paese, non deriva dall’impossibilità (tranne qualche raro caso di situazioni logistiche compromesse) o di assenza di convenienza ad installare gli apparati ADSL nelle centrali telefoniche, bensì dall’indisponibilità di banda adeguata ad alimentarli. Ciò che manca nelle zone diagiate non è l’ADSL, ma la banda necessaria ad alimentare l’ADSL. Se manca per l’ADSL, la banda manca anche anche per WiMAX. Dove manca la banda non si può erogare il servizio ne tramite l’uno né l’altro. Se la banda c’è, l’utilizzo della prima o del seconda tecnologia è comunque possibile.
Quindi è il backhauling la principale causa del DigitalDivide: nelle aree rurali o montane non vi sono dorsali in fibra ad alta capacità (ma ogni paese c’è la centrale telefonica in grado di ospitare i DSLAM xDSL o un punto cospiquo dove installare un apparato wireless), quindi prima di poter dare accesso localmente agli utenti vuoi con sistemi xDSL che Wireless (WiMAX, Hyperlan), vanno realizzate le infrastrutture di backhauling che trasportano la banda internet alla zona da servire. Più distante è la zona, più è difficile raggiungerla e più è numeroso il bacino di utenti da servire (e quindi la banda totale necessaria da trasportare), maggiore è il costo per realizzare e manutenere un backhauling di capacità ed affidabilità adeguate.
Il backhauling è l’infrastruttura di rete che porta la banda internet ai siti che ospitano le apparecchiature per l’accesso utente (xDSL o wireless che sia). Puo’ essere realizzato in vari modi in funzione della banda, della topologia, della distanza (tipicamente fibra o ponti radio PDH o SDH, ma anche in HiperLan o WiMax se le distanze da superare sono brevi e non è richiesta molta capacità di trasporto).
Rete di accesso:
- dove già esiste la tradizionale cablatura telefonica in rame, WiMAX non è necessariamente più conveniente dell’ADSL, il più delle volte in questi casi risulta addirittura molto meno conveniente;
- nelle aree rurali e montane (e in generale in quelle dove vi è scarsa numerosità di utilizzatori e ridotta probabilità di interferenze radio), l’accesso wireless è realizzabile già oggi con la più economica (ma di performances similari) tecnologia HiperLan;
- performances: un DSLAM è in grado di veicolare una quantità di banda garantita molto superiore ad un numero molto più grande di utenti di una cella WiMAX. WiMAX non può quindi costituire una tecnologia di sostituzione rispetto alle reti cablate (in rame e soprattutto in fibra), se non per le applicazioni internet più leggere. Impensabile poterla utilizzare per le applicazioni di videostreaming (YouTUBE, IPTV, ..), dove un ridotto numero di utenti attivi simultanei saturerebbe la capacità della cella;
- WiMAX risulta interessante per raggiungere quei (pochi) utenti che non possono essere raggiunti dall’ADSL a causa dell’elevata distanza dalla centrale telefonica e conseguente eccessiva attenuazione della linea;
- WiMAX consente agli operatori alternativi di avere a disposizione una rete senza essere come adesso essere subordinati ad affittare (wholesale o unbundling) da Telecom Italia le varie componenti dell’infrastruttura di accesso, la cui convenienza va però valutata con la consapevolezza dei limiti di performances e sotituibilità, in particolare tenendo conto della prospettive di evoluzione dei profili di consumo di banda degli utenti nei prossimi anni;
- WiMAX nella banda dei 3.5GHz è inadatto a fornire servizi wireless in mobilità (dati e/o voce) confrontabili con quelli UMTS sui 2,1 GHz, a causa della ridotta o nulla penetrazione indoor del campo elettromagnetico a quella lunghezza d’onda;
Di solito quando trovo un articolo lungo non arrivo alla fine.
Questo tuo articolo è molto lungo per il "mio standard" ma quando sono arrivato all'ultima frase ci sono rimasto male.
Manca qualcosa: sembra addirittura corto!
I miei complimenti per come hai trattato l'argomento!
P.S. io la mano la alzo: il WiMax l'ho sempre pensato per altre applicazioni e non per risolvere il digital divide e l'ho anche scritto qualche volta ;)
Scritto da: Alberto | lug 20, 2007 a 16:10
grazie Alberto!
Effettivamente avevo qualche dubbio a postarlo vista la lunghezza, ma ho pensato che fosse doveroso tentare di dare una mano togliere di mezzo gli equivoci che gravitano attorno alla cosa: essendo una materia alquanto tecnica è comprensibile che nascano distorsioni informative in mancanza di basi adeguate.
Il problema è che queste distorsioni informative sta facendo del male sia al digital divide che al WiMAX, creando illusioni negli utenti e gli enti locali afflitti dal problema e nei politici e nelle istituzioni che individuano così soluzioni non adeguate.
Il tutto si traduce in un rallentamento sia della soluzione del digital divide, che dell'introduzione del WiMAX come tecnologia utile a tante altre cose (e non solo nelle aree digital divise).
Basti pensare al regolamento AGCom sul WiMAX che è stato recentemente pubblicato: è un gran compromesso che non soddisfa nessuno. E' stato redatto cercando di contemperare esigenze e vincoli contrastanti tra loro, e quindi scontenta tutti, tanto che molti operatori (sia grandi che piccoli) hanno già annunciato che non parteciperanno alla prevista imminente gara per l'assegnazione delle frequenze, gara che probabilmente andrà deserta ritardando ulteriormente l'utilizzo di WiMAX in Italia, in quanto è probabile che dovrà esser messa mano al regolamento con tutte le lungaggini del caso (che ben vengano se stavolta si realizzerà un regolamento più consono).
Dici bene che il post è un po' troncato, del resto non desideravo trarre conclusioni, bensì fornire le informazioni che consentissero ai lettori di trarre le proprie conclusioni, e magari stimolare delle discussioni in merito al cosa è meglio fare vuoi per il digital divide che per il WiMAX (ma tenendo ben separati i due argomenti!), anche se il luogo deputato alle discussioni sull'evoluzioni della rete è più il blog del Quinta che il mio.
Mo vado a leggere cos'hai scritto sul tuo blog su WiMAX e magari commento
G
Scritto da: Guido Tripaldi | lug 20, 2007 a 18:44
x Alberto: non riesco ad aprire www.alblog.it
Scritto da: Guido Tripaldi | lug 20, 2007 a 20:36
Molto interessante.
Io però sottolineerei il fatto che di sicuro non è una architettura basata su macro celle che può risolvere il Digital Divide. Soprattutto, come tu hai accennato, quando si parla di utilizzo della rete "Always On". Portare una banda larga che è larga solo se la si usa sporadicamente a turno è una presa in giro. Quindi un'architettura a macrocelle come Wimax o le soluzioni cellulari UMTS, HSDPA, LTE, ecc si scontrano sempre col problema di dover "spalmare" la loro capacità su un'area molto vasta e, potenzialmente, con tanti utenti. La soluzione dovrebbe passare per le micro-celle e la redistribuzione della banda. Mesh Networks??
Scritto da: Massimo Mazzeo | lug 23, 2007 a 09:55
ciao Massimo,
>Quindi un'architettura a macrocelle come Wimax o le soluzioni cellulari UMTS, HSDPA, LTE, ecc si scontrano sempre col problema di dover "spalmare" la loro capacità su un'area molto vasta
[...]
>La soluzione dovrebbe passare per le micro-celle
ciò che osservi è corretto, più ampia è una cella e più utenti raggiunge, minore è la banda procapite che è garantibile al singolo. Però ocio che l'ampiezza delle celle non è determinata dal tipo di tecnologia impiegata, ma è un atto volontario dei progettisti della rete in funzione del target di utenza e dei servizi che intendono veicolare in una ben determinata zona. In ambito urbano, ad esempio, vengono già impiegate le microcelle quando è necessario garantire il servizio in zone ad altissima concentrazione di utenti, le celle gsm/umts possono avere un raggio di poche centinaia di metri o meno, ovvero viene ridotto il raggio d'azione (e quindi aumentata la densità delle celle per superficie) al fine di riutilizzare le frequenze disponibili ed aumentare così la banda complessiva a disposizione degli utenti.
Stesso dicasi per WiMAX: è il gestore della rete a decidere come settorizzare la cella (ovvero quanti fronti avere, di che potenza e quante e quali frequenze allocare per settore). Quindi WiMAX puo' essere (e viene) utilizzato sia per realizzare macrocelle che microcelle. Tipicamente la macrocella viene utilizzata in ambito rurale, dove vi è una densità di utenti molto bassa per ettaro, ovvero sono pochi e sparpagliati su una superficie piatta e molto vasta. In questo caso il progettista opterà molto probabilmente per una macrocella, ovvero una stazione radio base con potenza in antenna sufficientemente elevata per garantire la copertura della porzione di territorio desiderata. Dovendo invece garantire la copertura di zone ad alta densità di utenza, come possono essere i centri delle grandi città, i centri direzionali, etc.. verranno utilizzate delle microcelle, ovvero bassa potenza in antenna in modo tale da non superare una certa distanza, e quindi non andare ad interferire con le celle adiacenti che riutilizzano le medesime frequenze.
Addirittura, dovendo garantire tanta banda a molti utenti in ambito urbano, ci sono già progetti qui in Italia che realizzeranno servizi di accesso wireless basati su delle nanocelle di poche decine di metri (in tecnologia WiMAX e LTE). In pratica le radio base verranno attestate sulle MAN in fibra a breve distanza l'una dall'altra. (questi progetti non vedranno però la luce prima di qualche anno)
>non è una architettura basata su macro celle che può risolvere il Digital Divide
[...]
>Mesh Networks??
occhio a non confondere le problematiche (come l'ampiezza delle celle) relative alla rete d'accesso con le problematiche relative alla rete di backhauling.
Il digital divide esiste non per la mancanza di rete d'accesso, ma per mancanza di backhauling. (o meglio, la rete d'accesso, wireless o xdsl, non viene installata fintanto che non c'è una rete di backhauling). La vera difficoltà, il vero costo è realizzare e manutenere il backhauling nelle aree digital divise: costa molto rispetto al numero di clienti potenziali e a quanto sono disposti a pagare al mese.
Le reti mesh sono una cosa molto interessante sul piano tecnico, però sono molto complesse da realizzare laddove si esca dalla rete mesh amatoriale (pochi utenti, pochi nodi, topologia a bassa complessità, nessun servizio da garantire) e si entri nell'ambito di reti che devono garantire determinati livelli di QoS ad un numero significativo di utenti ed attraverso un numero significativo di nodi. In questo caso la complessità esplode e serve necessariamente un approccio progettuale a tavolino.
In ogni caso non è l'approccio mesh che risolve il problema delle aree disagiate, in quanto il problema lì è realizzare le tratte a lunga distanza necessarie a trasportare un'adeguata quantità di banda in prossimità della rete di accesso, e non a come redistribuire la banda attraverso percorsi multipli tra celle più o meno adiacenti, che è la caratteristica base delle reti mesh.
Ma sulle reti mesh tornerò più avanti con un post dedicato
ciao,
G
Scritto da: Guido Tripaldi | lug 23, 2007 a 11:41
Andrea C. mi ha scritto per chiedermi alcune delucidazioni, riporto di seguito, autorizzato da Andrea, email e mia risposta, probabilmente puo' esser utile a qualche altro lettore:
Il 10-08-2007 12:30, "Andrea" ha scritto: -------
>Ciao, io faccio parte di un comune privo di collegamento internet a banda larga .. In progetto però il comnune (castelnovo del friuli - pn) prevede di investire in una tecnologia Hyperlan entro giugno 2008 .
>Allora, nel depliant che hanno mandato, erano elencati anche i "contro".
>Allora l'idea a quanto pare era quella di mettere l'antenna sopra il municipio. Il problema è che hanno garantito che il segnale arriverebbe solo a quelli che "vedono" l'antenna e che avrebbe una copertura di sengale di 5/6 km..
>Allora il mio comnume è situato in collina.
>La mia domanda è questa: che differenza c'è tra Hyperlan e wiMax visto che quest ultimo ha in teoria una portata di anche 50 km con una sola antenna ??
>Seconda domanda: in termini di costi, qual è il piu conveniente (per gli utilizzatori non per la costruzione degli impianti) ??
-------
ciao Andrea,
provo a risponderti in modo meno tecnico possibile
> La mia domanda è questa: che differenza c'è tra Hyperlan e wiMax visto
> che quest ultimo ha in teoria una portata di anche 50 km con una sola
> antenna ??
il fatto di poter raggiungere i 50Km non dipende dal fatto di essere "wimax" ma dal fatto che a questa tecnologia verrebbe consentito dal Ministero una potenza in antenna molto maggiore di quella che invece è consentita per le tecnologie HyperLAN. Considera inoltre che la portata di 50Km (raggiungibili solo in linea di vista) è solo teorica, cioè dipende da molti fattori (potenza in antenna, tipologia delle antenne, loro orientamento, spazio di Fresnel, ostacoli intermedi, condizioni climatiche, ..) ed in ogni caso la banda internet effettivamente utilizzabile a queste distanze è molto inferiore a quella disponibile a poca distanza dall'antenna, infatti la maggiore distanza fa peggiorare il rapporto segnale/rumore abbassando drasticamente le prestazioni del link.
HyperLan e WiMAX sono tecnologie simili tra loro (ci sono diverse differenze ma sono tra loro imparentate).
Provo a riassumerti alcune differenze tra le due tecnologie senza scendere negli aspetti più tecnici:
- WiMAX è più efficace di HyperLan nel ricostruire il segnale che rimbalza sugli edifici quando le due antenne non si vedono direttamente (ma comunque non riesce a fare miracoli);
- a WiMAX vengono (verranno) concesse delle frequenze riservate per ogni operatore, mentre HyperLAN lavora su frequenze liberamente utilizzabili da tutti (privati cittadini ed operatori) e quindi condivise. Ciò significa che i servizi basati su HyperLAN sono soggetti ad interferenze reciproche che possono far peggiorare (e di molto) le prestazioni (è come parlare con un amico in una stanza dove c'è molta gente e dove tutti parlano simultaneamente). Se si ha fortuna e nella stanza ci sono solo due o comunque poche persone allora la conversazione è soddisfacente, ma se nella stanza, il cui ingresso è libero ed aperto a chiunque entrano a parlare
altre persone, mano a mano non capisce più niente. Frequenze riservate è come dire stanze riservate, quindi confusione minore.
Ovviamente la quantità di interferenze dipende da quanti mettono un access point nella medesima zona (sia utenti che operatori) e quindi in città ci sono molte più interferenze che non in un paese o in campagna, dal momento che il numero di access point simultaneamente attivi è ovviamente molto diverso nei tre casi.
- WiMAX è una tecnologia molto più costosa lato operatore rispetto a HyperLAN: le apparecchiature per una singola cella WiMAX hanno un costo orientativo di 12Keur più il costo delle licenze ministeriali per l'uso delle frequenze (che non sono affatto trascurabili, si parla di milioni di euro, ovviamente da spalmare su tutti gli impianti), contro i 1.500 Eur necessari per apparecchiature di tipo professionale per una cella HyperLan e
che non richiede il pagamento di alcuna licenza (che scendono a qualche centinaio di euro nel caso di apparecchiature semipro). (a questi vanno ovviamente aggiunti i costi delle antenne, del palo/traliccio, di installazione, impianti elettrici, affitto del sito, manutenzione, etc.. e di backhauling, che però sono simili in entrambi i casi)
- anche nelle apparecchiature lato utente c'è una gran differenza di costi:
un dispositivo HyperLan puo' costare anche solo poche decine di euro, infatti già oggi molte delle schede ed access point più recenti incorporano anche HyperLan.
- un dispositivo WiMAX lato utente costa ad oggi ancora alcune centinaia di euro, questo perché WiMAX è ancora una tecnologia poco diffusa, e quindi il costo di produzione degli apparati è spalmato su un numero piccolo di pezzi rispetto ai numeri dei dispositivi wifi/hyplan prodotti. I prezzi scenderanno, ma ci forrà un po' di tempo, diciamo almeno un paio d'anni o forse tre.
- WiMAX rispetto ad HyperLan è una tecnologia che non è ancora completamente stabilizzata, questo determina due problemi: lato operatore avere alcuni grattacapi riguardo la stabilità di esercizio degli impianti, lato utente nel non esser garantito nella completa e certa interoperabilità del proprio
dispositivo con quello del proprio operatore. Ovvero ad oggi è necessario adottare lato utente una tecnologia WiMAX di una marca e modello tra quelle testate con la tecnologia adottata lato proprio operatore, cambiando operatore (perché ad esempio ci si trova meglio con un altro) non v'è garanzia che il dispositivo che si possiede funzioni regolarmente. Con
HyperLan non c'è questo problema, la tecnologia è matura e
l'interoperabilità è garantita tra tutti i modelli di tutte le marche.
Spero di esser riuscito a toglierti i dubbi, sei hai altre domande son sempre qui :-)
ciao,
G
Scritto da: Guido Tripaldi | ago 10, 2007 a 16:37
Ciao,
anch'io ho apprezzato il tuo intervento sul WiMax e il Digital Divide. In verità non mi ero mai interessato molto alla faccenda. Fatto sta, che negli ultimi giorni, sto scrivendo un relazione sul WiMax e dopo tanti documenti che parlavano bene del WiMax (anche su Wikipedia e molti altri siti informativi) sei arrivato tu che mi hai praticamente spiazzato. In verità sentivo già il sentore che poteva non funzionare come dicevano in giro, ma non ho trovato fonti autoritarie che lo affermassero.
Ho una domanda da porti (e magari te ne porrò altre in seguito): ho visto che secondo gli standard IEEE 802.16 le frequenze di funzionamento del WiMax vanno da 2 GHz a 11 GHz se non si è in Line-of-Sight, mentre si usano le frequenze tra i 10 GHz fino ai 66 GHz per quelle in Line-of-Sight. Il primo intervallo riesce però ad operare solo in un raggio di 8 Km, mentre il secondo arriva fino ai famosi 60-70 Km. Non so se queste informazioni sono giuste (fonte:http://nislab.bu.edu/nislab/education/sc441/JustinKen/JustinKen/Networking%20Webpage/index_files/Page372.htm). Ma nel caso lo fossero, utilizzare la frequenza di 3,5 GHz, come disposto in Italia, non porterebbe l'operatività a sole pochi chilometri (oltre ai problemi che hai affrontato nel tuo articolo)?
Spero tu mi possa risolvere questo dubbio.
Grazie e Ciao
QP
Scritto da: Quang Pham | ago 25, 2007 a 19:34
ciao Q,
>dopo tanti documenti che parlavano bene del WiMax [..] sei arrivato tu che mi hai praticamente spiazzato
lungi da me pensare che WiMAX non funzioni o che non sia una tecnologia interessante, tutt'altro! Nel post desideravo evidenziare l'eccesso di aspettative che, in Italia, si stanno riponendo in questa tecnologia, ovvero di come molti siano stati indotti a pensare che WiMAX possa risolvere quasi tutti i mali del mondo (telematico) a causa di un difetto di informazione, e spiegare perchè WiMAX non sia l'auspicata bacchetta magica che risolve il problema del digital divide. E l'eccesso di aspettative si tramuta immancabilmente in grandi delusioni.
WiMAX possiede caratteristiche molto avanzate e ha tecnicamente tutte le carte in regola per tentare di diventare una tecnologia pervasiva nel mercato (in particolare la versione mobile), ma il suo ambito di applicazioni, per quanto ampio, ha un perimetro preciso, che è inoltre influenzato dalle condizioni al contorno (regolamentari, economiche, progettuali, ambientali).
Se si desidera veramente risolvere il digital divide vanno prima conosciute bene le sue cause (tecniche e commerciali) e poi individuate le soluzioni. E la soluzione non è unica perchè le cause sono più d'una.
WiMAX puo' essere senz'altro utile nelle aree digital divise, ma solo per risolvere alcune delle problematiche di rete, non risolve cioè da solo tutti i problemi.
Riporre tutte le speranze nel WiMAX significa non affrontare il problema, e rimandare, anzichè accelerare, la soluzione del digital divide.
>Ho una domanda da porti (e magari te ne porrò altre in seguito)
sei il benvenuto :-)
>le frequenze di funzionamento del WiMax vanno da 2 GHz a 11 GHz se non si è in Line-of-Sight, mentre si usano le frequenze tra i 10 GHz fino ai 66 GHz per quelle in Line-of-Sight. Il primo intervallo riesce però ad operare solo in un raggio di 8 Km, mentre il secondo arriva fino ai famosi 60-70 Km. Non so se queste informazioni sono giuste
mmh dunque, c'è qualche inesattezza: l'onda elettromagnetica in realtà tende ad essere propagata nell'atmosfera con maggior difficoltà al crescere della frequenza, tende cioè ad essere assorbita maggiormente, quindi a coprire distanze inferiori a parità di potenza emessa. I ponti radio al crescere della frequenza divengono perciò progressivamente meno adatti a coprire lunghe distanze.
Per lo stesso motivo le frequenze molto elevate tendono a rimbalzare meno bene sulle superfici poco speculari come l'intonaco delle facciate degli edifici (essendo da in buona parte assorbite), quindi è vero che sono inadatte a condizioni NLOS.
Probabilmente l'equivoco è nato dalle indicazioni della pagina che mi hai segnalato (http://nislab.bu.edu/nislab/education/sc441/JustinKen/JustinKen/Networking%20Webpage/index_files/Page372.htm), dove è correttamente indicato che le frequenze sopra i 10GHz sono più adatte al LOS, e sotto è indicato che operando in condizioni di LOS si possono anche coprire 30 miglia. Ma non è dichiarato che con le frequenze >10GHz si superano distanze di 30miglia. Credo che tale interpretazione derivi se leggendole si associano tra loro le due indicazioni per tramite del fattor comune "Line-Of-Sight" (che il LOS sia usato esculsivamente sopra i 10Ghz e che quindi se si realizza il LOS (e quindi apparentemente solo sopra i 10GHz) si arrivi a 30miglia).
In ogni caso, le caratteristiche WiMAX riportate in quel link sono le prestazioni massime teoriche ed in condizioni ideali (come ho spiegato nel mio post). E' proprio perchè talvolta i dati di targa vengono presi per veri senza tener in debito conto come questi varino in funzione delle condizioni di reale utilizzo sul campo che nascono le illusioni che una certa tecnologia sia una "bacchetta magica".
ciao,
G
Scritto da: Guido Tripaldi | ago 27, 2007 a 15:49
Grazie Guido il Tuo articolo mi ha illuminato!!!!!!
Ti ho postato nel mio http://boatrade.blogspot.com/2009/02/il-backhauling-la-principale-causa-del.html spero che gradirai.
Mi pare che una società di Telecomunicazioni Italiana EUTELIA(terza per estensione di fibra sul territorio italiano più di 13.000km) non proprio amata ne blasonata come i Big Telco, ritiratasi dall'asta wimax, stia puntando ora alla TLC antidigital-divide, sfruttando i suoi assets di BACKHAULING sul territorio dando ai Wisp (acronimo di WiFi Internet Service Provider) la possibilità di offrire banda larga nelle zone non raggiunte dai grandi operatori.
Chissà che il dossier di F. Caio sul tavolo del Governo non affermi ciò che Tu onestamente hai spiegato, consigliando proprio questa soluzione, ovvero creare dorsali in fibra ed appoggiar sopra una rete di WISP.
TOSCANA DOCET
http://espresso.repubblica.it/dettaglio-local/internet-ora-corre-sui-ponti-radio/2072093/6
http://web.rete.toscana.it/BandaLargaStatico/PageDettagliRicerca.jsp
COSA NE PENSI? sono sulla strada giusta?
basta un cenno
Scritto da: boatrade | mar 06, 2009 a 16:13
bell'articolo, chiaro e ben scritto. Da qualche parte accenni alla maggiore potenza degli apparati WiMax senza però approfondire l'argomento.
Dovendo installare le antenne a casa la potenza irradiata è stato uno dei fattori che mi hanno portato a scegliere HyperLan.
Scritto da: Emanuele | lug 03, 2009 a 15:20
Salve, sono laureando in Scienze politiche, sto preparando insieme ad altri colleghi un progetto di spesa collettiva dei cittadini che beneficieranno del servizio di telefonia\internet gratuitamente. stringendo molto si dividerà la spesa di progettazione, realizzazione e mantenimento atgtraverso una onlus di cui tutti i cittadini faranno gratuitamente parte e attraverso l'intestazione dell'8x1000 e di una frazione del prezzo alla suddetta associazione si garantiranno determinati servizi quali appunto telefonia ed internet, aleno per iniziare. sapresti gentilmente dirmi quali potrebbero essere i problemi che si presenteranno nella fase di preventivo, i costi e le aziende che se ne occupano? grazie del tuo tempo.
Massimo Polselli
Scritto da: Massimo Polselli | nov 30, 2009 a 16:15
ciao Massimo,
mi sembra una bella iniziativa, però non sono certo che possa essere sostenibile o conveniente, cioè che i costi procapite suddividendo i costi generali necessari per acquistare e manutenere le apparecchiature necessarie, la banda, etc, siano alla fine inferiori degli oramai molto modesti canoni che i vari operatori propongono per l'accesso ad internet e la telefonia voip. Gli operatori hanno dei margini di guadagno modestissimi sui canoni di accesso ad internet e di telefonia fissa/voip. I costi necessari per erogare il servizio sfiorano il prezzo di vendita al cliente, e questo non ostante le economie di scala che un operatore riesce a conseguire (puo' sembra strana l'affermazione "non guadagnano molto", ma è proprio così. Non mi dilungo qui ad illustrare l'infrastruttura dei costi di un Internet Provider (l'amico Stefano Quintarelli sul suo seguitissimo e superbo blog lo ha fatto più volte in modo chiaro e approfondito), però è un analisi che va senz'altro fatta, perchè quello che ti accingi a fare è proprio il mestiere di ISP, anche se a scopo no-profit. Da tener presente inoltre che proprio in virtù dei guadagni molto bassi sulla connettività, gli ISP "di provincia" che contano cioè su un numero contenuto di clienti (cioè nell'ordine di grandezza del migliaio o delle migliaia al massimo) mantengono in equilibrio il bilancio integrando i ricavi della connettività con quello della consulenza e dei servizi aggiuntivi (reti, sicurezza, hosting, sviluppo web, ..) cioè l'equilibrio economico sarebbe più incerto se basato solo sui ricavi/guadagni della connettività, proprio per gli elevati costi di produzione rispetto al prezzo di vendita.
E i costi di produzione sono funzione del livello di qualità, di affidabilità e di supporto agli utenti che si decide di dare (o che si riesce a dare in virtù del prezzo accettato dagli utenti).
Pertanto come prima cosa dovresti fissare con estrema precisione i parametri qualitativi del servizio che intendi erogare, ovvero definire ad esempio qual'è la banda minima che desideri che gli utenti possono usufruire in condizioni di carico della rete, la banda massima nominale e reale, i tempi massimi di disservizio in caso di guasto della rete, i tempi massimi di disservizio in caso di guasto degli apparati utente, la qualità del servizio di assistenza tecnica (orario, tempistiche, competenza, etc..). In base a queste specifiche andrai a scegliere e dimensionare le tecnologie e l'organizzazione necessaria, e di conseguenza otterrai i costi da dover sostenere, che andranno suddivisi per il numero di utenti potenziali per ottenere un prezzo indicativo di vendita, al quale dovrà essere addizionato un supplemento che va a creare una riserva economica per poter affrontare le emergenze, ovvero per coprire maggior costi imprevisti, o per compensare la perdita di utenti che non sottoscrivono più il servizio. Se vedi che il prezzo di vendita sarebbe eccessivo rispetto alle attese, andrai a modificare (ridurre) la qualità di uno o più parametri di servizio al fine di ridurre i costi e di conseguenza avere un equilibrio economico in linea con il prezzo desiderato.
Nel compiere l'analisi economica dovresti sempre ragionare in termini di proiezione temporale pluriennale delle diverse assunzioni (costi di produzione, consumo delle risorse/servizi, andamento dei prezzi), e non su base statica (cioè non basarsi su una "fotografia" delle condizioni attuali odierne, che possono variare e varieranno certamente nel futuro).
Ad esempio potresti dover considerare un ipotetico scenario futuro nel quale i tuoi utenti si dimezzino perchè nel frattempo sono apparse sul mercato delle proposte di connettività a banda larghissima a prezzo stracciato, che potrebbero attrarre parte dei tuoi utenti, e che ti costringerebbero a spalmare i tuoi costi su un numero inferiore di utenti, perdendo così l'equilibrio economico o costringendoti ad aumentare proporzionalmente il prezzo. Oppure che ti costringerebbero a diminuire la qualità del servizio (questo è un esempio di uno scenario provocatoriamente drammatico, per stimolare l'attenzione sui problemi di mantenimento di un servizio e la necessità di pensarle bene tutte prima di avviarlo. Però è uno scenario possibile).
Forse questa disgressione, per quanto sommaria, ti potrebbe sembrare troppo "aziendale" cioè distante dallo spirito di un servizio "civilistico" no profit. Però se è un servizio di telecomunicazioni quello che vuoi erogare, le problematiche sottostanti sono le medesime: serve una infrastruttura proporzionata al livello di servizo desiderato, si devono sopportare dei costi di avvio e gestione, si deve garantire la continuità del servizio, si deve pagare puntualmente i fornitori, si deve garantire in definitiva l'equilibrio economico costi/ricavi altrimenti il servizio salta. Quindi nessuna grande differenza concettuale rispetto ad un'attività "profit", salvo il diverso scopo sociale e i diverso modo di distribuire gli eventuali utili di bilancio.
Mi fermerei qui con questo post, magari se ti fa piacere continuiamo la discussione analizzando il primo dei "compiti per casa", cioè la definizione delle specifiche di servizo, per poi procedere con il secondo compito, la scelta dell'infrastruttura in coseguenza delle specifiche, per concludere infine con l'analisi dei costi.
Potrebbe veir fuori una sorta di progetto e business plan "open-source" di una infrastruttura di servizio, utile a tutti coloro vogliano replicarla, se sostenibile, nella propria zona.
A valle di ciò mi viene spontanea una personale, personalissima, osservazione, scevra di qualsivoglia stampella ideologica: il no-profit è bello, ma quando si sovrappone alle attività "profit" puo' significare la perdita di posti di lavoro, ovvero non tutto ciò che appare come una cosa positiva per la collettività è effettivamente una cosa positiva per la collettività. Il termine "profit" è negativo quando si traduce in una sottrazione di valore collettivo, ma in molti casi è proprio il "profit" a consentire la creazione di valore. Ed è altrettanto vero l'opposto, il no-profit molte volte è la soluzione più adatta per il bene collettivo, ma non sempre. Il profitto non è sempre una cosa "brutta ed egoistica", nè il no-profit è sempre, automaticamente e comunque, una cosa positiva ed altruistica. Un'analisi attenta del problema da affrontare (e l'uso delle equazioni differenziali alle derivate parziali visto che alla fin fine si discute di quantità economiche ;-) ci aiutano a restituire oggettività a considerazioni sviluppate talvolta principalmente su base emotiva (ma guai a affogare lo slancio emotivo, è proprio da quello che nasce la creatività e lo sviluppo! ;-). IMHO.
ciao,
G
Scritto da: Guido Tripaldi | dic 01, 2009 a 11:59