La mia foto

  • AVVERTENZA LEGALE
    Questo web server é proprietà privata e costituisce domicilio informatico di Guido Tripaldi. Il libero accesso è pertanto riservato ai soli soggetti autorizzati da Guido Tripaldi. Ogni accesso non autorizzato sarà perseguito ai sensi di legge.

« Tutti quelli che sono nati digitali | Principale | L'IPTV che non c'è »

lug 02, 2007

Commenti

Alberto

Di solito quando trovo un articolo lungo non arrivo alla fine.
Questo tuo articolo è molto lungo per il "mio standard" ma quando sono arrivato all'ultima frase ci sono rimasto male.
Manca qualcosa: sembra addirittura corto!
I miei complimenti per come hai trattato l'argomento!
P.S. io la mano la alzo: il WiMax l'ho sempre pensato per altre applicazioni e non per risolvere il digital divide e l'ho anche scritto qualche volta ;)

Guido Tripaldi

grazie Alberto!

Effettivamente avevo qualche dubbio a postarlo vista la lunghezza, ma ho pensato che fosse doveroso tentare di dare una mano togliere di mezzo gli equivoci che gravitano attorno alla cosa: essendo una materia alquanto tecnica è comprensibile che nascano distorsioni informative in mancanza di basi adeguate.
Il problema è che queste distorsioni informative sta facendo del male sia al digital divide che al WiMAX, creando illusioni negli utenti e gli enti locali afflitti dal problema e nei politici e nelle istituzioni che individuano così soluzioni non adeguate.

Il tutto si traduce in un rallentamento sia della soluzione del digital divide, che dell'introduzione del WiMAX come tecnologia utile a tante altre cose (e non solo nelle aree digital divise).
Basti pensare al regolamento AGCom sul WiMAX che è stato recentemente pubblicato: è un gran compromesso che non soddisfa nessuno. E' stato redatto cercando di contemperare esigenze e vincoli contrastanti tra loro, e quindi scontenta tutti, tanto che molti operatori (sia grandi che piccoli) hanno già annunciato che non parteciperanno alla prevista imminente gara per l'assegnazione delle frequenze, gara che probabilmente andrà deserta ritardando ulteriormente l'utilizzo di WiMAX in Italia, in quanto è probabile che dovrà esser messa mano al regolamento con tutte le lungaggini del caso (che ben vengano se stavolta si realizzerà un regolamento più consono).

Dici bene che il post è un po' troncato, del resto non desideravo trarre conclusioni, bensì fornire le informazioni che consentissero ai lettori di trarre le proprie conclusioni, e magari stimolare delle discussioni in merito al cosa è meglio fare vuoi per il digital divide che per il WiMAX (ma tenendo ben separati i due argomenti!), anche se il luogo deputato alle discussioni sull'evoluzioni della rete è più il blog del Quinta che il mio.

Mo vado a leggere cos'hai scritto sul tuo blog su WiMAX e magari commento

G

Guido Tripaldi

x Alberto: non riesco ad aprire www.alblog.it

Massimo Mazzeo

Molto interessante.
Io però sottolineerei il fatto che di sicuro non è una architettura basata su macro celle che può risolvere il Digital Divide. Soprattutto, come tu hai accennato, quando si parla di utilizzo della rete "Always On". Portare una banda larga che è larga solo se la si usa sporadicamente a turno è una presa in giro. Quindi un'architettura a macrocelle come Wimax o le soluzioni cellulari UMTS, HSDPA, LTE, ecc si scontrano sempre col problema di dover "spalmare" la loro capacità su un'area molto vasta e, potenzialmente, con tanti utenti. La soluzione dovrebbe passare per le micro-celle e la redistribuzione della banda. Mesh Networks??

Guido Tripaldi

ciao Massimo,

>Quindi un'architettura a macrocelle come Wimax o le soluzioni cellulari UMTS, HSDPA, LTE, ecc si scontrano sempre col problema di dover "spalmare" la loro capacità su un'area molto vasta
[...]
>La soluzione dovrebbe passare per le micro-celle

ciò che osservi è corretto, più ampia è una cella e più utenti raggiunge, minore è la banda procapite che è garantibile al singolo. Però ocio che l'ampiezza delle celle non è determinata dal tipo di tecnologia impiegata, ma è un atto volontario dei progettisti della rete in funzione del target di utenza e dei servizi che intendono veicolare in una ben determinata zona. In ambito urbano, ad esempio, vengono già impiegate le microcelle quando è necessario garantire il servizio in zone ad altissima concentrazione di utenti, le celle gsm/umts possono avere un raggio di poche centinaia di metri o meno, ovvero viene ridotto il raggio d'azione (e quindi aumentata la densità delle celle per superficie) al fine di riutilizzare le frequenze disponibili ed aumentare così la banda complessiva a disposizione degli utenti.
Stesso dicasi per WiMAX: è il gestore della rete a decidere come settorizzare la cella (ovvero quanti fronti avere, di che potenza e quante e quali frequenze allocare per settore). Quindi WiMAX puo' essere (e viene) utilizzato sia per realizzare macrocelle che microcelle. Tipicamente la macrocella viene utilizzata in ambito rurale, dove vi è una densità di utenti molto bassa per ettaro, ovvero sono pochi e sparpagliati su una superficie piatta e molto vasta. In questo caso il progettista opterà molto probabilmente per una macrocella, ovvero una stazione radio base con potenza in antenna sufficientemente elevata per garantire la copertura della porzione di territorio desiderata. Dovendo invece garantire la copertura di zone ad alta densità di utenza, come possono essere i centri delle grandi città, i centri direzionali, etc.. verranno utilizzate delle microcelle, ovvero bassa potenza in antenna in modo tale da non superare una certa distanza, e quindi non andare ad interferire con le celle adiacenti che riutilizzano le medesime frequenze.
Addirittura, dovendo garantire tanta banda a molti utenti in ambito urbano, ci sono già progetti qui in Italia che realizzeranno servizi di accesso wireless basati su delle nanocelle di poche decine di metri (in tecnologia WiMAX e LTE). In pratica le radio base verranno attestate sulle MAN in fibra a breve distanza l'una dall'altra. (questi progetti non vedranno però la luce prima di qualche anno)

>non è una architettura basata su macro celle che può risolvere il Digital Divide
[...]
>Mesh Networks??

occhio a non confondere le problematiche (come l'ampiezza delle celle) relative alla rete d'accesso con le problematiche relative alla rete di backhauling.

Il digital divide esiste non per la mancanza di rete d'accesso, ma per mancanza di backhauling. (o meglio, la rete d'accesso, wireless o xdsl, non viene installata fintanto che non c'è una rete di backhauling). La vera difficoltà, il vero costo è realizzare e manutenere il backhauling nelle aree digital divise: costa molto rispetto al numero di clienti potenziali e a quanto sono disposti a pagare al mese.

Le reti mesh sono una cosa molto interessante sul piano tecnico, però sono molto complesse da realizzare laddove si esca dalla rete mesh amatoriale (pochi utenti, pochi nodi, topologia a bassa complessità, nessun servizio da garantire) e si entri nell'ambito di reti che devono garantire determinati livelli di QoS ad un numero significativo di utenti ed attraverso un numero significativo di nodi. In questo caso la complessità esplode e serve necessariamente un approccio progettuale a tavolino.

In ogni caso non è l'approccio mesh che risolve il problema delle aree disagiate, in quanto il problema lì è realizzare le tratte a lunga distanza necessarie a trasportare un'adeguata quantità di banda in prossimità della rete di accesso, e non a come redistribuire la banda attraverso percorsi multipli tra celle più o meno adiacenti, che è la caratteristica base delle reti mesh.

Ma sulle reti mesh tornerò più avanti con un post dedicato

ciao,
G

Guido Tripaldi

Andrea C. mi ha scritto per chiedermi alcune delucidazioni, riporto di seguito, autorizzato da Andrea, email e mia risposta, probabilmente puo' esser utile a qualche altro lettore:

Il 10-08-2007 12:30, "Andrea" ha scritto: -------
>Ciao, io faccio parte di un comune privo di collegamento internet a banda larga .. In progetto però il comnune (castelnovo del friuli - pn) prevede di investire in una tecnologia Hyperlan entro giugno 2008 .
>Allora, nel depliant che hanno mandato, erano elencati anche i "contro".
>Allora l'idea a quanto pare era quella di mettere l'antenna sopra il municipio. Il problema è che hanno garantito che il segnale arriverebbe solo a quelli che "vedono" l'antenna e che avrebbe una copertura di sengale di 5/6 km..
>Allora il mio comnume è situato in collina.
>La mia domanda è questa: che differenza c'è tra Hyperlan e wiMax visto che quest ultimo ha in teoria una portata di anche 50 km con una sola antenna ??
>Seconda domanda: in termini di costi, qual è il piu conveniente (per gli utilizzatori non per la costruzione degli impianti) ??
-------


ciao Andrea,
provo a risponderti in modo meno tecnico possibile

> La mia domanda è questa: che differenza c'è tra Hyperlan e wiMax visto
> che quest ultimo ha in teoria una portata di anche 50 km con una sola
> antenna ??

il fatto di poter raggiungere i 50Km non dipende dal fatto di essere "wimax" ma dal fatto che a questa tecnologia verrebbe consentito dal Ministero una potenza in antenna molto maggiore di quella che invece è consentita per le tecnologie HyperLAN. Considera inoltre che la portata di 50Km (raggiungibili solo in linea di vista) è solo teorica, cioè dipende da molti fattori (potenza in antenna, tipologia delle antenne, loro orientamento, spazio di Fresnel, ostacoli intermedi, condizioni climatiche, ..) ed in ogni caso la banda internet effettivamente utilizzabile a queste distanze è molto inferiore a quella disponibile a poca distanza dall'antenna, infatti la maggiore distanza fa peggiorare il rapporto segnale/rumore abbassando drasticamente le prestazioni del link.

HyperLan e WiMAX sono tecnologie simili tra loro (ci sono diverse differenze ma sono tra loro imparentate).

Provo a riassumerti alcune differenze tra le due tecnologie senza scendere negli aspetti più tecnici:

- WiMAX è più efficace di HyperLan nel ricostruire il segnale che rimbalza sugli edifici quando le due antenne non si vedono direttamente (ma comunque non riesce a fare miracoli);

- a WiMAX vengono (verranno) concesse delle frequenze riservate per ogni operatore, mentre HyperLAN lavora su frequenze liberamente utilizzabili da tutti (privati cittadini ed operatori) e quindi condivise. Ciò significa che i servizi basati su HyperLAN sono soggetti ad interferenze reciproche che possono far peggiorare (e di molto) le prestazioni (è come parlare con un amico in una stanza dove c'è molta gente e dove tutti parlano simultaneamente). Se si ha fortuna e nella stanza ci sono solo due o comunque poche persone allora la conversazione è soddisfacente, ma se nella stanza, il cui ingresso è libero ed aperto a chiunque entrano a parlare
altre persone, mano a mano non capisce più niente. Frequenze riservate è come dire stanze riservate, quindi confusione minore.
Ovviamente la quantità di interferenze dipende da quanti mettono un access point nella medesima zona (sia utenti che operatori) e quindi in città ci sono molte più interferenze che non in un paese o in campagna, dal momento che il numero di access point simultaneamente attivi è ovviamente molto diverso nei tre casi.
- WiMAX è una tecnologia molto più costosa lato operatore rispetto a HyperLAN: le apparecchiature per una singola cella WiMAX hanno un costo orientativo di 12Keur più il costo delle licenze ministeriali per l'uso delle frequenze (che non sono affatto trascurabili, si parla di milioni di euro, ovviamente da spalmare su tutti gli impianti), contro i 1.500 Eur necessari per apparecchiature di tipo professionale per una cella HyperLan e
che non richiede il pagamento di alcuna licenza (che scendono a qualche centinaio di euro nel caso di apparecchiature semipro). (a questi vanno ovviamente aggiunti i costi delle antenne, del palo/traliccio, di installazione, impianti elettrici, affitto del sito, manutenzione, etc.. e di backhauling, che però sono simili in entrambi i casi)

- anche nelle apparecchiature lato utente c'è una gran differenza di costi:
un dispositivo HyperLan puo' costare anche solo poche decine di euro, infatti già oggi molte delle schede ed access point più recenti incorporano anche HyperLan.
- un dispositivo WiMAX lato utente costa ad oggi ancora alcune centinaia di euro, questo perché WiMAX è ancora una tecnologia poco diffusa, e quindi il costo di produzione degli apparati è spalmato su un numero piccolo di pezzi rispetto ai numeri dei dispositivi wifi/hyplan prodotti. I prezzi scenderanno, ma ci forrà un po' di tempo, diciamo almeno un paio d'anni o forse tre.

- WiMAX rispetto ad HyperLan è una tecnologia che non è ancora completamente stabilizzata, questo determina due problemi: lato operatore avere alcuni grattacapi riguardo la stabilità di esercizio degli impianti, lato utente nel non esser garantito nella completa e certa interoperabilità del proprio
dispositivo con quello del proprio operatore. Ovvero ad oggi è necessario adottare lato utente una tecnologia WiMAX di una marca e modello tra quelle testate con la tecnologia adottata lato proprio operatore, cambiando operatore (perché ad esempio ci si trova meglio con un altro) non v'è garanzia che il dispositivo che si possiede funzioni regolarmente. Con
HyperLan non c'è questo problema, la tecnologia è matura e
l'interoperabilità è garantita tra tutti i modelli di tutte le marche.

Spero di esser riuscito a toglierti i dubbi, sei hai altre domande son sempre qui :-)

ciao,
G

Quang Pham

Ciao,
anch'io ho apprezzato il tuo intervento sul WiMax e il Digital Divide. In verità non mi ero mai interessato molto alla faccenda. Fatto sta, che negli ultimi giorni, sto scrivendo un relazione sul WiMax e dopo tanti documenti che parlavano bene del WiMax (anche su Wikipedia e molti altri siti informativi) sei arrivato tu che mi hai praticamente spiazzato. In verità sentivo già il sentore che poteva non funzionare come dicevano in giro, ma non ho trovato fonti autoritarie che lo affermassero.
Ho una domanda da porti (e magari te ne porrò altre in seguito): ho visto che secondo gli standard IEEE 802.16 le frequenze di funzionamento del WiMax vanno da 2 GHz a 11 GHz se non si è in Line-of-Sight, mentre si usano le frequenze tra i 10 GHz fino ai 66 GHz per quelle in Line-of-Sight. Il primo intervallo riesce però ad operare solo in un raggio di 8 Km, mentre il secondo arriva fino ai famosi 60-70 Km. Non so se queste informazioni sono giuste (fonte:http://nislab.bu.edu/nislab/education/sc441/JustinKen/JustinKen/Networking%20Webpage/index_files/Page372.htm). Ma nel caso lo fossero, utilizzare la frequenza di 3,5 GHz, come disposto in Italia, non porterebbe l'operatività a sole pochi chilometri (oltre ai problemi che hai affrontato nel tuo articolo)?
Spero tu mi possa risolvere questo dubbio.
Grazie e Ciao
QP

Guido Tripaldi

ciao Q,

>dopo tanti documenti che parlavano bene del WiMax [..] sei arrivato tu che mi hai praticamente spiazzato

lungi da me pensare che WiMAX non funzioni o che non sia una tecnologia interessante, tutt'altro! Nel post desideravo evidenziare l'eccesso di aspettative che, in Italia, si stanno riponendo in questa tecnologia, ovvero di come molti siano stati indotti a pensare che WiMAX possa risolvere quasi tutti i mali del mondo (telematico) a causa di un difetto di informazione, e spiegare perchè WiMAX non sia l'auspicata bacchetta magica che risolve il problema del digital divide. E l'eccesso di aspettative si tramuta immancabilmente in grandi delusioni.

WiMAX possiede caratteristiche molto avanzate e ha tecnicamente tutte le carte in regola per tentare di diventare una tecnologia pervasiva nel mercato (in particolare la versione mobile), ma il suo ambito di applicazioni, per quanto ampio, ha un perimetro preciso, che è inoltre influenzato dalle condizioni al contorno (regolamentari, economiche, progettuali, ambientali).

Se si desidera veramente risolvere il digital divide vanno prima conosciute bene le sue cause (tecniche e commerciali) e poi individuate le soluzioni. E la soluzione non è unica perchè le cause sono più d'una.

WiMAX puo' essere senz'altro utile nelle aree digital divise, ma solo per risolvere alcune delle problematiche di rete, non risolve cioè da solo tutti i problemi.

Riporre tutte le speranze nel WiMAX significa non affrontare il problema, e rimandare, anzichè accelerare, la soluzione del digital divide.


>Ho una domanda da porti (e magari te ne porrò altre in seguito)

sei il benvenuto :-)


>le frequenze di funzionamento del WiMax vanno da 2 GHz a 11 GHz se non si è in Line-of-Sight, mentre si usano le frequenze tra i 10 GHz fino ai 66 GHz per quelle in Line-of-Sight. Il primo intervallo riesce però ad operare solo in un raggio di 8 Km, mentre il secondo arriva fino ai famosi 60-70 Km. Non so se queste informazioni sono giuste

mmh dunque, c'è qualche inesattezza: l'onda elettromagnetica in realtà tende ad essere propagata nell'atmosfera con maggior difficoltà al crescere della frequenza, tende cioè ad essere assorbita maggiormente, quindi a coprire distanze inferiori a parità di potenza emessa. I ponti radio al crescere della frequenza divengono perciò progressivamente meno adatti a coprire lunghe distanze.
Per lo stesso motivo le frequenze molto elevate tendono a rimbalzare meno bene sulle superfici poco speculari come l'intonaco delle facciate degli edifici (essendo da in buona parte assorbite), quindi è vero che sono inadatte a condizioni NLOS.

Probabilmente l'equivoco è nato dalle indicazioni della pagina che mi hai segnalato (http://nislab.bu.edu/nislab/education/sc441/JustinKen/JustinKen/Networking%20Webpage/index_files/Page372.htm), dove è correttamente indicato che le frequenze sopra i 10GHz sono più adatte al LOS, e sotto è indicato che operando in condizioni di LOS si possono anche coprire 30 miglia. Ma non è dichiarato che con le frequenze >10GHz si superano distanze di 30miglia. Credo che tale interpretazione derivi se leggendole si associano tra loro le due indicazioni per tramite del fattor comune "Line-Of-Sight" (che il LOS sia usato esculsivamente sopra i 10Ghz e che quindi se si realizza il LOS (e quindi apparentemente solo sopra i 10GHz) si arrivi a 30miglia).

In ogni caso, le caratteristiche WiMAX riportate in quel link sono le prestazioni massime teoriche ed in condizioni ideali (come ho spiegato nel mio post). E' proprio perchè talvolta i dati di targa vengono presi per veri senza tener in debito conto come questi varino in funzione delle condizioni di reale utilizzo sul campo che nascono le illusioni che una certa tecnologia sia una "bacchetta magica".

ciao,
G

boatrade

Grazie Guido il Tuo articolo mi ha illuminato!!!!!!
Ti ho postato nel mio http://boatrade.blogspot.com/2009/02/il-backhauling-la-principale-causa-del.html spero che gradirai.
Mi pare che una società di Telecomunicazioni Italiana EUTELIA(terza per estensione di fibra sul territorio italiano più di 13.000km) non proprio amata ne blasonata come i Big Telco, ritiratasi dall'asta wimax, stia puntando ora alla TLC antidigital-divide, sfruttando i suoi assets di BACKHAULING sul territorio dando ai Wisp (acronimo di WiFi Internet Service Provider) la possibilità di offrire banda larga nelle zone non raggiunte dai grandi operatori.
Chissà che il dossier di F. Caio sul tavolo del Governo non affermi ciò che Tu onestamente hai spiegato, consigliando proprio questa soluzione, ovvero creare dorsali in fibra ed appoggiar sopra una rete di WISP.
TOSCANA DOCET
http://espresso.repubblica.it/dettaglio-local/internet-ora-corre-sui-ponti-radio/2072093/6
http://web.rete.toscana.it/BandaLargaStatico/PageDettagliRicerca.jsp

COSA NE PENSI? sono sulla strada giusta?
basta un cenno

Emanuele

bell'articolo, chiaro e ben scritto. Da qualche parte accenni alla maggiore potenza degli apparati WiMax senza però approfondire l'argomento.
Dovendo installare le antenne a casa la potenza irradiata è stato uno dei fattori che mi hanno portato a scegliere HyperLan.

Massimo Polselli

Salve, sono laureando in Scienze politiche, sto preparando insieme ad altri colleghi un progetto di spesa collettiva dei cittadini che beneficieranno del servizio di telefonia\internet gratuitamente. stringendo molto si dividerà la spesa di progettazione, realizzazione e mantenimento atgtraverso una onlus di cui tutti i cittadini faranno gratuitamente parte e attraverso l'intestazione dell'8x1000 e di una frazione del prezzo alla suddetta associazione si garantiranno determinati servizi quali appunto telefonia ed internet, aleno per iniziare. sapresti gentilmente dirmi quali potrebbero essere i problemi che si presenteranno nella fase di preventivo, i costi e le aziende che se ne occupano? grazie del tuo tempo.

Massimo Polselli

Guido Tripaldi

ciao Massimo,

mi sembra una bella iniziativa, però non sono certo che possa essere sostenibile o conveniente, cioè che i costi procapite suddividendo i costi generali necessari per acquistare e manutenere le apparecchiature necessarie, la banda, etc, siano alla fine inferiori degli oramai molto modesti canoni che i vari operatori propongono per l'accesso ad internet e la telefonia voip. Gli operatori hanno dei margini di guadagno modestissimi sui canoni di accesso ad internet e di telefonia fissa/voip. I costi necessari per erogare il servizio sfiorano il prezzo di vendita al cliente, e questo non ostante le economie di scala che un operatore riesce a conseguire (puo' sembra strana l'affermazione "non guadagnano molto", ma è proprio così. Non mi dilungo qui ad illustrare l'infrastruttura dei costi di un Internet Provider (l'amico Stefano Quintarelli sul suo seguitissimo e superbo blog lo ha fatto più volte in modo chiaro e approfondito), però è un analisi che va senz'altro fatta, perchè quello che ti accingi a fare è proprio il mestiere di ISP, anche se a scopo no-profit. Da tener presente inoltre che proprio in virtù dei guadagni molto bassi sulla connettività, gli ISP "di provincia" che contano cioè su un numero contenuto di clienti (cioè nell'ordine di grandezza del migliaio o delle migliaia al massimo) mantengono in equilibrio il bilancio integrando i ricavi della connettività con quello della consulenza e dei servizi aggiuntivi (reti, sicurezza, hosting, sviluppo web, ..) cioè l'equilibrio economico sarebbe più incerto se basato solo sui ricavi/guadagni della connettività, proprio per gli elevati costi di produzione rispetto al prezzo di vendita.

E i costi di produzione sono funzione del livello di qualità, di affidabilità e di supporto agli utenti che si decide di dare (o che si riesce a dare in virtù del prezzo accettato dagli utenti).

Pertanto come prima cosa dovresti fissare con estrema precisione i parametri qualitativi del servizio che intendi erogare, ovvero definire ad esempio qual'è la banda minima che desideri che gli utenti possono usufruire in condizioni di carico della rete, la banda massima nominale e reale, i tempi massimi di disservizio in caso di guasto della rete, i tempi massimi di disservizio in caso di guasto degli apparati utente, la qualità del servizio di assistenza tecnica (orario, tempistiche, competenza, etc..). In base a queste specifiche andrai a scegliere e dimensionare le tecnologie e l'organizzazione necessaria, e di conseguenza otterrai i costi da dover sostenere, che andranno suddivisi per il numero di utenti potenziali per ottenere un prezzo indicativo di vendita, al quale dovrà essere addizionato un supplemento che va a creare una riserva economica per poter affrontare le emergenze, ovvero per coprire maggior costi imprevisti, o per compensare la perdita di utenti che non sottoscrivono più il servizio. Se vedi che il prezzo di vendita sarebbe eccessivo rispetto alle attese, andrai a modificare (ridurre) la qualità di uno o più parametri di servizio al fine di ridurre i costi e di conseguenza avere un equilibrio economico in linea con il prezzo desiderato.

Nel compiere l'analisi economica dovresti sempre ragionare in termini di proiezione temporale pluriennale delle diverse assunzioni (costi di produzione, consumo delle risorse/servizi, andamento dei prezzi), e non su base statica (cioè non basarsi su una "fotografia" delle condizioni attuali odierne, che possono variare e varieranno certamente nel futuro).

Ad esempio potresti dover considerare un ipotetico scenario futuro nel quale i tuoi utenti si dimezzino perchè nel frattempo sono apparse sul mercato delle proposte di connettività a banda larghissima a prezzo stracciato, che potrebbero attrarre parte dei tuoi utenti, e che ti costringerebbero a spalmare i tuoi costi su un numero inferiore di utenti, perdendo così l'equilibrio economico o costringendoti ad aumentare proporzionalmente il prezzo. Oppure che ti costringerebbero a diminuire la qualità del servizio (questo è un esempio di uno scenario provocatoriamente drammatico, per stimolare l'attenzione sui problemi di mantenimento di un servizio e la necessità di pensarle bene tutte prima di avviarlo. Però è uno scenario possibile).

Forse questa disgressione, per quanto sommaria, ti potrebbe sembrare troppo "aziendale" cioè distante dallo spirito di un servizio "civilistico" no profit. Però se è un servizio di telecomunicazioni quello che vuoi erogare, le problematiche sottostanti sono le medesime: serve una infrastruttura proporzionata al livello di servizo desiderato, si devono sopportare dei costi di avvio e gestione, si deve garantire la continuità del servizio, si deve pagare puntualmente i fornitori, si deve garantire in definitiva l'equilibrio economico costi/ricavi altrimenti il servizio salta. Quindi nessuna grande differenza concettuale rispetto ad un'attività "profit", salvo il diverso scopo sociale e i diverso modo di distribuire gli eventuali utili di bilancio.

Mi fermerei qui con questo post, magari se ti fa piacere continuiamo la discussione analizzando il primo dei "compiti per casa", cioè la definizione delle specifiche di servizo, per poi procedere con il secondo compito, la scelta dell'infrastruttura in coseguenza delle specifiche, per concludere infine con l'analisi dei costi.

Potrebbe veir fuori una sorta di progetto e business plan "open-source" di una infrastruttura di servizio, utile a tutti coloro vogliano replicarla, se sostenibile, nella propria zona.

A valle di ciò mi viene spontanea una personale, personalissima, osservazione, scevra di qualsivoglia stampella ideologica: il no-profit è bello, ma quando si sovrappone alle attività "profit" puo' significare la perdita di posti di lavoro, ovvero non tutto ciò che appare come una cosa positiva per la collettività è effettivamente una cosa positiva per la collettività. Il termine "profit" è negativo quando si traduce in una sottrazione di valore collettivo, ma in molti casi è proprio il "profit" a consentire la creazione di valore. Ed è altrettanto vero l'opposto, il no-profit molte volte è la soluzione più adatta per il bene collettivo, ma non sempre. Il profitto non è sempre una cosa "brutta ed egoistica", nè il no-profit è sempre, automaticamente e comunque, una cosa positiva ed altruistica. Un'analisi attenta del problema da affrontare (e l'uso delle equazioni differenziali alle derivate parziali visto che alla fin fine si discute di quantità economiche ;-) ci aiutano a restituire oggettività a considerazioni sviluppate talvolta principalmente su base emotiva (ma guai a affogare lo slancio emotivo, è proprio da quello che nasce la creatività e lo sviluppo! ;-). IMHO.

ciao,
G

I commenti per questa nota sono chiusi.