
Tratto da: Gli stregoni della notizia, Marcello Foa, Guerini e Associati
Tratto da: Gli stregoni della notizia, Marcello Foa, Guerini e Associati
Pubblico alcuni studi sui presunti danni del wireless:
Anche gli inglesi tempo addietro avevano criticato il Wi-Fi dal punto di vista della salute ma la loro linea era decisamente più soft, tant’è che essi stessi giudicano l’iniziativa tedesca come “la peggiore condanna che si potesse mai dare“.
I tedeschi ancora mettono in guardia dal pericolo serio dell’elettrosmog giudicando allarmante la crescita esponenziale di apparecchiature che emettono campi elettromagnetici, siano essi televisori, siano essi cellulari.
Addirittura arrivano a consigliare di utilizzare una cabina telefonica piuttosto che il cellulare, oppure un punto di connessione cablato piuttosto che una connessione senza fili.
Fino a qui il giudizio duro del governo tedesco che a mio modo di vedere ha esagerato un po’ nei toni e soprattutto nel paragonare come pericolosità un televisore ad un’antenna ripetitore per i cellulari.
Il metodo precauzionale è sacrosanto, ma sarebbe più lecito prendersela con chi veramente causa il vero inquinamento elettromagnetico (mega ripetitori radio, ripetitori Tv, antenne fuori legge…) piuttosto che con apparecchi che producono campi ridicoli.
Un access point casalingo ha un raggio d’azione ridicolo e già a 50cm dal punto d’origine del segnale l’inquinamento prodotto è appena misurabile.
Insomma a detta di molti le affermazioni del Ministro dell’Ambiente rischiano di far partire una caccia alle streghe assolutamente fuori luogo e rischiano di coinvolgere lo sviluppo industriale dell’high tech.
Ricordiamo infatti che il Wi-Fi è una tecnologia wireless in piena crescita utilizzata anche per coprire zone laddove la banda larga via cavo non arriva.
Vedremo comunque nei prossimi mesi quando verranno pubblicati i test ufficiali di una ricerca inglese sulla possibile pericolosità del wireless.
(http://www.oneadsl.it/28/09/2007/i-tedeschi-temono-il-wi-fi/)
Esitono inchieste, tra cui quella di BBC Panorama,[2] che investiga sulle accuse di alcuni scienziati secondo i quali lo smog elettromagnetico potrebbe provocare, a lungo termine, danni alla salute. In particolare va notato che le frequenze del Wi-Fi sono le medesime (seppur con potenze decisamente inferiori) usate dai forni a microonde e che permettono la cottura del cibo (2450 MHz). Oltre a questo effetto termico, i tecnici evidenziano la possibilità di un ulteriore effetto biologico non correlato all'aumento di temperatura ma comunque significativo.
La trasmissione di Rai Tre Report, l'11 Maggio 2008 ha riproposto l'inchiesta BBC ed ha documentato gli allarmi, specialmente in relazione ai danni che si possono creare a bambini e a persone elettrosensibili, che sollevano molte istituzioni nel mondo ad impedire l'installazione di reti Wifi nelle scuole o negli asili.[3] Secondo alcuni,[4] durante questa inchiesta non sarebbero stati forniti dati numerici precisi e dettagli tecnici. L'inchiesta peraltro confrontava emissioni di WiFi e telefonia mobile (che usano frequenze molto simili, in particolare l'UMTS). La gran parte dei tecnici interpellati si sarebbero schierati esclusivamente sul versante dell'allarmismo e l'unico che invece ha dato una versione tranquillizzante in materia sarebbe stato tacciato di connivenza con le aziende del settore (in quanto in effetti costui ha lavorato per alcune di esse). La stessa BBC ha poi dichiarato che il trattamento degli intervistati non è stato equilibrato.[5]
Il governo tedesco nel 2007 ha deciso di informare i cittadini tedeschi dei possibili rischi per la salute causati dall’eccessiva esposizione alle radiazioni Wi-Fi. [6] La decisione di Berlino segue l'apertura dell'inchiesta della Health Protection Agency (HPA) inglese, tesa a valutare gli effettivi pericoli di un utilizzo esteso del WiFi nelle scuole del Regno. Il portavoce del governo tedesco ha dichiarato «Non dimentichiamo che il Wi-fi è una tecnologia relativamente nuova, ancora da sviluppare. Mentre gli hot-spot pubblici hanno livelli ridotti di radiazioni, all'interno di ambienti domestici o di lavoro si può facilmente raggiungere una soglia critica». [7]
Nel mirino anche le reti wi-fi "Internet senza fili fa male" | |
![]() | |
PAOLO EMILIO PETRILIO | |
![]() | |
BERLINO Prosegue in Germania la campagna di sensibilizzazione del governo sui danni provocati dalla esposizione alle radiazioni. Questa volta il Bundesregierung, per mano dell'Ufficio federale per la difesa dalle radiazioni (Bfs), ha messo in guardia dai rischi legati ai modem Internet wi-fi, che consentono di connettersi alla Rete senza l'utilizzo di un cavo. «Tutte le prove fin qui raccolte indicano che questo tipo di emissioni, all'interno di certi limiti, non sono dannose per la salute - ha spiegato un portavoce del Bfs -. Non si può tuttavia escludere che vi siano degli effetti negativi». E il problema, secondo il Bfs, potrebbe essere proprio nella quantità di esposizione ai raggi del Wi-Fi; per cui sarebbe consigliabile, in ambienti quotidiani come la casa o il posto di lavoro, continuare a fare ricorso al vecchio collegamento via cavo. Non più lento, e senza conseguenze per la salute. Non solo per i computer, ma anche per i telefonini. Sempre meglio usare la linea fissa quand’è possibile. «Non dimentichiamo - aggiunge il portavoce - che il Wi-fi è una tecnologia relativamente nuova, ancora da sviluppare. Mentre gli hot-spot pubblici hanno livelli ridotti di radiazioni, all'interno di ambienti domestici o di lavoro si può facilmente raggiungere una soglia critica». In Germania esistono almeno 9 mila punti pubblici di accesso wi-fi, e per ognuno di essi l'emissione è inferiore allo standard europeo, fissato a 10 Watt per metro quadrato. Avviata all'inizio dell'estate, la lotta di Berlino contro l'inquinamento da raggi nasce dalle nuove conoscenze scientifiche in materia, ha spiegato tempo fa il ministro dell'Ambiente Sigmar Gabriel, durante un convegno organizzato dalla presidenza tedesca dell'Unione europea. Conoscenze che mostrano con evidenza come l'esposizione eccessiva possa provocare gravi disfunzioni: varie forme tumorali, sterilità maschile e interruzioni della gravidanza. I danni maggiori, ha spiegato il ministro, si hanno fra il personale addetto alle centrali nucleari, dove infatti in base alle statistiche l'incidenza di alcuni tipi di tumore ai polmoni è decisamente più alta della media. Un altro elemento di pericolo è l'eccessivo ricorso alle radiazioni in campo medico: «In Germania - ha tagliato corto Gabriel - si fanno troppe lastre». Stando ai dati raccolti dal Bfs, nel 2004 ci sarebbero state complessivamente 135 milioni di radiografie, cioè 1,6 radiografia per persona. Tra il 1996 e il 2004 inoltre l'uso delle tomografie computerizzate, grazie alla diffusione dei computer, sarebbe aumentato del 65 per cento. «Le ricerche radiologiche - ha spiegato Wolfram König, presidente del Bfs e alleato di Gabriel in questa campagna - non fanno parte in realtà della prassi medica preventiva. Dovrebbero essere invece utilizzate a ragion veduta, in presenza di diagnosi che segnalino i rischi di certe malattie. A fronte dei danni causati dai raggi X, si dovrebbe riflettere seriamente sull'opportunità di usare strumenti alternativi, come l'endoscopia o la risonanza magnetica, in grado di fornire indicazioni anche migliori». Sotto osservazione, ovviamente, è anche la rete di telefonia cellulare: fin dal 2001 il governo ha stabilito un accordo con le compagnie telefoniche, che le impegna a sviluppare tecnologie il meno dannose possibili sia per le persone che per l'ambiente. Un primo bilancio complessivo del lavoro fatto dalle aziende in questa direzione è atteso per il 2008. Il dibattito sui rischi Alcuni studi documentano che utilizzare un telefonino cellulare per oltre cinque minuti porti al cervello un surriscaldamento di almeno un grado; va da sé che tale surriscaldamento sia un processo innaturale, che ripetuto più volte al giorno, come spesso avviene per chi vi lavora, potrebbe portare delle conseguenze dannose alla salute. Il problema dell'inquinamento della telefonia cellulare è derivante anche dalla distribuzione del sistema di antenne necessario per la telefonia cellulare; Si tratta di surriscaldamento a lungo periodo, con il rischio di cancro, leucemie e quant'altro. |
L'acronimo è stato definito da WiMAX Forum, un consorzio formato da più di 420 aziende il cui scopo è sviluppare, supervisionare, promuovere e testare la interoperabilità di sistemi basati sullo standard IEEE 802.16, conosciuto anche come WirelessMAN (Wireless Metropolitan Area Network). Il WiMAX Forum si è formato nel giugno 2001.
La televisione
All’inizio la televisione ebbe uno sviluppo discontinuo. C’erano stati esperimenti di trasmissione “elettromeccanica” di immagini nel 1884. Il tubo catodico era stato inventato nel 1897. La televisione esisteva come tecnologia sperimentale nel 1925 – a colori nel 1929. Le prime trasmissioni televisive avvennero in Gran Bretagna nel 1936 e negli Stati Uniti nel 1939. Ma la televisione cominciò a diffondersi dopo la seconda guerra mondiale. Molti, all’inizio, credevano che non sarebbe stata più di un giocattolo snobistico per pochi.
Dopo cinque anni di trasmissioni sperimentali, un regolare servizio televisivo cominciò in Italia nel 1954. Nello stesso anno si realizzò il primo collegamento in eurovisione.
Le prime trasmissioni a colori avvennero nel 1953, ma cominciarono a diffondersi nel 1960 (in Italia “divieti” politici impedirono la televisione a colori fino al 1977).
Il primo videoregistratore fu realizzato dalla Ampex nel 1956. Nel 1970 la Sony propose il sistema U-matic, tuttora dominante nel settore professionale. Nel 1975 lanciò il Betamax, che ebbe un successo iniziale, ma fu poi sostituito dal Vhs, nato nel 1976. Il “caso Betamax” è diventato proverbiale come esempio di sconfitta di una tecnologia di qualità superiore per affermazione commerciale di una meno valida.
I videoregistratori sono largamente diffusi nelle famiglie italiane, ma poco usati. Occasionalmente per vedere cassette, raramente per registrare. Il quadro potrà forse cambiare con la diffusione dei DVD (chiamati all’origine digital video disk proprio perché la loro maggiore capacità permette la riproduzione di un film) o con altre tecnologie che si potranno sviluppare. Ma quelle eventuali evoluzioni sono, ovviamente, imprevedibili.
La situazione della televisione in Italia, come tutti sappiamo, è cambiata più di vent’anni fa. Nel 1976 una sentenza della Corte costituzionale, dopo ventidue anni di incontrastato dominio della televisione pubblica, dichiarò incostituzionale il monopolio.
Uno sconcertante errore dell’intera classe politica (di ogni tendenza e partito) portò al tentativo di mantenere il controllo della Rai sulle trasmissioni nazionali e di favorire una dispersione di piccole emittenti locali. Il risultato fu una mancanza di norme chiare, che non impedì lo sviluppo di reti nazionali private, ma ne perse il controllo.
La situazione di “duopolio” risultante è quella che conosciamo, con tutte le conseguenze su cui si continua a discutere. Compreso il predominio di un “generalismo” appiattito che non favorisce lo sviluppo di qualità più precise e più adatte alle esigenze di un pubblico molto meno “omogeneo” di come lo si immagina secondo i cliché della “cultura di massa”.
Sembra che le evoluzioni debbano essere tutte affidate alle “nuove tecnologie”, come satellite, cavo, “piattaforma digitale” eccetera. Su questo tema ritornerò poco più avanti. Intanto vediamo quale è stato lo sviluppo dimensionale della televisione in Italia. Il prossimo grafico mostra la crescita degli abbonamenti dal 1954 al 2002.
Abbonamenti alla televisione in Italia
numeri in migliaia – fonte: Istat
E' abbastanza sorprendente constatare che c’è stata una crescita anche negli ultimi due decenni del secolo scorso – solo in parte attribuibile all’aumento delle “unità abitative” (cioè del numero di famiglie piccole o di persone che vivono da sole). Una leggera accelerazione a metà degli anni ’80 può essere attribuita alla più ampia scelta di programmi derivante dallo sviluppo delle emittenti commerciali (ma è molto modesta rispetto all’andamento generale). Dalla metà degli anni ’90 si è arrivati a una soglia sostanzialmente insuperabile perché rappresenta la quasi totalità della popolazione.
L’Italia non è, come qualcuno potrebbe immaginare, la nazione più “televisiva” del mondo – né dell’Europa. Questo è il numero di televisori, in proporzione al numero di famiglie, in 14 paesi dell’Unione Europea più gli Stati Uniti.
Televisori in 15 paesi
Televisori a colori per 100 famiglie – fonte: The Economist
Come è noto ed evidente la penetrazione della televisione è quasi totale in tutti i paesi che non soffrono di gravi restrizioni. La differenza non sta nel numero di televisori – e neppure nel numero di persone che guardano, più o meno spesso, la televisione. Sta nel genere, qualità e varietà dei programmi, nel modo in cui si guarda e si “fruisce”, nella maggiore o minore ricchezza della gamma di strumenti utilizzata.
Sono molto più estese, purtroppo, in Italia quelle categorie di persone che alla televisione aggiungono poche altre risorse. Insomma quella larga parte (circa metà) della popolazione italiana che soffre di scarsità non è “ricca” di televisione, ma “povera” di altri strumenti di informazione e comunicazione.
“Nuovi” sistemi?
In Italia non si è mai sviluppata la televisione “via cavo”, che in altri paesi ha avuto una larga diffusione. I motivi sono vari, ma il principale è uno. Quando stava per aprirsi la possibilità della diffusione “via cavo” in Italia, fu scelto invece di “liberalizzare” le trasmissioni “via etere”. Un’improvvisa crescita del numero di canali disponibili distolse l’attenzione dalle possibilità che avrebbe offerto lo sviluppo di aree “cablate” (che in altri paesi sono state, parecchi anni fa, anche il primo strumento di accesso alle trasmissioni satellitari). Anche nella ricezione delle trasmissioni dai satelliti l’Italia è in forte ritardo. Ora la situazione si sa evolvendo, ma ovviamente è troppo presto per poter fare ipotesi o previsioni su come si svilupperà nei prossimi anni.
La televisione a cinquecento o mille canali è ormai da tempo una concreta possibilità tecnica. Se si realizzasse permetterebbe un cambiamento radicale dei comportamenti. Ognuno potrebbe scegliere il programma che vuole, all’ora che preferisce. Ma la televisione “generalista” è radicata nelle abitudini (più di chi produce la televisione che di chi la guarda). Produrre e organizzare i contenuti necessari per una televisione più selettiva, che offra a ciascuno una larga libertà di scelta, è un’impresa molto impegnativa. Ciò che la tecnologia permetterebbe di realizzare in tempi brevi probabilmente si farà attendere ancora per parecchi anni.
La radio
Dobbiamo ricordare, anche a questo proposito, che il telegrafo esisteva dal 1844 e il telefono dal 1877. La possibilità di trasmettere con le “onde hertziane” era nota da quando l’aveva dimostrata Rudolph Hertz nel 1888. Guglielmo Marconi aveva fatto i primi esperimenti di trasmissione a distanza nel 1895 e ottenuto un collegamento fra l’Inghilterra e la Francia nel 1897. Nel 1901 realizzò la prima trasmissione transoceanica, che apriva la via alle comunicazioni su scala “globale”.
Ma si trattava di telegrafo in codice “digitale” (alfabeto Morse) – e non era broadcasting, comunicazione diffusa. Né Marconi né altri in quel periodo avevano immaginato che potesse nascere qualcosa come la radio.
(Vedi La nascita della radio e l’evoluzione turbolenta).Le “radiodiffusioni” sono un concetto completamente diverso dal “telegrafo senza fili”. Si svilupparono vent’anni più tardi. Dopo gli esperimenti fra il 1906 e il 1916, la prima emittente radiofonica nacque nel 1920 negli Stati Uniti. Negli anni seguenti la radio si diffuse in Europa (in Italia nel 1924).
I sistemi di “audioregistrazione” nacquero molto prima della radio. Nel 1877 (lo stesso anno in cui nacque il telefono) Thomas Edison aveva brevettato il “fonografo”, un registratore a cilindro pensato inizialmente come strumento per la voce (cioè un “dittafono”) – ma si capì quasi subito che poteva essere usato anche per la musica. Il primo grammofono a disco fu realizzato da Emile Berliner in Germania nel 1887. La prima applicazione “commerciale” fu un disco di brani cantati da Enrico Caruso registrato a Milano nel 1902.
La “discografia” ebbe una crescente diffusione il tutto il ventesimo secolo, favorita anche dalle trasmissioni di musica per radio. Dal 1948 cominciò a diffondersi la riproduzione dei suoni (in particolare della musica) su nastro magnetico – e dal 1979 quella “digitale” su supporti ottici (i cosiddetti compact disk). E da quando esiste l’internet, ma più intensamente dal 2000, c’è la diffusione diretta della musica registrata, con tutte le polemiche che ne derivano per il contrasto fra il “diritto d’autore” e la “libertà di copiare”. Ma molti musicisti dicono che era migliore la qualità delle incisioni su vinile...
Il cambiamento portato dalla radio fu una trasformazione profonda dei sistemi di comunicazione. Il concetto di broadcasting, di trasmissione estesa e immediata, non era mai stato pensabile, nella storia dell’umanità, su una scala così ampia.
È vero che le emittenti nacquero locali – e in buona parte ancora lo sono. La radio “di vicinanza” rimane una realtà importante. Ma già molti anni fa si potevano ascoltare, sulle “onde lunghe”, trasmissioni da luoghi remoti. Con la nascita della radio siamo entrati in quella realtà di comunicazione immediata e “globale” che rende quasi impossibile, per ci vive oggi, immaginare com’era il mondo quando non c’era alcuna risorsa di quel genere.
Non dobbiamo dimenticare che la radio si è sviluppata anche come strumento di comunicazione privata. La rete poco numerosa, ma estesa nel mondo, dei “radioamatori” ha avuto (e in parte ha ancora) un ruolo importante nei sistemi di comunicazione. E più tardi la citizen band si è diffusa con la creazione di comunità, come la proverbiale rete dei camionisti americani, che ha sviluppato un codice di comunicazione così particolare da far nascere dizionari della loro “lingua”. Le trasmissioni radio hanno trasformato profondamente il concetto di navigazione (nel mare, nell’aria e nello spazio). Insomma c’erano e ci sono, con strumenti radiofonici, attività di scambio e di dialogo paragonabili a quelle che si realizzano con la “posta elettronica” o con i telefoni cellulari.
Dopo la nascita della televisione molti hanno immaginato che potesse esserci un declino della radio. Ma così non è. La radio mantiene un ruolo importante e un ascolto diffuso, che non è stato sostituito da altri sistemi di comunicazione – e nulla lascia prevedere che possa avere un indebolimento nei prossimi anni.
Questo grafico mostra l’andamento degli abbonamenti alla radio dalle origini delle radiodiffusioni in Italia fino a quando quel genere di imposizione è scomparso.
Abbonamenti alla radio in Italia
numeri in migliaia – fonte: Istat
Negli anni fra l’inizio delle trasmissioni radiofoniche e la seconda guerra mondiale la diffusione della radio stava crescendo, ma con una penetrazione non molto estesa rispetto alla popolazione. Nel 1940 c’erano 1.300.000 abbonamenti alla radio in Italia, con una crescita che tendeva ad accelerare. Durante la guerra l’ascolto della radio era ovviamente aumentato – la diminuzione degli abbonamenti è da attribuire alla difficoltà di “adempiere” al pagamento del canone o a disattenzione per quei “doveri” burocratici in situazioni difficili e preoccupanti.
Uno sviluppo più forte si è avuto nel dopoguerra, per effetto di un crescente benessere e di una nuova situazione culturale. La minor crescita, e poi diminuzione, che segue alla nascita della televisione non è dovuta a un “abbandono” della radio, ma semplicemente al fatto che l’abbonamento radiofonico veniva “compreso” in quello televisivo.
Ovviamente è cambiato il modo di ascoltare la radio, ma (come risulta anche dai recenti studi del Censis) questo rimane uno dei mezzi di informazione (e di svago) più diffusi.
Nel prossimo grafico vediamo una curva “inventata” e del tutto arbitraria, ma coerente con la realtà dei fatti, che proietta lo sviluppo della radio in Italia oltre la fase di declino degli abbonamenti.
Diffusione della radio in Italia
numeri in migliaia – proiezione su dati Istat
Il tracciato “immaginario” sembra indicare anche per la radio, come per la televisione, il raggiungimento di una “soglia” oltre la quale il numero di ascoltatori si stabilizza e non può più crescere. Ma non è necessariamente così. Mentre la televisione raggiunge la quasi totalità delle persone, la radio ha una penetrazione elevata ma non “universale”. È probabile che rimanga, come dimensione complessiva, più o meno stabile, ma non si può escludere che nuove proposte, nuovi contenuti o una maggiore specializzazione possano creare ulteriori possibilità di crescita.
Digitale deriva da digit che in inglese significa cifra; a sua volta digit deriva dal latino digitus che significa dito. In definitiva, digitale è ciò che è rappresentato con i numeri, che si contano appunto con le dita. Al posto di digitale la lingua italiana prevede il termine numerico. Al giorno d'oggi il termine numerico ed il neologismo digitale possono essere considerati sinonimi.
È contrapposto ad analogico, che è riferito a ciò che non è numerabile, non è analizzabile entro un insieme discreto di elementi. Digitale è riferito dunque alla matematica del discreto che lavora con un insieme finito di elementi, mentre ciò che è analogico viene modellizzato con la matematica del continuo che tratta un'infinità (numerabile o non numerabile) di elementi.
Il passaggio da analogico a digitale è chiamato digitalizzazione.
Anche geometricamente vi è una notevole differenza fra un'onda sinusoidale (più o meno regolare) come il segnale analogico e un insieme di spezzate (tratti costanti ai valori dell'insieme discreto, tipicamente 0 e 1) di un segnale digitale.
Il digitale è usato come approssimazione un po' rozza di un'onda analogica, anche se nelle applicazioni la qualità della riproduzione può essere ottima. Tale conversione è frequente quanto la discretizzazione di variabili continue in matematica o statistica (aspetto più generale di un problema soprattutto pratico).
Per esempio, un orologio con le lancette è analogico, perché la posizione di ognuna delle sue 3 lancette (ore, minuti e secondi) può indicare uno qualsiasi degli infiniti punti che formano la circonferenza del quadrante dell'orologio stesso, punti che quindi non sono numerabili. Al contrario in un orologio digitale le cifre che compongono l'ora, i minuti e i secondi indicano solo e soltanto gli 86.400 possibili momenti in cui può essere suddiviso, in secondi, un giorno (24 ore x 60 minuti x 60 secondi).
Un oggetto viene digitalizzato, cioè reso digitale, se il suo stato originario (analogico) viene "tradotto" e rappresentato mediante un insieme numerabile di elementi. Per esempio una foto, normalmente formata da un infinito numero di punti ognuno dei quali formato di un'infinita gamma di colori, viene digitalizzata, e quindi tradotta in foto digitale, allorché la sua superficie la si rappresenti divisa in un numero discreto di "punti" (in genere piccoli quadrati o rettangoli detti pixel) ognuno dei quali formato di un colore tra i 16.777.216 possibili (se codificati in RGB, e cioè in una combinazione di 256 sfumature di rosso, 256 di verde e 256 di blu).
Molte tecnologie ricorrono al digitale per ottenere la riproduzione di un'onda (sonora o luminosa) che è analogica; il modem converte appunto un segnale analogico inviabile attraverso i doppini telefonici in un segnale richiesto dal pc o altro dispositivo elettronico che funziona tramite bit (0/1) e richiede un segnale digitale. I moderni televisori LCD funzionano principalmente con segnali digitali, mentre i televisori della precedente generazione CRT avevano un funzionamento basato primariamente su segnali analogici.
In generale, un segnale analogico è la rappresentazione o trasformazione di una grandezza fisica tramite una sua analoga.
Esempi:
La rappresentazione numerica di una grandezza analogica è quasi sempre data da un numero reale (con precisione teoricamente infinita) o da una loro combinazione. Nella pratica, però, il segnale televisivo o delle schiere di sensori è rappresentato mediante numeri complessi, intesi come coppie di reali.
In elettronica, per analogico si intende il modo di rappresentare il segnale elettrico all'interno di una data apparecchiatura (che lavora sotto potenziale elettrico); il segnale è detto analogico quando i valori utili che lo rappresentano sono continui (infiniti). Cioè se prendessimo in esame un intervallo spazio temporale A - B (tipo quello rappresentato da un potenziometro ed i suoi relativi valori Min(A) e MAX(B)) si passerebbe da Min a MAX per una infinità di mutazioni elettriche, non numerabili in R (dal latino continuum = congiunto, unito insieme). Analogico si contrappone a digitale (=discreto). Analogico significa "continuo", "non discreto".
In parole povere, se considerassimo il semplice ed unico potenziometro (quello del volume) presente su di un amplificatore di un impianto hi-fi, non saremo mai in grado, una volta mutata la posizione fisica del potenziometro, di riportarlo una seconda volta sulla stessa posizione (cioè sul medesimo valore di resistenza elettrica) o, più volgarmente, allo stesso e medesimo volume.
Il famoso scrittore di fantascienza Arthur C. Clarke (autore di 2001: Odissea nello spazio) viene notoriamente indicato come l'ideatore dei sistemi satellitari cosiddetti geostazionari; infatti, nel 1945 Clarke scrisse che un satellite in orbita equatoriale circolare con un raggio di circa 42424 km (dal centro della Terra) avrebbe una velocità angolare esattamente pari a quella del pianeta, rimanendo quindi relativamente immobile nel cielo rispetto al suolo e divenendo così un possibile ponte radio tra due punti dell'emisfero visibili dal satellite. Inoltre, tre satelliti spaziati di 120° potrebbero (con qualche sovrapposizione) coprire l'intera circonferenza del pianeta; in questo caso i messaggi potrebbero essere anche scambiati tra i satelliti, o attraverso un doppio hop a terra, rendendo possibile una comunicazione diretta tra due punti qualsiasi del globo.
L'idea di Clarke è incredibilmente innovativa se si pensa che il lancio dello Sputnik da parte dell'Unione Sovietica avvenne solo nel 1957; in quel caso inoltre si disponeva di una tecnologia missilistica sufficiente solamente per portare il satellite in un'orbita bassa. Non si riuscirà a raggiungere un'orbita sincrona prima del 1963.
La serie Syncom fu il primo sistema di comunicazione satellitare geostazionario ed iniziò nel 1963, poco meno di 20 anni dopo la concezione dell'idea da parte di Clarke. Syncom I fallì nella fase di lancio, ma Syncom II e III vennero messi in orbita con successo il 26 luglio 1963 e il 19 luglio 1964 rispettivamente (con lo sforzo della NASA e del Dipartimento della Difesa).
Il primo satellite geostazionario commerciale fu Intelsat I, sviluppato da Comsat per Intelsat (1965-1969). Le prime comunicazioni regolari tra Stati Uniti ed Europa iniziarono il 28 giugno 1965, data di nascita delle comunicazioni satellitari commerciali. Tramite i satelliti verrà gestita l'intera difesa militare secondo quanto previsti dai protocolli di Internet 2, che per questi usi hanno dovuto risolvere ai problemi di robustezza e sicurezza del TCP attuale. Tramite il mezzo satellitare già passano criptate gran parte delle transazioni commerciali statunitensi.
Negli anni '90, l'uso commerciale e il futuro militare dei satelliti hanno portato gli esperti di telecomunicazioni a sopravvalutarne le potenzialità e a ritenerlo il mezzo del futuro a discapito della fibra ottica. Negli anni '90, invece, è stata posta nel mondo una quantità di fibra ottica pari a 10000 volte il diametro della Terra, mentre il satellite è stato rilasciato a TV satellitari minori e a costi di connessione scesi verticalmente.
Si è pensato di utilizzare il satellite come servizio a banda larga. La qualità è improponibile per l'elevato tempo di latenza di centinaia di millisecondi (per satelliti di tipo GEO). I satelliti INTELSAT già avevano una latenza per il traffico voce (a 4 KHz) molto alta, per cui si preferirono i molto più costosi cavi sottomarini come collegamento per le chiamate intercontinentali.
Per frequenze superiori, come quelle utilizzate da ADSL, la latenza diviene ancora più alta. La qualità del servizio Internet via satellite è notevolmente peggiore di una connessione ADSL; talvolta più lenta di una connessione analogica (per via del tempo di latenza, di attesa perché inizi un download di megabit al sec.) e rende insensato parlare di "ADSL satellitare".
Il satellite rimane però imbattibile in tutte le applicazioni di tipo broadcast, cioè tutte quelle applicazioni per le quali occorre inviare gli stessi dati a molti ricevitori. La sua scalabilità, rispetto alla rete terrestre, è semplicemente non paragonabile. Sia che si tratti di inviare lo stesso flusso audio/video (es. per applicazioni di formazione a distanza in tempo reale) o lo stesso file a un gran numero di stazioni riceventi, il satellite è in grado, a costi praticamente indipendenti dal numero di postazioni, di servire tutti i destinatari con la stessa qualità. Questo enorme vantaggio è anche dovuto alla pratica assenza del cosiddetto peering multicast nelle reti terrestri. Se le reti terrestri si scambiassero il traffico multicast, in effetti, la scalabilità di soluzioni terrestri aumenterebbe notevolmente. Al momento però, i fornitori preferiscono tenere il multicast confinato all'interno delle loro reti, con la speranza di ottenerne un vantaggio competitivo legato alla diffusione di contenuti esclusivi (es. eventi sportivi o spettacoli).
“Una impresa multinazionale, in ambito economico, è un'impresa che organizza la sua produzione in almeno due paesi diversi. È detta controllata l'impresa operante in un paese estero di cui la multinazionale controlla tra il 10 e il 50% delle azioni, filiale quella di cui controlla più del 50% delle azioni.
Le maggiori imprese multinazionali possono avere budget maggiori di quelli delle economie dei paesi in via di sviluppo in cui operano; tali imprese giocano un ruolo importante nei processi di globalizzazione e hanno una forte influenza sulle relazioni internazionali degli stati coinvolti. Tuttavia vanno considerate "multinazionali" anche le piccole e medie imprese dotate di un impianto di produzione o di distribuzione all'estero (ad esempio un calzaturificio del Nord Est con un impianto di produzione in Romania).
Essere multinazionali è spesso la strategia ottimale per operare in un'economia globale integrata. L'ascesa delle multinazionali negli anni '90 va di pari passo con il processo di liberalizzazione regionale e globale del commercio. A causa della concorrenza internazionali, le imprese tendono a ridurre i costi di produzione e ricercare fattori di produzione a basso costo. Tuttavia le attività multinazionali possono svolgersi solo se esistono bassi costi commerciali per la commercializzazione internazionale dei semilavorati o la reimportazione in patria dei prodotti finiti.”
Se noi entriamo nel sito della Nestlè Italia , ad esempio, possiamo notare che il sito è strutturalmente molto semplice e immediato. La prima cosa che colpisce l’attenzione sono le immagini presenti: la slide-show che racconta l’importanza di una giusta e corretta alimentazione, mentre in alto a destra troviamo una foto di un bambino sorridente che mangia, di fianco una ragazza che sta compiendo alcuni esercizi di stretching. Sempre in home page è possibile riscontrare la presenza di alcuni riquadri come quello delle news, quello dedicato ai prodotti Nestlè e un numero verde da chiamare. Cambiando totalmente genere passiamo a navigare sul sito della Nokia molto incentrato sull’immagine, in modo particolare sulla visibilità dei prodotti e delle loro caratteristiche. Anch’esso facilmente navigabile e molto ricco di informazioni utili: dai software da scaricare, ai numeri utili per l’assistenza, alla possibilità di poter conoscere i vari prodotti come se il cliente li avesse in mano attraverso varie demo. Domina l’uso dei colori bianco, verde e azzurro.
Se invece visitiamo il sito della P&G ci accorgiamo sin da subito che è un sito molto strutturato e molto ricco di informazioni su tutti i svariati prodotti che sono venduti dall’azienda. Nota dolente del sito è l’impossibilità di visualizzarlo con la lingua italiana, caratteristica invece presente negli altri due siti precedentemente visitati.
Questi sono alcuni dei tanti siti presenti nella rete che descrivono e raccontano le aziende multinazionali. Tutti i siti, nella maggior parte dei casi, posseggono caratteristiche comuni come, ad esempio, l’utilizzo di fotografie ad alta qualità, la presenza di molte informazioni inerenti ai prodotti, e un uso dei colori ad effetto con lo scopo di attirare l’attenzione del cliente. In tutti è possibile trovare in modo facile e immediato, i contatti per poter incontrare e conoscere in modo approfondito i prodotti attraverso specifiche schede tecniche.
Breve lezione ma densa di contenuti. Si specificano i termini accessibilità e usabilità (qui già trattati in un post precedente) soprattutto in relazione alla comunicazione delle pubbliche amministrazioni.
L'accessibilità, lungi dall'essere diffusa e uniforme (il protocollo W3C è ancora facoltativo), dovrebbe garantire la possibilità di accesso e di fruizione del materiale in rete da parte di persone disabili. Oltre a una grandezza minima dei caratteri (necessaria per gli ipovedenti) si dovrebbero evitare pop up, flash e animazioni. È qualcosa cui non si pensa, ma spesso un sito con una grafica più banale può consentire una serena navigazione a quegli utenti con problemi nervosi o di epilessia, i quali risultamo molto danneggiati dalle parti in movimento o anche solo eccessivamente colorate del video.
L'usabilità dovrebbe fare da garante agli utenti tecnologicamente svantaggiati: da un lato allegati meno pesanti e riduzione di video, filmati, ecc. per permettere l'accesso anche a chi ha una connessione più lenta della media, dall'altro lato l'utilizzo di software free (i più diffusi sono Open Office e Adobe Acrobat Reader) per permettere a tutti gli utenti un accesso ai documenti, prescindendo da qualsivoglia programma licenziato a pagamento.
Sia in ottica di accessibilità, sia in ottica di usabilità, torna fondamentale (e non siamo forse noi qui per questo?) la questione del linguaggio. Una comunicazione pubblica o istituzionale deve rivolgersi alla totalità dei cittadini. Un linguaggio semplice e lineare avvicina gli utenti svantaggiati (fisicamente o tecnologicamente); un linguaggio uniforme avvicina gli utenti che non la pensano come noi o che non fanno parte della nostra cerchia.
La comunicazione pubblica non può assolutamente permettersi il lusso di comunicare con pochi, di scegliersi il proprio target. Questa è prerogatica della comunicazione d'impresa, che è tutta un'altra cosa.
Puntando più sullaltro punto, l'interattività, le aziende private tendono a fidelizzare la loro clientela, prima attirandola sul sito grazie ad un marketing globale che fa rimbalzare il consumatore dalla rete al prodotto reale (per esempio con concorsi a premi o omaggi da scaricare), poi cercand di acquisire i suoi dati sensibili per poterlo tenere nel circuito della propria pubblicità mirata. In tutto questo la parola passa in secondo piano.
Dove invece la comunicazione scritta si fa valore principale è nella comunicazione sociale. Per cronica mancanza di fondi, le organizzazioni no-profit puntano molto su internet per la loro comunicazione (oltre ai costi ridotti, la rete ha il vantaggio di raggiungere tutti e di creare consenso). La grafica (animazioni, pop up, ecc.) è una delle parti più costose di un progetto web. Ecco il primo motivo per cui la parola ritrova tutto il suo spazio e la sua forza; non è però trascurabile il fatto che lo scritto risulta fondamentale nella costruzione di un network sociale, grazie alle migliori possibilità che apre nel campo dell'interattività fra ente e utente.