sabato 30 luglio 2011

La Fortuna

“Diamine !”, esclamò (in giapponese) il responsabile dell'azienda che curava la manutenzione della Centrale Nucleare di Fukushima, “La centrale non era stata progettata per sopportare un sisma di tale violenza !”, mentre leggeva i valori di radioattività che uscivano dai reattori, ormai fuori controllo.

Nessuno infatti avrebbe mai immaginato che, analizzati i dati storici, un sisma di così inaudita potenza avrebbe mai colpito le coste orientali del Giappone.

Se l'incidente della centrale di Cernobyl aveva messo a nudo il basso livello di sicurezza, dovuto in gran parte all'obsolescenza, delle Centrali dell'ex Unione Sovietica, nessuno nutriva, invece, sospetti sulla affidabilità delle Centrali costruite in Giappone, paese tecnologicamente leader a livello mondiale.

Però, purtroppo, i tempi di evoluzione dei movimenti della crosta terrestre, che si sviluppano su periodi misurabili in migliaia di anni, sono andati a incrociare con la vita, di certo non superiore ai cento anni, di una piccola centrale nucleare costruita dall'uomo.
Se lo stesso sisma si fosse verificato, anche tra meno di 50 anni, che niente sono per la vita del nostro pianeta, forse l'effetto sarebbe stato minimo o addirittura nullo.

Abbiamo avuto una bella dose di sfiga !”, obiettò, sempre in giapponese, il solito esperto di centrali.

La centrale era tra le più sicure, dotata di tutti i sistemi di controllo più sofisticati e soprattutto completamente ridondati. Uno o più guasti contemporanei non potevano pregiudicare il funzionamento o il controllo della centrale.

Insomma i parametri di costruzione erano stati tra i più rigorosi, tanto da non generare alcun dubbio sulla sicurezza.

La ridondanza e la possibilità di sostituzione a caldo, cioè senza il fermare gli impianti, dei componenti guasti è una delle tante regole seguite dai progettisti dei sistemi più disparati.

Mettere in sicurezza” un qualsiasi sistema, sia questo una centrale nucleare o un computer di vitale importanza, significa progettare secondo metodologie e tecnologie capaci di garantire il funzionamento continuo, anche a fronte di guasti di una o più componenti.

Un altro esempio di sistema ad alta affidabilità è la rete Internet, che ormai collega e mette in comunicazione ogni parte del pianeta.
Le connessioni che uniscono i vari punti della rete sono sempre progettate per non interrompersi mai.
Nella maggioranza dei casi i collegamenti si snodano attraverso percorsi completamente diversi, utilizzando tra l'altro, dispositivi diversi.
Ad esempio la connessione tra Londra e New York è fatta attraverso fasci di fibre ottiche che attraversano l'Oceano Atlantico. Nel caso si interrompesse questo collegamento, la rete troverebbe di sicuro un percorso alternativo, magari passando per Tokyo e questo in pochi secondi, senza che gli eventuali utilizzatori impattati dal guasto, si accorgano di quanto sta succedendo.

Nonostante tutto però non è cosi rado verificare mancati collegamenti, inspiegabili conoscendo il disegno della rete.
Spesso le spiegazioni rasentano il ridicolo o narrano di concomitanze di eventi che nessuna mente razionale avrebbe mai potuto considerare durante la fase di progettazione.

Abbiamo avuto una bella dose di sfortuna”, così si giustificano, il più delle volte, i vari responsabili di rete.

Nel mondo dell'Informatica, la “Messa in Sicurezza” dei sistemi mira, tra le altre cose, a costruire reti di computer capaci di non fermarsi mai, accorrendo gli uni in soccorso di altri affetti da guasti, senza che questo comporti l'interruzione dei servizi erogati.
Anche in questo caso si parla di ridondanza delle componenti e diversificazione dei collegamenti, utilizzando, se possibile, tecnologie completamente diverse tra loro.
Più alto è il livello di sicurezza che si desidera ottenere, più alti sono normalmente i costi e più alta la complessità che, per contro si ottiene.
Quest'ultima, conseguenza della necessità di alta affidabilità è allo stesso tempo garante di continuità di servizio ma, anche uno degli anelli deboli della sicurezza. Infatti, è noto che, più sono le componenti costituenti un sistema, più alta è la probabilità che uno o più di questi si possano guastare.

Quindi non è raro avere una rete di computer bloccata e verificare con sgomento, che la maggiore responsabile del disservizio è la complessità determinata dalla Messa in Sicurezza.

Sistemi spesso “non sicuri” ma più semplici, funzionano con più continuità per anni a dispetto degli alti investimenti in tecnologie e ridondanza.

Il guasto è stato determinato anche da una buona dose di sfortuna!. Più eventi eccezionali si sono verificati contemporaneamente”, dicono, spesso anche in  Italiano, i tecnici responsabili delle reti di computer, a giustificazione di inspiegabili blocchi.

Quindi non esistono sistemi sicuri e affidabili al 100%, qualcosa può sempre bloccarli e non è pensabile di progettarli capaci di sopportare qualsiasi guasto o evento naturale.
Non basta la ridondanza e nemmeno le tecnologie più avanzate.
Il più delle volte si tratta di avere un po' di fortuna, come si intuisce dalle spiegazioni dei tecnici e degli specialisti.
Esatto La Fortuna, alla fine si cade sempre là.
A dire la verità sembra l'unica componente non ridondata. Spesso manca quando servirebbe, probabilmente perché impegnata su mille fronti nello stesso momento.

La Fortuna è il vero Single Point of Failure(*) del nostro mondo.

Io su Google non ho trovato riferimenti a riguardo, per verificarne la disponibilità in caso di eventi importanti.
L'unico che ho trovato è nella foto a lato, ma non credo possa essere di molto aiuto.


(*)
In un sistema informatico il single point of failure, letteralmente singolo punto di vulnerabilità, è una sua univoca componente (hardware o software) che in caso di malfunzionamento o anomalia causa disfunzione dell'intero sistema.

Single Point of Failure

Nessun commento:

Posta un commento