#TigCloudPA12 Il Cloud per la Pubblica Amministrazione


L'inizio del Summit

Il 29 Novembre si è tenuto il Cloud Computing Summit per la Pubblica Amministrazione organizzato da The Innovation Group e promosso da Forumpa.it, ASTRID e THINK!. Le finalità del summit erano quelle di “Presentare ai rappresentanti del Governo e della PA Centrale e Locale una serie di progetti e di proposte preliminari  risultanti dall’attività dell’Osservatorio per la diffusione del Cloud nei Comuni, Sanità e nelle Infrastrutture Strategiche del paese. Fornire il più ampio panorama delle soluzioni e dei servizi Cloud che l’industria ICT rende disponibili alla PA sia a livello nazionale che internazionale. Riconoscere e premiare le soluzioni di eccellenza nell’ambito del Cloud promosse dalla Pubblica Amministrazione Italiana

Le prime impressioni entrando nella sala principale: un evento seguito da moltissime persone interessate e partecipi (1100 collegate da più sale), anzi per usare un frase di  Roberto Masiero,persone competenti, coinvolte e appassionate“. Peccato che in sala ci fosse poco campo per far collegare gli smartphone e non sia stata disponibile la rete WiFi del centro Roma Eventi, perchè tramite l’hashtag  #TigCloudPA12 si sarebbe potuto commentare in diretta; io ho provato prima dell’inizio, ma mi sono arreso subito.

RapportoCloudPA-227x300L’agenda prevedeva nella mattinata la presentazione del rapporto “Pubblica Amministrazione che si trasforma: cloud computing, federalismo, interoperabilità” (peccato non ci sia la versione e-book …), la premiazione e due tavole rotonde, la prima con alcuni rsppresentanti dell’industria ICT sulle opportunità fornite dall’Agenda Digitale Italiana e su come le aziende ICT possono contribuire;  la seconda, con rappresentanti della PA, sul tema descritto dal titolo del rapporto presentato. Nel pomeriggio, dopo un’altra tavola rotonda con aziende e rappresentati della PA, i lavori si sono suddivisi in due sale dove sono intervenuti i rappreentanti delle PA premiate e si è dibattuto di: Il Cloud come metafora della trasformazione in atto, Il Cloud come abilitatore delle Smart Cities in una sala; Reti e Data center, Sicurezza strategica dei dati, Governance dei progetti nazionali a valenza sistematica e Nuvola pubblica certificata nell’altra.

Per chi non avesse idea di che realtà è l’ICT della PA basta riportare pochi dati rbaditi più volte durante l’evento: nella Pubblica Amministrazione centrale ci sono 1033 datacenter censiti, nella PA locale circa 3000; con un impiego di circa 20.000 addetti.

Purtroppo, sono riuscito a partecipare solo alla mattinata. Dico purtroppo perché effetivamente ho trovato l’evento interessante e stimolante. Ho sentito dei commenti del tipo “siamo ancora a parlare, ma non si è fatto nulla!“; d’accordo è vero che si poteva fare di più e prima, ma essere qui a parlare di proposte e premiare alcune realizzazioni, è il presupposto per fare di più e fare meglio. Quindi, per quanto possa essere critico su alcune proposte e/o opinioni (ma questo è il succo della condivisione costruttiva), posso solo elogiare l’iniziativa e l’impegno degli organizzatori.

Nella mattina è intervenuto anche il Ministro per la Pubblica Amministrazione e la Semplificazione Filippo Patroni Griffi. Con un intervento centrato sull’importanza dell’Agenda Digitale, i suoi contenuti e di come la sua realizzazione sia fondamentale per attuare delle politiche di trasparenza. Mi è piaciuto perché ha mostrato di conoscere bene i contenuti dell’agenda, senza parlarne usando degli slogan e sopratutto senza leggere; ma anche per il modo di comunicare chiaro, semplice e concreto. Poi il Ministro, insieme con Carlo Mochi Sismondi, ha effettuato la premiazione, come migliori realizzazioni di Cloud nella PA, di questi enti:
– Comune di UDINE
– ISTAT
– Min. Affari Esteri
– Informatica Trentina
– Min. dell’Economia e delle Finanze
– Regione Toscana

Per quanto riguarda le tavole rotonde, ho difficoltà a commentare la prima dove (in rigoroso ordine alfabetico aziendale) hanno partecipato: Giuseppe Gorla, Responsabile Technology Consulting, Accenture, Pierpaolo Taliento, Vice President and General Manager, Southern Region, CA Technologies,
Lorenzo Gonzales, Business Consultant HP Technology Services, Hewlett-Packard Italiana, Eva D’Onofrio, Vice President Global Technology Services, IBM Italia, Pierfrancesco Di Giuseppe, Country Leader, Oracle Italia.
La mia difficoltà nasce dal fatto che le mie opinioni vi potranno sembrare viziate per amor di stipendio. Si, non ho mai fatto segreto di essere un dipendente IBM e i commenti fatti da Eva D’onofrio, a mio parere sono stati i più concreti e comprensibili. Eva ha sostenuto che le innovazioni nell’ICT della PA sono in grado di dare risposta alle quattro aree di attenzione importanti per il nostro paese: ottimizzazione della spesa pubblica, aumento dell’efficenza della PA, attrattiva ad investimenti esteri e contrasto alle frodi. Ha usato questo termine elegante; io che non so parlare in pubblico avrei detto alla corruzione e all’evasione. Poi ha messo in evidenza come sarebbe necessario adottare una figura già presente in altri paesi il CIO della PA e ha espresso la necessità di una roadmap più concreta con tempi di realizzazione espliciti. Alla fine ha evidenziato che le aziende ICT hanno molte competenze da mettere a disposizione, ma che si dovrebbe ripensare il rapporto domanda/offerta tra PA e aziende. Immagino che volesse intendere che una PA che aquista ed avvia progetti innovativi sempre con gare a ribasso di prezzo, difficilmente ottiene la collaborazione di competenze di pregio (forse anche qui io lo esprimo in un modo troppo diretto?).  Anche Pierfrancesco Di Giuseppe ha messo il dito sul tema degli investimenti evidenziando come nel 2009 la spesa Italiana pro-capite in ICT era inferiore a paesi come Grecia e Portogallo. Quindi è sbagliato operare una riduzione della spesa della PA in questo settore. Giuseppe Gorla ha manifestato interesse per i contenuti dell’Agenda Digitale, perplessità perché si è chiesto “perché non è stato fatto prima” e preoccupazione per la mancanza di senso d’urgenza per l’attuazione. Pierpaolo Taliento ha detto che le industrie devono elaborare dei nuovi modelli di business ed ha detto che l’offerta resa disponibile dalla sua azienda nell’area della sicurezza è fondamentale per il Cloud. Maurizio Gonzales ha evidenziato come la piccola impresa sia un asset prezioso per il paese e che è importante che parallelamente all’Agenda Digitale venga predisposta una Governance adeguata di cui non può farsi carico l’industria ICT.
Ha anche evidenziato come per lo sviluppo di modalità Cloud sia importate una rete adeguata ed un uso corretto, dicendo che se la banda (immagino nelle aziende) viene utilizzata per “video, chat, eccetera, allora non mi è utile“. Spero di non aver colto bene il contesto di questa frase e, quindi, di averne travisato il vero significato; perché se quello che ho sentito ed immediatamente trascritto nei miei appunti è quello che voleva dire, alora non sono d’accordo. Strumenti come quelli citati, a mio parere posono essere utilizzati come strumenti di produttività o di apertura su nuovo canali di business: appunto il Social Business.

Franco Bassanini ha gestito, dopo un intervallo per un caffè, la seconda tavola rotonda in modo eccellente. Risultato reso possibile anche grazie ai partecipanti: invece che una giostra di noiosi sproloqui dove il notabile di turno recitava il discorso preparato, è stata una serie di interventi, alternati da scambi di opinioni, dove chiaramente ciascuno condivideva le considerazioni o le esperienze della amministrazione a cui apparteneva. Dico subito che non sono d’accordo con il commento “si, ma questo che c’entra con il Cloud?” che ho sentito tra la folla nell’intervallo successivo; perché erano tutte esperienze di ambienti ICT o di controllori di ambienti ICT che rappresentano l’as-is da cui partire per effettuare trasformazionni innovative. Non mi aspettavo che il summit fosse una sessione sulle tecniche da utilizzare in un cloud o solo sui progetti cloud, ma anche sulla situazione della PA e sui punti di vista dei protagonisti. Mi è dispiaciuto veramente non poter essere presente nel pomeriggio.

Rileggendo gli appunti che ho preso mi sembra di avervi dato un’idea abbastanza completa della mattinata. Sono convito che su affermazioni specifiche si potrebbero aprire mille dibattiti e io stesso ho evitato di riportare alcuni mie punti di vista differenti da tizio o da caio, ma qui volevo comunicarvi il mio parere sull’evento in sé: positivo e stimolante.
E’ stato detto che a breve saranno rese disponibili ai partcipanti le presentazioni: spero che lo siano in forma pubblica anche sui siti delle organizzazioni promotrici; in questo caso vi terrò informati.

Annunci

Il Cloud con #IBM #zEnterprise


Senza dubbio il Cloud Computing è l’argomento del momento e, come si possa coniugare attraverso la piattaforma zEnterprise, è un argomento non affrontato di frequente. A mio parere per due motivi distinti: da una parte perchè chi spinge verso altre piattaforme semplicemente lo ignora; dall’altra perchè capita, a chi lavora su ambienti mainframe da molto tempo, di vedere il cloud nel mainframe come una contaminazione di altre piattaforme. Ma la tecnologia alla base dello zEnterprise e le sue innati doti di virtualizzazione lo rendono un sistema ideale per il Cloud Computing.

E veniamo al motivo di questo post partendo dalle conclusioni: io penso che, una volta assimilati gli step per adottare un modello di cloud computing si debbano intraprendere da subito i primi passi; inoltre penso che, in mancanza di una chiara decisione questi primi passi sia più semplice avviarli all’interno di un ambiente mainframe.

Mi è capitata per le mani la presentazione dal titolo Accelerating Cloud with IBM zEnterprise che si è tenuta in Canada il 7 Novembre nell’evento Smarter Computing in the New Era of IT. Ha catturato la mia attenzione la slide dove si riportano i dati di uno studio, fatto da IBM STG intervistando 747 clienti, che riporta la distribuzione dei clienti nelle differenti fasi della roadmap verso il Cloud Computing.

Da questo emerge che le fasi di Integrazione ed Automazione ancora devono essere affrontate da una gran parte delle realtà intervistate. Ma gli aspetti di virtualizzazione dello storage e di condivisione delle risorse sono argomenti che in molti casi non sono circoscritti al solo ambito infrastrutturale. Spesso implicano delle modifiche nelle procedure,  nella pianificazione e nei comportamenti aziendali. Ecco perchè, in mancanza di strategie precise, conviene muovere i primi passi mentre si è in un confort zone per non trovarsi all’ultimo ad affrontare rivoluzioni. O peggio a subirle.

Sempre per mantenere lo spirito di condivisione delle risorse che ritengo interessanti, suggerisco per chi vuole muovere in leggerezza i primi passi nel Cloud il libro Cloud For Dummies, IBM Midsize Company scaricabile da questo link.

Sono ben accetti i vostri commenti.

IBM amplia l’offerta zEnterprise: arriva lo zEnterprise EC12


Proprio oggi martedì 28 Agosto 2012 IBM ha annunciato il nuovo zEnterprise EC12, una versione piùImmagine potente di una tecnologia che è presente nel modo IT da quarantotto anni. Attraverso lo zEC12, IBM ha voluto ancora una volta dimostrare di offire un costante supporto alle imprese, aiutando loro a rafforzare ed eventualmente migliorare la protezione delle informazioni.

Lo zEC12 è leader nel settore per la sicurezza e fornisce un solido supporto per l’analisi dei dati operativi, che aiuta le imprese a vagliare con efficienza grandi volumi di dati grezzi e a trasformarli in informazioni per acquisire conoscenza.

Per la sicurezza dei dati archiviati il nuovo zEC12 si basa sulla piattaforma System z, che ha ottenuto la classificazione di sicurezza “Evaluation Assurance” Level 5+ di Common Criteria. Il co-processore Crypto Express4S garantisce la privacy delle transazioni e dei dati sensibili. Crypto Express4S impiega nuovo hardware e softwareper soddisfare i requisiti di sicurezza di diversi settori e Paesi. Per esempio, può essere configurato per fornire supporto per le firme digitali di alta qualità, utilizzate con applicazioni per passaporti “intelligenti”, carte d’identità nazionali e procedimenti giudiziari online, sostituendo le firme manoscritte, secondo le direttive dell’UE e del settore pubblico.

zEC12 offre prestazioni avanzate per la business analytics, aumentando del 30% le performance dei carichi di lavoro analitici rispetto al suo predecessore. Inoltre, il supporto per DB2 Analytics Accelerator, che incorpora l’appliance di data warehouse Netezza in zEC12, consente l’esecuzione, in modo estremamente veloce, di complesse analisi aziendali in ambiente zEnterprise.

Il nuovo mainframe offre inoltre funzionalità di analisi dei sistemi IT basate sulla tecnologia IBM zAware, che apprende, attraverso l’analisi dei messaggi interni, le caratteristiche dei sistemi e li classifica secondo i modelli predefiniti. In questo modo zAware individua eventuali deviazioni, utilizzando una serie di sintomi che identificano comportamenti insoliti del sistema e minimizza l’impatto di queste situazioni anomale.

Le funzionalità di virtualizzazione del mainframe lo rendono particolarmente adatto a supportare gli ambienti di cloud privata. I clienti possono consolidare migliaia di sistemi distribuiti Linux su zEC12, riducendo le spese di gestione dell’IT associate al consumo energetico, al fabbisogno di spazio e alle licenze software.

Funzionalità di cloud computing su grande scala

Le funzionalità avanzate di virtualizzazione del mainframe lo rendono particolarmente adatto a supportare gli ambienti di cloud privato. I clienti possono consolidare migliaia di sistemi distribuiti Linux su zEC12, riducendo le spese di gestione dell’IT associate al consumo energetico, al fabbisogno di spazio e alle licenze software.

zEC12 offre un Total Cost of Acquisition contenuto per il consolidamento su Linux dei carichi di lavoro di database concorrenti. Il sistema può far risparmiare fino al 75 per cento dei costi energetici, rispetto alle alternative x86 (4). Un zEC12 può contenere la capacità di un intero data center multi-piattaforma in un unico sistema.

Grazie alle caratteristiche d’avanguardia di sicurezza e conformità di diversi settori, il nuovo mainframe consente ai clienti anche di gestire le applicazioni IT tradizionali e di cloud privato su dispositivi comuni ad entrambe le tipologie di utenti.

zEC12 e l’hybrid computing

Nel 2010, IBM ha introdotto il sistema ibrido con l’IBM zEnterprise System e l’IBM zEnterprise BladeCenter Extension (zBX) per consentire alle imprese di gestire e integrare i carichi di lavoro tra server mainframe, POWER7 e System x. Utilizzando zEnterprise Unified Resource Management, queste risorse eterogenee possono essere gestite come un unico sistema virtualizzato.

Oggi IBM presenta zBX Model 003 per ampliare la possibilità di gestire carichi di lavoro integrati e dinamici. Con il controllo operativo semplificato e una rete integrata, ad alte prestazioni, privata e sicura, zBX Model 003 è progettato per lavorare con zEC12. Come il suo predecessore, l’ultimo zBX comprende processori specializzati per determinati carichi di lavoro, come IBM WebSphere DataPower Integration Appliance XI50 per zEnterprise, IBM DB2 Analytics Accelerator e server IBM BladeCenter selezionati.

Ad oggi, IBM ha consegnato ai clienti oltre 150 unità zBX con 1.100 server blade, consentendo loro di sfruttare i vantaggi di gestione e di semplificazione dell’hybrid computing sulla piattaforma.

Il consolidamento di sistemi disparati su zEC12 può ridurre il Total Cost of Ownership dei clienti fino al 55%, rispetto a un data center distribuito attuale.

zEC12 è il primo mainframe IBM a includere al suo interno, con la funzione Flash Express, una tecnologia di memoria a stato solido: grazie a questa nuova soluzione il nuovo elaboratore migliora le prestazioni di applicazioni che utilizzano grandi basi dati o o di carichi di lavoro in cui livelli di servizio ottimali sono vitali, come le applicazioni rivolte al cliente o quelle per l’assistenza utilizzate da banche, imprese del settore pubblico e rivenditori. È progettata infatti per fornire una migliore disponibilità durante i picchi di attività del sistema quando le transazioni si intensificano.

zEC12 è il primo server IBM “general purpose” che utilizza la tecnologia di memoria transazionale, all’inizio utilizzata commercialmente per il sistema “Sequoia” basato su IBM Blue Gene/Q, del Lawrence Livermore National Lab, il supercomputer più veloce del mondo. In zEC12, IBM ha adattato questa tecnologia per consentire al software di supportare meglio operazioni concomitanti che utilizzano una serie di dati condivisi, come nel caso delle istituzioni finanziarie che elaborano transazioni rispetto alla stessa serie di conti.

Si può anche scegliere di sistemare lo zEC12 senza un pavimento sopraelevato nel data center, una novità per i mainframe IBM di alta fascia. Con il nuovo supporto aereo per l’alimentazione e il cablaggio si hanno più opportunità per installarlo. Questa caratteristica rende il sistema più interessante anche per le imprese che operano nei mercati in crescita, dove il business del System z è aumentato dell’11% nel secondo trimestre del 2012, in base agli utili di IBM.

C’era una volta il mainframe


Immagine

Sin da quando avevo cinque anni, sono sempre stato un grande appassionato di Information Technology forse perchè mi è capitato più volte di vedere mio padre che lavorava con il computer pur non sapendo che cosa stesse realmente facendo, qual’era il suo lavoro. Sappiamo che con un computer si possono fare milioni di cose cosi un giorno gli chiesi: << papà tu che lavoro fai? >>. Lui rispose: << lavoro con dei grandi computer molto potenti>>. Io incuriosito gli chiesi: << e come si chiamano? >>. << Mainframe >> replicò. Fu così che andai su Google e come tutti facciamo, scrissi nella barra di ricerca la parola “mainframe” e scoprì grandi cose, iniziando dal 7 aprile 1964 anno in cui Sr. Thomas J. Watson annunciò l’IBM System/360 per poi arrivare al 12 Luglio 2011 quando venne sviluppato lo z114. Quarantasette anni di storia segnata da importanti tappe che io chiamo zInnovations tutte mirate a creare server adatti non solo per grandi imprese ma anche per PMI. Di rilevante importanza è quanto accaduto nel dicembre 2011, mese in cui IBM ha reso disponibile una tecnologia che constente agli utenti zEnterprise di integrare le applicazioni Windows in ambiente mainframe. Malgrado tutte queste innovazioni, molte imprese si trovano in difficoltà quando i loro responsabili IT devono far fronte alla scelta sul tipo di tecnologia da integrare nella loro infrastruttura. A tale proposito e ancora tutt’oggi aperta la battaglia ” mainframe VS sistemi distribuiti “, poichè si tende a pensare che il mainframe data la sua età, sia diventata una tecnologia vecchia e obsoleta. Come riporta un articolo che ho letto di una rivista on line, alla domanda: mainframe tecnologia vecchia?? bisognerebbe rispondere: le innovazioni di IBM affermano tutt’altro! L’articolo ” Kids see a future in mainframe” pubblicato pochi mesi fa su Forbes, spiega che di anno in anno aumentano sempre più i ragazzi che all’università si iscrivono a corsi per apprendere l’architettura dei sistemi centrali entrando a far parte del progetto ” System z Academic Initiative”. Inoltre qualche anno fa è stata sviluppata un’applicazione per iPhone capace di interagire con il mainframe, quindi è possibile accedere alle applicazioni z/OS anche tramite smartphone. << Introdurre novità nell’ambiente informatico non significa necessariamente buttare via l’esistente. Il mainframe è ancora un componente fondamentale per gli sviluppi IT del futuro >> spiega Fabio Riva, Senior IT Architect di IBM Italia e sviluppatore di tale applicazione. Anche da queste sue parole si capisce che il mainframe avrà sempre di più un ruolo di punta e strategico per IBM, sarà la tecnologia ideale per il Cloud Computing e per la maggior parte delle imprese di tutto il mondo proprio per la sua alta affidabilità e per le sue alte prestazioni senza limiti di tempo.

Lo zEnterprise nelle nuvole le rende sicure


Non ricordo dove (mi sembra su Twitter), ho letto un riferimento ad un articolo su Millennial Mainframer dal titolo The Mainframe on the Cloud scritto da Sarah Dandia. Come al solito li ho contattati e chiesto il permesso di tradurre/citare i loro post e, con grande disponibilità, mi ha risposto Sean McBride permettendomi di aggiungere il loro sito tra quelli gemellati (vedi la lista nel menu a sinistra).

Sarah sostiene che […] sebbene le parole “cloud computing” e “mainframe” non sono, di solito, utilizzate all’interno della stessa frase, non sono così dissimili come potrebbe sembrare. Il mainframe all’interno del cloud è un argomento di discussione sempre più presente negli ultimi mesi all’interno della communità tecnica […]. Il post prosegue sostenendo che le caratteristiche che si richiedono al Cloud Computing sono le stesse che il mainframe rende disponibili da molto tempo, quindi il mainframe è la piattaforma ideale per il Cloud.

Queste considerazioni sono vere anche se, a mio avviso, lo zEnterprise come piattaforma ibrida si presta alle realizzazioni di architetture per il Cloud Computing. Anzi, il mio parere è stato, fino a poco tempo fa, quello che lo zEnterprise nel Cloud avesse l’unico ruolo di “fornitore di mattoni” per costruire il Cloud. Dico fino a poco tempo fa perché ho letto un whitepaper che parla di zEnterprise nel Cloud in modo diverso dalla mia visione. Non come base su cui costruire tutto, ma come nodo essenziale per svolgere tutte le funzioni su un aspetto specifico per il Cloud: la sicurezza.

Il white paper si intitola Consolidated security management for mainframe clouds ed è uscito a Febbraio di quest’anno; è possibile scaricare il PDF da questo link oppure qui in FTP. I questo dicumento si ipotizza, viste le naturali doti di sicurezza del mainframe di concentrare tutte le funzioni su questa piattaforma che diventa il guardiano del Cloud.

Ecco che […] le caratteristiche che fanno del mainframe una piattaforma ideale per le applicazioni critiche – un hardware robusto, un sistema operativo, meccanismi di Systems Management e di sicurezza affidabili – possono essere utilizzate per utilizzarlo come Security Hub in un Cloud […]. Quindi sia i meccanismi di autenticazione ed autorizzazione, la gestione delle identità federate, la gestione dei certificati digitali, i meccanismi di prevenzione delle intrusioni e le funzioni di controllo ed audit possono essere concentrate all’interno del mainframe ed ad esso demandate per tutto il Cloud. Il documento si conclude con una sintetica panoramica dei Sw utilizzabili a tal scopo.

Questo ruolo ipotizzato per il mainframe mi ha fatto ricordare un fatto accaduto verso l’inizio del 2000. Stavo da un cliente parlando di sicurezza nell’ambito mainframe ad una platea folta di persone (20-30) quando ad un certo punto vengo fatto bersaglio, come esponente di IBM, del fatto che (cito le memorabili parole) “l’IBM sullo z nasconde le sue falle di sicurezza non diffondendo le informazioni, ne è prova il fatto che non ha ancora reso disponibile un antivirus per il suo sistema operativo di cui ce ne dovremmo sbarazzare al più presto“. Confesso che rimasi inizialmente interdetto sia per il contenuto che per la veemenza delle accuse. Poi feci notare che l’attenzione alla sicurezza, sia sul sistema operativo che nei sottosistemi, è da sempre stata una fissa dei laboratori ben prima che la parola antivirus uscisse dall’ambito medico/biologico per infettare il mondo dell’informatica. Le PTF di tipo HIPER (High Impact/Pervasive) esistono da prima degli anni ’80 e servono, appunto, per eliminare errori con alto impatto sulla affidabilità dei sistemi; inoltre esistono le PTF classificate di Sicurezza che indirizzano esplicitamente tali problematiche. Dissi anche che un antivirus per lo z/OS come per gli altri sistemi era lo stesso z/OS che isola i differenti address space in modo che non possano danneggiarsi reciprocamente o li manda in ABEND quando tentano di fare operazioni non permesse.

Ma fu inutile, non riuscii a parole nel convincere quella persona. Comunque ad oggi ancora hanno gran parte dei loro workload su mainframe.


Ho iniziato un’attività di diffusione per cui raggiungere mainframeitalia sarà possibile in modi diversi:

– da un qualsiasi lettore o aggregatore di RSS. utilizzate i link riportati a sinistra sotto il titolo RSS Feeds
– su Twitter basta diventare followers di @mainframeitalia
– su Facebook potete usare il bottone mi piace, sempre nel menù a sinistra, per seguire la pagina di facebook.
– dalla mail; inserite il vostro indirizzo nel menù a sinistra

Iscriversi con uno di questi meccanismi è anche un modo per far arrivare il vostro sostegno agli autori dei post. Ovviamente, ribadisco, un’altro modo di sostenere questa iniziativa è tramite la partecipazione attiva (anche saltuaria o una-tantum) pubblicando, come autori, le vostre riflessioni, considerazioni o consigli.

Il mainframe ibrido nella nuvola? No, io nelle nuvole!


Leggendo il n.12 del Corriere delle Comunicazioni mi sono soffermato, incuriosito, sull’articolo La doppia faccia della nuvola: “Da una recente ricerca svolta dagli Osservatori del Politecnico di Milano emerge che il 67% delle grandi aziende italiane adotta le tecnologie cloud. In particolare, il 56% utilizza già almeno un servizio cloud, mentre l’11% ha in corso limitate
sperimentazioni. Il 25% delle aziende del campione si è dichiarato interessato all’introduzione e solo l’8% dichiara di
non utilizzare il cloud e di non avere alcun interesse a introdurlo.”

Ora io non ho alle spalle grandi esperienze di Cloud, ma l’affermazione che il 67% delle aziende italiane adotta tecnologie cloud mi ha fatto l’effetto di un suono stonato; mi è venuta spontanea la domanda: quali sono le tecnologie Cloud? Non ho saputo rispondermi.

Mi veniva in mente la virtualizzazione: ma non è una tecnologia prettamente Cloud, CPU, I/O e memoria sono risorse virtualizzate fin dagli anni ’70 e non si parlava certo di Cloud. Successivamente con l’avvento di modelli applicativi di tipo Client/Server, di architetture distribuite e, sopratutto, grazie all’abbassamento dei costi dell’Hardware è avvenuta una diffusione spinta di “server reali” prevalentemente con sistemi Windows o Unix. Ma siamo alla fine degli anni ’80 e negli anni ’90 dove di cloud se ne parlava solo nei meteo in lingua Inglese.
Poi mi sono venuti in mente i Software di deployment dei sistemi; ma anche per questi abbiamo una genesi che, proprio per l’aumento della diffusione dei server distribuiti, risale alla seconda metà degl anni ’80.

Insomma lo ammetto: non sono stato capace di trovare qualche “tecnologia cloud”! Pensando al mainframe mi veniva istintivo di pensarlo adatto al cloud, ma non di considerarlo una “tecnologia cloud” se non altro perché esiste da un pò più di tempo; inoltre mi sembrava strano che da una fonte accademica come il Politecnico di Milano si parlasse di “adozione di tecnologie cloud” se non con proprietà di linguaggio. Quindi dovevo indagare e saperne di più.

Il primo passo, lo confesso, è stato Google, ho scritto cloud technoloy e via di ricerca. Come spessisimo accade la prima entrata è Wikipedia, ma è la definizione di Cloud Computing e effettuando un find nella pagina per la parola technology la prima occorrenza è nella definizione di virtualizzazione vista come una delle caratteristiche del Cloud Computing. La definizione di Cloud Computing riportata in Wikipedia è: “Cloud computing is the delivery of computing and storage capacity as a service to a heterogeneous community of end-recipients. The name comes from the use of a cloud-shaped symbol as an abstraction for the complex infrastructure it contains in system diagrams. Cloud computing entrusts services with a user’s data, software and computation over a network. There are three types of cloud computing: Infrastructure as a Service (IaaS), Platform as a Service (PaaS), and Software as a Service (SaaS)”.

Ma insomma io ho dubbi sulle “tecnologie cloud” e Wikipedia non ne riporta alcuna mensione? Non solo ma la definizione che da non mi soddisfa. Dire che Cloud Computing è (se riesco a tradurre bene…) “distribuire capacità elaborativa e di storage come un servizio ad un insieme eterogeneo di utenti finali” allora anche il TSO da solo lo posso considerare Cloud Computing? Mi si stavano smontando tutte le mie (poche) sicurezze sul tema.

A questo punto ho spostato la mia indagine di approfondimento verso la fonte dell’articolo ed ho trovato disponibile nel canale Youtube del Corriere delle Comunicazioni l’intervista a Raffaello Balocco della School of Management del Politecnico di Milano che potete vedere anche qui:

E il primo dubbio me lo sono tolto: Raffaello Balocco non parla di “tecnologie cloud” (che vengono mensionate dall’intervistatore), ma di adozione e diffusione di “soluzioni cloud”, il che mi lascia meno smarrito. Poi alla domanda:
“Quali sono i vantaggi, per una grande azienda ed anche per una piccola azienda dell’adozione di tecnologie Cloud based?”
(a Roma si direbbe: aridaje! adirittura di tecnologie cloud-based!) Raffaello Balocco risponde:
“Inanzitutto l’adozione di un sistema Cloud porta ad una maggiore standardizzazione del sistema informativo aziendale. La roadmap di utilizzo ed adozione del Cloud richiede che, come primo passo, vengano standardizzate le diverse componenti del sistema informativo e poi successivamente virtualizzate. Allora standardizzazione e virtualizzazione portano evidentemente dei vantaggi di efficenza e di flessibilità. Dal punto di vista organizzativo, la direzione IT può focalizzarsi, a livello di competenze, su degli aspetti di elevato livello: competenze di natura architetturale, di natura sistemistica, di Project Management […] demandando, viceversa, all’esterno quelle che sono le competenze più operative”.

Ne parla in modo chiaro e semplice evidenzioando, secondo me correttamente, i vantaggi iniziali visti sopratutto da un’osservatorio che può essere quello di un CIO. In qualche modo consolida anche la mia opinione che le piattaforme ibride, rispetto alle tradizionali, sono quelle che si prestano di più a sostenere una simile trasformazione. Questo perché lasciano una grande libertà nel realizzare, e modificare, architeture applicative su differenti piattaforme introducendo meccanismi di monitor e deployment che. dal punto di vista infrastrutturale, portano delle notevoli semplificazioni che implicano riduzioni di costi e di tempi.

Però i dubbi di fondo sul Cloud mi sono rimasti, così ho proseguito le ricerche anche perchè in molte entrate trovate su Google si parla di Cloud dando per scontato che il lettore sappia di cosa si parla. Ma così facendo ho letto di Cloud secondo le più differenti accezioni e forzature. Dietro la parola Cloud ho letto di offerte di hosting, ma anche di solo housing, di connettività di rete e chi più ne ha ….

Allora ho continuato a cercare fino a quando mi sono imbattuto nella definizione di Cloud del NIST. Quella che l’Istituto Nazionale degli Standards e delle Tecnologie Statunitense ha pubblicato non 3 o 5 anni fa, ma solo lo scorso anno il 25 Ottobre con il titolo Final Version of NIST Cloud Computing Definition Published. Non saranno rapidi, non saranno esaustivi ma quando pubblicano qualcosa quelli del NIST di solito è un riferimento che dura nel tempo, infatti questo è un documento di 7 pagine di cui solo 2 sono dedicate ad una definizione di 5 righe, all’elecazione delle caratteristiche essenziali, dei Service models e dei Deployment models. Finalmente leggo (liberamente tradotta da me, ma potete verificare l’originale seguendo il link): “Il Cloud computing è un modello per abilitare degli accessi tramite rete, su richiesta, convenienti e in modalità ubiquitous ad un insieme di risorse condivise e configurabili che possono essere rapidamente rese disponibili (deployed) e rilasciate con il minimo sforzo di gestione e con interazioni minime con l’erogatore del servizio. Questo modello è composto da 5 caratteristiche essenziali, 3 modelli di servizio e 4 modelli di deployment.”

Finalmente qualcuno che dice senza fraintendimenti cosa è il Cloud Computing senza il bisogno di dire come è fatto! Non è una tecnologia, non è una soluzione, ma è un modello; sulla base di questo modello, ovviamente utilizzando le tecnologie che meglio si adattano per concretizzare il modello, si possono erogare servizi e proporre soluzioni.

Lascio a voi la lettura completa del documento e continuo a raccontarvi le mie riflessioni. Infatti dopo aver letto il docuento non ho potuto non fare un paragone con lo zEnterprise. Delle 5 caratteristice almeno 3 le soddisfa by-desing. Da un punto di vista infrastrutturale, abbiamo un resource-pooling su tutte le piattaforme dell’ibrido grazie all’utilizzo dei meccanismi di virtualizzazione più appropriati per ciascuna di esse; grazie allo zEnterprise Unified Resource Manager la rapid elasticity è possibile fino allo spegnimento in caso di inutilizzo per ridurre i consumi e, definendo i workload gestiti si ha la caratteristica dei measured services. Per il broad network access ovviamente lo zEnterprise è condizionato al tipo e dimensione della connettività esterna, ma sempre by-design facilita la realizzazione con i meccanismi di gestione delle reti interni che vengono utilizzati dai differenti Virtual Server. L’ultima caratteristica (che nel documento è citata per prima) è l’On-Demand self-service; lo zEnterprise include un meccanismo per il deployment di virtual serve da template ma è più una facilitazione di gestione che un vero e proprio self-service. Per intenderci non è nato per essere reso disponibile ai consumers. Questo genere di funzionalità sono di solito fornite con dei Software Tivoli che permettono anche una grande flessibilità nel definire e realizzare le modalità di sel service.

I risultati delle mie ricerche mi hanno soddisfatto, anzi mi hanno fatto trovare una serie di documenti del NIST sicuramente interessanti che voglio indicarvi:

Se avete altre fonti o indicazioni fatemele conoscere che daremo loro l’adeguata diffusione. Da parte mia sto valutando di apire una pagina su questo sito dedicata al Cloud: mi fate arrivare in qualsiasi modo le vostre opinioni?