Il #mainframe a scuola? All’Università degli studi di Catania non è una novità


UniCTTra le varie mail di informazione che circolano in ufficio, sono venuto a sapere che a metà Aprile, presso l’Università degli Studi di Catania avrà inizio un seminario sui mainframe dal titolo I Sistemi Centrali. Le lezioni saranno tenute da Angelo Barbarino, Executive I/T Specialist di IBM, conosciuto e stimato dalla gran parte dei CIO italiani che hanno un mainframe. Per saperne di più ho contattato il Prof.Sebastiano Battiato, Presidente del Corso di Laurea in Informatica, che ha smontato l’idea che mi ero fatto.

Si, perché ero convinto si trattasse dell’avvio di una nuova iniziativa di collaborazione tra IBM ed Università. Invece direi che si può definire un corso ben avviato, fin dal 2005, che ha visto fin’ora la partecipazione di un centinaio di alunni dell’ateneo. Chiaramente il seminario è rivolto agli studenti del terzo anno della Laurea Breve o a studenti della Laurea Specilalistica in Informatica; alcune informazioni si possono trovare sul forum del corso dove sia Barbarino che il Prof.Battiato sono sempre disponibili per gli studenti.

Da parte mia non posso che congratularmi con l’ateneo e spero di farvi avere prossimamente altre notizie.

Annunci

2012 #BMC Mainframe Survey


BMC BS09025-06Ho letto il report annuale della BMC dal titolo 2012 BMC Mainframe Survey Spotlights Mainframe Growth and Pains.

E’ un’indagine efettuata su un campione di 1264 intervistati suddivisi secondo quanto riportato nei grafici che ho riassunto qui di fianco.Screen Shot 2013-01-28 at 11.52.10 AM
Il dato evidente fin dalle prime pagine, è che il 90% degli intervistati considera la piattaforma mainframe come una scelta di lungo periodo fondamentale per il business. Per il 40% è una scelta per supportare l’esistenza delle applicazioni esistenti, mentre per il 50% serve alla crescita delle applicazioni attuali e come piattaforma per nuovi workloads. L’altro aspetto che emerge è la difficoltà di mantenere il focus sulla riduzione dei costi e contemporaneamente dare spazio a sviluppi nell’area della mobility su pressione del business.

Le motivazioni che fanno preferire questa piattaforma sono, per chi ci lavora da molto tempo, abbastanza scontate e si basano sull’aver riscontrato alti livelli di:
– disponibilità
– sicurezza
– through-put transazionale
ed un eccellente impiego come data server centralizzato.

La mia sensazione è che stia aumentando sia il numero di iniziative di nuovi workload sul mainframe che di ammodernamento delle applicazioni esistenti. Questo perchè aumentano il numero di intervistati che vedono sempre più “Web services/ SOA integration projects” avviati su mainframe e che considerano i “Transaction through-put requirements” facilmente rispettati da questa piattaforma.

Vi invito a leggere il report sul link che ho messo sul titolo, è ricco di dati che fanno riflettere. Io sono stato colpito dalla percentuale in aumento, rispetto ai precedenti anni, di intervistati (29%) che dicono di rimanere sul mainframe perché i costi delle piattaforme alternative sono elevati o non sono evidenti i ritorni degli investimenti dovuti alla migrazione….

PS. Grazie a Valeriano Bassi per la segnalazione.

I CIO insoddisfatti del mainframe? No, scoprono che l’outsourcing applicativo non è magico!



Lo ammetto è un’informazione vecchia che avevo scartato: il 12 Dicembre Compuware ha pubblicato un articolo dal titolo 71 Percent of Companies Frustrated by “Hidden Costs” of Mainframe Outsourcing. According a Compuware study. Dove la divisione Mainframe Solution di Compuware, riferendosi ad uno studio di 9 pagine afferma che “la riduzione dei costi è la motivazione principale che spinge all’outsourcing dello sviluppo applicativo, la manutenzione appplicativa e la gestione dell’infrastruttura in ambito mainframe“.  Più avanti Kris Manery, il Senior Vice President and General Manager della divisione, afferma che “tuttavia, come mostra la ricerca, c’è una crescente frustrazione (dei CIO n.d.a.) verso gli outsourcer che non soddisfano le aspettative. Poiché non c’è un modo per trasferire facilmente la conoscenza applicativa all’outsourcer — e di verificare la qualità e le prestazioni del codice prodotto– la qualità delle applicazioni ne soffre e rende indeterminabile qualsiasi potenziale risparmio.

Insomma una divisione che lavora in ambito mainframe e che ha nel suo portfolio prevelentemente servizi di Application Management (AM), dice che l’outsourcing dell’AM senza un adeguato trasferimento di conoscenza non porta a risultati soddisfacenti e rende qualsiasi ipotesi di risparmio vana.

A me il tema, non sembrava particolarmente interessate e piuttosto ovvio. Se un’organizzazione IT non sa nulla delle proprie applicazioni o non trasferisce la propria conoscenza all’outsourcer è un disastro! Penso che questa sia una verità platform-independent! Ma giustamente, la Mainframe Division di Compuware ha focalizzato la sua ricerca sul suo mercato. A cui nella stessa ricerca propone la sua soluzione: Workbench, un ambiente di sviluppo con un’interfaccia grafica ed intuitiva. Quindi non ne avevo parlato e nessuno mi aveva sollecitato ad approfondire il tema.

Ma oggi alcuni colleghi mi hanno segnalato l’articolo di Maria Cristina Montagnaro (scusatemi, non ho trovato suoi riferimenti su LinkedIN o similari) pubblicato ieri sul Corriere delle Comunicazioni  dal titolo Mainframe, l’outsourcing non piace ai Cio italiani che fa riferimento allo studio di Compuware. Allora ho dovuto approfondire. Nell’articolo si dice che il 71% degli intervistati è preoccupato per i costi nascosti, per l’Italia questo numero è del 73%. Ora io ho cercato tra le 19 chart dello studio, ma non sono riuscito a trovare dove sia sostenuto questo 73% italiano (il 71% totale nella chart n.3).

Quello che non ho trovato proprio è quanto si afferma sul Corriere delle Comunicazioni, che “tra le cause principali c’è l’aumento del costo dei MIPS”. Si perchè, fino a prova contraria il costo dei MIPS è diminuito! E’ ovvio che se una manutanzione applicativa viene fatta allegramente il risultato può essere un maggior consumo di MIPS (v. chart 5 dello studio) che, in termini economici, supera addirittura la diminuzione del costo dei MIPS. Veronique Dufour, Direttore Regionale per la SEMEA di Compuware, nell’articolo del Corriere, correttamente afferma che “Outsourcing e aziende devono confrontarsi e implementare processi e strumenti che portino a risultati migliori. Per esempio dovrebbero chiedersi come è possibile documentare le applicazioni legacy per risolvere i problemi che riguardano il trasferimento della conoscenza e introdurre i  test prestazionali in un punto più a monte del ciclo di sviluppo“.

From the Compuware sutdy: "Mainframe outsourcing: Removing the hidden cost"

From the Compuware sutdy: “Mainframe outsourcing: Removing the hidden cost”

Quello che non evidenzia l’articolo è che più del 50% degli Italiani intervistati attribuiscono l’aumento del consumo dei MIPS all’inefficenza di programmazione dell’outsourcer (chart n.6), e che più del 40% degli Italiani dichiarano di non aver adeguata documentazione delle applicazioni (chart n.11) e più del 60% di non aver adeguati skill in ambito mainframe (chart n.12).

Il vero nodo, secondo me, non è la piattaforma. Ripeto: non avere la conoscenza dei propri asset, non avere skill adeguati sono problematiche platform-independent!

Io penso che molti CIO, e particolarmente in Italia, hanno creduto ai miracoli di un down-sizing che avrebbe spazzato assieme al mainframe i costi,  disinvestendo frettolosamente da questa piattaforma e disinteressandosi alle sue reali potenzialità di risparmio.

PS: ma, visto che non è un mainframe, chi mi sa dire che cosa è quel macchinario nella foto utilizzata dal Corriere delle Comunicazioni nel suo articolo sul mainframe?

Insegnamenti da un flop quasi annunciato…


E’ raro leggere di progetti fallimentari in modo onesto e, sopratutto, dopo annunci roboanti. Io fin’ora mi sono sempre imbattuto in fallimenti conosciuti agli adetti ai lavori e tacitati per non esporre i promotori; oppure su annunci di fallimenti che vedono coinvolte aziende ICT in modo clamoroso, ma spesso colpevoli solo di aver fatto ciò che il legame contrattuale prevedeva e non di scelte precedenti poste come vincolo.  Durante la mia periodica opera di pulizia delle mail ho notato una segnalazione sul The New York Times dal titolo “Billion-Dollar Flop: Air Force Stumbles on Software Plan“. Poiché dagli errori si impara sono andato a leggere l’articolo e, seguendo i vari collegamenti, ne è venuta fuori una ricostruzione istruttiva che vi propongo partendo dall’inizio, alla fine le mi e considerazioni.

8-Sep-2006

Con un articolo dal titolo ESC awards $627.8 million task order l’Electronic Systems Center annuncia di aver assegnato un contratto del valore di 627.8 M$ alla Computer Science Corporation per la realizzazione dell’Expeditionary Combat Support System (ECSS), un sistema integrato per la logistica. Questa decisione segue l’acquisizione della suite ERP di Oracle 11i. L’ECSS è destinato a sostituire più di 400 sistemi legacy ed essere disponibile a 750000 utenti dell’Air Force. Nell’annuncio si dice che per il Maggio del 2008 si sarebbe completata la fase di pianificazione e disegno, dando il via alla realizzazione per arrivare alla piena operatività nel Gennaio del 2013.

18-Jun-2009

Con il titolo ECSS revolutionizes Air Force logistics, Greg Laing pubblica un articolo dove l’ECSS è visto come un “cambiamento storico, che rivoluzionerà la logistica dell’Air Force […] Sebbene ci vorranno diversi anni prima che diventi completamente operativo, l’ECSS da questo mese inizia ad essere utilizzato nella base di Hanscom. Questo sistema renderà possibile la visione e la gestione di tutte le risorse logistiche dell’Air Force sparse per il mondo.

27-Oct-2010

In Air Force poised for Expeditionary Combat Support System GroverDunn, il direttore responsabile del cambiamento Grover Dunn, commenta dicendo che “l’ambizioso tentativo di attuare la trasformazione nei vari comandi e funzioni (dell’Air Force nda) richiederà del tempo per raggiungere il suo massimo potenziale, ma sarà relativamente breve considerando le dimensioni del programma“ed aggiunge dicendo “che fin’ora non si erano mai cambiati processi, strumenti e linguaggi nel lavoro di 250.000 persone in una volta sola, e che questo è ciò che si sta per fare a partire dal primo rilascio nel periodo dei succesivi due anni e mezzo.” poi conclude dicendo che “è già in corso un pilota nelle basi di Hanscom Air Force, Mass. e Robins AFB, Ga che vede coinvolti 90 utenti. Da Dicembre altri 150 utenti parteciperanno ad un secondo pilota nelle basi di Langley AFB, Va.; Scott AFB, Ill.; Wright Patterson AFB, Ohio; and the Defense Finance and Accounting System.  Un test su larga scala verrà effettuato a Febbraio del 2012 nelle basi di MacDill AFB, Fla. e Ellsworth AFB, S.D. prima del roll-out su scala mondiale che avverà agli inizi dell’estate del 2012.

Non ho esperienze dirette su progetti di questa scala e tantomeno di logistica militare, ma ad istinto mi viene da pensare che, poco meno di 300 utenti, rappresentano un pilota poco rappresentativo di una popolazione di 250.000 utenti. Quindi dopo aver letto questo articolo ho pensato che forse le attività logistiche sono molto simili e ripetitive nei vari contesti, quindi questo numero di utenti è sufficiente per testare il sistema ed i nuovi processi; il roll-out finale potrebbe essere ridursi “solo” ad una questione di scalabilità e prstazioni.

19-Jan-2011

201301-002 110118-F-0672W-012La seconda parte dei test viene commentata poche settimane dopo nel comunicato Second test phase of Logistics ECSS commences; team remedies response-time issues dove si dice che “il personale della base di Hanscom Air Force, Mass. entrato nella seconda fase, chiamata Pilot B, il 20 Dicembra ha ampliato l’utilizzo dell’ECSS“. Ma delle issues menzionate nel titolo non se ne fa menzione se non in una breve affermazione:”Ad Hanscom la preoccupazione principale [con l’ECSS] ora sono i tempi di risposta [di rete]“. A vedere il piano riportato in un documento pubblico del 2007 a pag.5, il progetto potrebbe essere ancora in linea con il piano. Ma, a mio parere emerge la sensazione che qualcosa non procede come previsto. Infatti nel comunicato si dice che “18 utenti si sono aggiunti ai 54 iniziali nella base di Hadson“; ma non erano già 90? Possibile che l’aggiunta di 15 utenti in un progetto destinato a 250.000 sia un evento così significativo da essere menzionato?

Feb-2011

Su iniziativa del governo, l’Institute for Defense Analyses, pubblica i risultati di uno studio dal titolo “Assessment of DoD Enterprise Resource Planning Business Systems“. Nel documento si legge che (A-5) “l’ECSS inizialmente era basato sulla combinazione di tre prodotti COTS (Commercial Off The Shelf nda): ORACLE R12 eBusiness suite, IFS and Click. Circa un anno dopo, nelle fasi iniziali di definizione, risultò evidente che questi prodotti non risultavano integrati tra loro in modo adeguato e non avrebbero soddisfatto i requisiti dell’Air Force senza delle modifiche significative alla direzione (del progetto nda). ” […]  “Il programma dell’ECSS è stato ridefinito e le componenti Sw IFS e Click abbandonate a favore di un upgrade della Oracle E12 eBusiness suite e di un impegno, da parte di Oracle, di fornire la manutenzione necessaria nei release futuri.” […] “Dopo più di 5 anni e un eccesso di spesa di 500 M$, il programma è ancora lontano dall’aver definite delle baseline di tempi e costi.

2012

A Marzo il documento Reported Status of Department of Defense’s Enterprise Resource Planning Systems evidenzia (p.14) che il costo degli attuali 240 legacy systems è di 325 M$/year mentre il costo stimato dell’ESSC Program è di 5.2 B$.
E’ del 26 Novembre 2012 l’unica comunicazione ufficiale che ho trovato, sulla chiusura del programma, è la lettera che il Rep. Lee Terry ed il Sen. Mike Johanns hanno scritto ad Obama. Poi l’ondata di comunicati stampa:
Billion-Dollar Flop: Air Force Stumbles on Software Plan, Lessons from a Billion-Dollar Project Failure, How the Air Force blew $1B on a dud system, ecc. ecc. dove in alcuni si dice che “un portavoce dell’Air Force ha detto che lo scorso mese, con la cancellazione del sistema (l’ECSS nda) l’AirForce continuerà ad utilizzare i suoi sistemi di logistica legacy, alcuni dei quali sono in uso fin dagli anni ’70“.

Ed ecco le mie considerazioni:
– La prima impressione favorevole è sulla trasparenza e sulla facilità di accesso alla documentazione (dimostrata dagli innumerevoli link che riporto) che l’amministrazione degli Stati Uniti  adotta. Provate a capire nei nostri siti come un ministero spende il suo budget….

– Mi piacerebbe sapere cosa sono quei legacy systems degli anni ’70. Lo dico sul serio perchè non penso siano tutti dei mainframe (immagino che gli alcuni in uso dagli anni ’70 lo siano) e non sono riuscito ad appurarlo. Però con 2B$ forse si poteva fare una più miodesta opera di rinnovamento e consolidamento infrastrutturale che avrebbe portato minori benefici economici, ma concreti….

– Per chi è consulente suggerisco caldamente la lettura integrale dell’assessment dei sistemi ERP all’interno della Difesa Statunitense. E’ veramente un esempio di come deve essere il documento finale di un assessment! Complimenti ai professionisti dell’Institute for Defense Analyses.

Il vantaggio di essere grandi


Angled view of a portion of an IBM chip showing blue optical waveguides transmitting high-speed optical signals and yellow copper wires carrying high-speed electrical signals. IBM Silicon Nanophotonics technology is capable of integrating optical and electrical circuits side-by-side on the same chip. Click on picture to see in its original size.

In questi giorni si è dato spazio sulla stampa all’annuncio del 10 Dicembre, da parte di IBM, dell’utilizzo della tecnologia silicon nanophotonics  per comunicare tra diversi chip o al loro interno in modalità ottica invece che elettronica. Permettendo quindi di raggiungere velocità enormi nel trasferimento dei dati. Basta andare su Google e digitare “ibm nanophotonic” per avere l’imbarazzo della scelta di annunci e comunicati.

Ma, al solito, non mi soddisfa ed eccomi a condividere con voi il mio approfondimento. Per iniziare, la notizia integrale si trova nel comunicato IBM dal titolo Silicon Integrated Nanophotonics Technology: from the Lab to the Fab e, a mio parere, la vera novità è che la tecnologia nanofotonica è stata applicata nel costruire un chip con i procedimenti della fabbrica invece che con macchinari e tempi da laboratorio. Un dato che mi ha colpito è che la tecnologia costruttiva utilizzata è stata di 90nm; questo perché nello stesso giorno Intel ha fatto parlare di sé per l’utilizzo della tecnologia costruttiva di 22nm.

Mi sembra che da una parte si stia cercando di spingere sulla ricerca che renda disponibili procesori sempre più veloci per i datacenter, mentre dall’altra si stia mettendo al centro degli sviluppi la miniaturizzazione e il risparmio energetico. Sicuramente questi sono temi importanti, ma il risparmio energetico a cui si punta in un datacenter è indirizzato su una riduzione totale, mentre i componenti che soddisfano tablet e portatili devono essere gentili nell’utilizzo delle batterie. Poi il fatto di potersi avvalere di processi costruttivi non così spinti al limite, permette, appunto, di far coesistere sul chip quelle tecnologie che vanno a soddisfare i bisogni emergenti di trattamento di grosse moli di dati.

Quindi la vera notizia è che la tecnologia “CMOS Integrated Nanophotonics” annunciata da IBM nel Dicembre del 2010 ora diventa molto più vicina ad una sua applicazione per i sistemi che popolano i datacenter.

27 Nov #DB2 REORG for #z/OS: Deep Dive webcast!


Questa volta non mi riduco all’ultimo. Il 27 Novembre ti terrà la teleconferenza dal titolo DB2 REORG for z/OS: Deep Dive! dove Ka-Chun Ng, del team DB2 Utilities, alle 4:00 GMT (quindi in Italia alle 17:00) parlerà delle novità, in termini di consumi e prestazioni della utility di REORG.

Per iscriversi andate a questo link, mentre maggiori dettagli sono disponibili alla pagina IBM dell’evento.

Vi ricordo, se vi siete persi qualche evento, l’elenco di quelli di cui sono disponibili le registrazioni o il materiale utilizzato:

1.
Social Portals for IT Efficiencies | Replay

Join us for this webcast as we’ll demonstrate how IBM’s social capabilities can drive less cost, better performance and faster response from your IT staff and operations.
Audience: Business | Date: 14 Nov 2012 – 14 Nov 2012
Replay period: 15 Nov 2012 – 15 Aug 2013

2.
International DB2 Users Group (IDUG) shares DB2 10 upgrade experiences from USERS | Replay

Join us for this webcast as it will be presented by two well known Independent DB2 Consultants who have a wealth of experience working with DB2 customers and users.
Audience: Business | Date: 13 Nov 2012 – 13 Nov 2012
Replay period: 13 Nov 2012 – 13 Aug 2013

3.
CICS V5.1: Operation efficiency and service agility through cloud enablement | Replay

As a purpose-built transaction processor, IBM® CICS® runs business programs, it’s used as a backbone for connecting mainframe systems and it supports applications written in multiple programming languages.
Audience: Business | Date: 08 Nov 2012 – 08 Nov 2012
Replay period: 09 Nov 2012 – 09 Aug 2013

4.
Hey! Who closed my batch window? | Replay

Join us and learn how to streamline and assimilate batch processing into a world that never sleeps.
Audience: Business | Date: 07 Nov 2012 – 07 Nov 2012
Replay period: 08 Nov 2012 – 07 Aug 2013

5.
Get ready for big data with IBM System z | Replay

With the right technology to process and analyze big data, IT can step up to help the business increase profit margins, discover new and differentiating ways to up-sell, and cross-sell to your customer base.
Audience: Business | Date: 10 Oct 2012 – 10 Oct 2012
Replay period: 10 Oct 2012 – 09 Jul 2013

6.
Boost Performance with Smarter Application Testing and Optimization | Replay

Boost Performance with Smarter Application Testing and Optimization
Audience: Business | Date: 26 Sep 2012 – 26 Sep 2012
Replay period: 27 Sep 2012 – 26 Jun 2013

7.
Improved IMS monitoring with new OMEGAMON V5.1 | Replay

Attend this complimentary webcast, presented by IBM and SHARE, to learn what’s new in OMEGAMON for IMS V5.1, including easier region navigation, reduces MIPs usage and ability to issue IMS commands from OMEGAMON.
Audience: Business | Date: 27 Sep 2012 – 27 Sep 2012
Replay period: 27 Sep 2012 – 27 Jun 2013

8.
DB2 10 and Time Travel Queries – Get it RIGHT & reap the business benefits! | Replay

DB2 10 and Time Travel Queries – Get it RIGHT & reap the business benefits!
Audience: Business | Date: 25 Sep 2012 – 25 Sep 2012
Replay period: 26 Sep 2012 – 25 Jun 2013

9.
IBM technologies bring analytics to the data faster and more cost effectively | Replay

Learn technical insights on current analytic and data warehousing requirements and new cost effective approaches that take advantage of the System z mainframe.
Audience: Business | Date: 11 Sep 2012 – 11 Sep 2012
Replay period: 12 Sep 2012 – 11 Jun 2013

10.
CICS goes mobile | Replay

In this complimentary webcast you have the opportunity to hear from two of IBM’s expert speakers on how CICS is addressing the mobile marketplace.
Audience: Business | Date: 29 Aug 2012 – 29 Aug 2012
Replay period: 30 Aug 2012 – 29 May 2013

Il Cloud con #IBM #zEnterprise


Senza dubbio il Cloud Computing è l’argomento del momento e, come si possa coniugare attraverso la piattaforma zEnterprise, è un argomento non affrontato di frequente. A mio parere per due motivi distinti: da una parte perchè chi spinge verso altre piattaforme semplicemente lo ignora; dall’altra perchè capita, a chi lavora su ambienti mainframe da molto tempo, di vedere il cloud nel mainframe come una contaminazione di altre piattaforme. Ma la tecnologia alla base dello zEnterprise e le sue innati doti di virtualizzazione lo rendono un sistema ideale per il Cloud Computing.

E veniamo al motivo di questo post partendo dalle conclusioni: io penso che, una volta assimilati gli step per adottare un modello di cloud computing si debbano intraprendere da subito i primi passi; inoltre penso che, in mancanza di una chiara decisione questi primi passi sia più semplice avviarli all’interno di un ambiente mainframe.

Mi è capitata per le mani la presentazione dal titolo Accelerating Cloud with IBM zEnterprise che si è tenuta in Canada il 7 Novembre nell’evento Smarter Computing in the New Era of IT. Ha catturato la mia attenzione la slide dove si riportano i dati di uno studio, fatto da IBM STG intervistando 747 clienti, che riporta la distribuzione dei clienti nelle differenti fasi della roadmap verso il Cloud Computing.

Da questo emerge che le fasi di Integrazione ed Automazione ancora devono essere affrontate da una gran parte delle realtà intervistate. Ma gli aspetti di virtualizzazione dello storage e di condivisione delle risorse sono argomenti che in molti casi non sono circoscritti al solo ambito infrastrutturale. Spesso implicano delle modifiche nelle procedure,  nella pianificazione e nei comportamenti aziendali. Ecco perchè, in mancanza di strategie precise, conviene muovere i primi passi mentre si è in un confort zone per non trovarsi all’ultimo ad affrontare rivoluzioni. O peggio a subirle.

Sempre per mantenere lo spirito di condivisione delle risorse che ritengo interessanti, suggerisco per chi vuole muovere in leggerezza i primi passi nel Cloud il libro Cloud For Dummies, IBM Midsize Company scaricabile da questo link.

Sono ben accetti i vostri commenti.