6 mesi di mainframeitalia: una prima sintesi


Sono sei mesi che è iniziato questo blog e, nonostante non sia il canonico anno, lo considero il compleanno di mainframeitalia.

Il mio obiettivo era quello di non fare un effetto cometa: ossia non avviare un’impresa che dopo l’interesse iniziale rimanesse uno dei tanti web scheletro che internet ospita. Devo dire che le cose sono andate diversamente, con un avvio lento, ma in crescita, con una tenace costanza a condividere i vari aggiornamenti, mainframeitalia.com secondo me ha ottenuto dei risultati soddisfacenti.

Abbiamo raggiunto 2880 visitatori, con un minimo di 300 visite al mese e un minimo di 30 visite a settimana. Si, parlo di minimi e non della media del pollo perchè rappresentano quanto, nei periodi di minor interesse, le persone sono stimolate a passare di qui e a me questi valori rafforzano la determinazione a continuare.

Ovviamente questo risultato non sarebbe stato possibile senza il contributo di altri; inannzi tutto voglio ringraziare gli autori e/o i responsabili dei siti e dei blog che mi hanno dato il permesso di citare e tradurre dei loro articoli. I link ai loro siti li potete trovare a Sx alla voce Blog e pagine con cui collaboriamo. A questo riguardo vi invito a segnalarmene di altri che reputate interessanti, li contatterò sicuramente e vi terrò aggiornati sull’esito.

Un altro ringraziamento lo devo in particolare ad Ivan Casagrande che ha accettato di contribuire direttamente con le sue riflessioni e a cui spero altri si aggiungeranno a breve.

Per l’occasione ho condiviso una seconda serie di wallpaper per il desktop e ho corretto, come qualcuno mi ha fatto notare, il formato della serie precedente. Sono entrambe disponibili per il download nel widget in basso a Sx.

zEnterprise…the Next Generation System (!!?)


Come ho dichiarato nella pagina di introduzione (che vi chiedo di visitare e votare con le stellette…) nel realizzare questa impresa non avevo la presunzione di insegnare qualcosa a chi tutti i giorni accumula esperienza su esperienza riguardo ai manframe. Ma di fornire un posto dove i professionisti del campo potessero dire la loro e, sopratutto, dove io potessi condividere le informazioni che ritenevo utili tra la marea di notizie che arrivano nella mail, che leggo dai vari feed dei blogs e che mi sparano dai vari social network a cui sono iscritto.

E proprio da una mail che mi è arrivata una notizia che ritengo (o almeno la mia curiosità ritiene…) mooolto interessante.

Il giorno 28 Agosto alle ora 10:45 EDT (che dovrebbero essere le nostre 16:45) si terrà un evento virtuale da titolo zEnterprise…the Next Generation System e per parteciparvi basta iscriversi a questo link e seguire le istruzioni del sito IBM Virtual Event Center. Gli speaker saranno sia personalità IBM di gran rilievo che rappresentanti di alcuni clienti IBM:
Rod Adkins Senior Vice President, IBM Systems & Technology Group
Douglas M. Balog GM, System z, IBM Systems and Technology Group
Jeff Frey IBM Fellow, and CTO System z Platform
Todd Handel Director of IT Strategy and Architecture at S.C. Data Center Inc. (representing Colony Brands)
Martin Kennedy Managing Director and Global Operations Head of Enterprise Systems at Citi
Matt Shaul CEO, Benefits Administration at Aon Hewitt

L’agenda dell’evento, disponibile a questo link, con maggiori dettagli, prevede:

Welcome and relevance of the next generation zEnterprise system (Rod Adkins)
The new zEnteprise System at a glance- Announcement Overview
(Douglas M. Balog)
zEnterprise Client Testimonial
(client speakers)
Technical Overview of System z Technology (Jeff Frey)

Io mi sono iscritto anche se non dovrei essere a Roma per quella data, ma farò in qualche modo per poter seguire il Virtual Event anche da questa località isolata dal digital divide italico…..

WSJ: Veloci, veloci. Ma lo zEnterprise sarà ancora più veloce?


Sul Wall Street Journal online è uscito un’articolo di Don Clark dal titolo IBM Pushes the Clock (Speed) on New Chips con delle considerazioni che ritengo molto interessanti sulle evoluzioni possibili dei nuovi chip. Così viste le informazioni riportate nell’articolo mi sono sentito come gli Apple-bloggers che discutono dei rumors riguardo le possibili novità del nuovo iPhone ed ho pensato che la cosa milgioro fosse quella di tradurre gran parte del post, lasciando a voi le considerazioni.

La bruta velocità non sembra motivare molti chip designer come nel passato. Non è così per IBM. Il gigante dei computer ancora vende molto di quello che l’industria chiama ‘Big Iron’, macchine potenti disegnate per operare come un singolo sistema” e qui immaginate che avrei qualcosa da ridire… “non come la moltitudine di rack contenenti server semplici che le imprese utilizzano per ‘lavoretti’ come fornire pagine WEB. L’IBM sta per rivelare i dettagli di due nuovi chips per queste macchine di tipo high-end, che sfruttano molto una tecnica che ha minor impiego in altre parti del mercato.

Qui sono rimasto stupito (e un pò amareggiato) per il fatto che all’interno dell’IBM questo genere di notizie non circola in nessun modo, ma evidentemente ai giornalisti qualche disclosure viene fatta in anteprima. Quindi potete immaginare con che curiosità ho continuato a leggere l’articolo.

Questo approccio aumenta la velocità di funzionamento dei processori, o frequenza di funzionamento, che è un parametro di misura paragonabile al numero di giri di un motore. Il gigante dei chip INTEL, dopo anni di marketing sui miglioramenti per gli utenti dei PC basati sui megahertz e i gigahertz, ha iniziato nell’ultimo decennio ad enfatizzare altri modi per migliorare le prestazioni; questo dovuto al consumo di energia ed alla produzione di calore che l’aumento della velocità comporta. E le alte frequenze di clock sono ancora più rare nei chip per gli smartphone ed i tablet dove la durata della batteria è un fattore chiave.

Ma l’IBM continua a marciare ad un ritmo diverso. La nuova versione del chip usato nei suoi venerabili mainframe, che verrà discussa in una prossima conferenza tecnica di questo mese a Silicon Valley, vanta una velocità di clock di 5,5 gigahertz, in crescita dai 5,2 gigahertz della versione corrente. Big Blue aggiornerà anche la linea dei chip Power, utilizzata nei srever che lavorano con una variante IBM del sistema operativo Unix. Gli attuali chip Power7 arrivano a frequenze di 4.14 gigahertz; anche la prossima versione, i Power7+, che verranno discussi nella prossima conferenza di Hot Chips, secondo IBM saranno dal 10% al 20% più veloci.

A questo punto dell’articolo non ho potuto fare a meno di seguire il link (la potenza di distrazione dell’hipertesto!) che porta alla conferenza di Hot Chips 24: A Symposium on High Performance Chips; si terrà dal 27 al 29 Agosto a Cupertino in California. Frigando nell’agenda dell’evento risultano due interventi di IBM: il primo di Scott Taylor dal titolo POWER7+™: IBM’s Next Generation POWER Microprocessor ed il secondo di Kevin Shum dal titolo IBM zNext: the 3rd Generation High Frequency Microprocessor Chip. Che dire, questi non sono rumors, ma chissà quando queste next-generation saranno annunciate e disponibili! MA torniamo all’articolo del WSJ.

Come paragone i chip Xeon di INTEL rivolti ai server high-end operano ad un clock di 2.4 gigahertz. Naturalmente la velocità del clock è solo uno dei tanti fattori che influiscono sulle prestazioni. Sia IBM che Intel utilizzano dei trucchi come l’incremento del numero di processori nei chips e l’aggiunta di circuiti special-purpose come acceleratori per attività come la compressione o la cifratura dei dati. Un’altra tecnica collaudata è l’aggiunta di cache di memoria di massa, con IBM che enfatizza l’utilizzo di una tecnologia chiamata eDRAM come fattore differenziante.

Ci sono molte altre scelte e compromessi. I nuovi chip mainframe IBM assorbono fino a 300 watt e il POWER7+ fino a 190-watt rispetto ai 130 di uno Xeon paragonabile. Però tali paragoni possono essere fuorvianti; IBM sostiene che i grandi sistemi siano in grado di sostituire molte macchine più piccole, portando un risparmio energetico effettivo che non quello misurato paragonando chip-to-chip. Ma ci sono altri costi, oltre a quello della bolletta elettrica, che sono rilevanti. Il top della gamma Intel Xeon costa 4616$, un bel pò per un pezzo di silicio. Ma Intel sostiene che i prezzi per i server e le licenze Sw siano più bassi sullo Xeon che non sulle macchine di Big Blue (IBM vende i chip solo come parte dei suoi sistemi, in modo da non prezzarli separatamente).
Le due aziende fanno affermazioni contrastanti anche su altri argomenti, tra cui l’affidabilità relativa dei loro chips. Per ora, tuttavia, le loro posizioni sono abbastanza sicure in due aree separate: la gran parte di Intel nel settore high-volume del mercato dei server medio-piccoli con un numero di chip da uno ad otto, IBM nei server ‘scale-up’ [che possono crescere aggiungendo risorse n.d.a.], dove i sistemi fino a 32 chip vengono utilizzati per i attività che vedono l’impiego di enormi database.Questa è la nostra principale value-proposition’ afferma Satya Sharma, un fellow e chief technology officer della linea dei POWER.
Ovviamente, come sa chi mi conosce, cercherò di contattare Kevin Shum per vedere se, almeno dopo la conferenza, sarà possibile saperne di più.

Estate tempo di sandbox: proviamo il CICS Explorer


Non è molto conosciuta la possibilità di provare una serie di funzionalità dei prodotti di Application Modernization della piattaforma z. Questo è possibile tramite l’Enterprise Modernization Sandbox for System z disponibile nel sito IBM developerWorks in questa pagina.

In pratica, da una infrastruttura Cloud,  si ha a disposizione un ambiente z con i prodotti preinstallati con cui è possibile effettuare delle prove. L’ultimo arrivato è lo scenario dal titolo Manage the CICS ecosystem with CICS Explorer; dopo aver predisposto il vostro PC con le istruzioni riportate nella pagina iniziale, è possibile utilizzare il CICS Interdependency Analyzer per analizzare le risorse utilizzate dalle trnsazioni, valutare gli impatti di change applicativi e verificare se le transazioni sono threadsafe.

Sempre sul tema della modernizzazione dello sviluppo applicativo il 19 Luglio alle 3:00 p.m. UTC (quindi 4:00 p.m. in Italia), Hayden Lindsey, Vice President and Distinguished Engineer appartenente all’IBM Software Group, terrà un webcast dal titolo Building Next-Generation Enterprise Applications Webcast Series. Hayden presenterà un nuovo approccio di tipo smarter computing per accelerare l’innovazione e ridurre i costi di sviluppo. Verrà anche affrontato il tema di come, questo approccio, faciliti le fasi di test e migliora la collaborazione tra i team di sviluppo.

Image: FreeDigitalPhotos.net

Il mainframe ibrido nella nuvola? No, io nelle nuvole!


Leggendo il n.12 del Corriere delle Comunicazioni mi sono soffermato, incuriosito, sull’articolo La doppia faccia della nuvola: “Da una recente ricerca svolta dagli Osservatori del Politecnico di Milano emerge che il 67% delle grandi aziende italiane adotta le tecnologie cloud. In particolare, il 56% utilizza già almeno un servizio cloud, mentre l’11% ha in corso limitate
sperimentazioni. Il 25% delle aziende del campione si è dichiarato interessato all’introduzione e solo l’8% dichiara di
non utilizzare il cloud e di non avere alcun interesse a introdurlo.”

Ora io non ho alle spalle grandi esperienze di Cloud, ma l’affermazione che il 67% delle aziende italiane adotta tecnologie cloud mi ha fatto l’effetto di un suono stonato; mi è venuta spontanea la domanda: quali sono le tecnologie Cloud? Non ho saputo rispondermi.

Mi veniva in mente la virtualizzazione: ma non è una tecnologia prettamente Cloud, CPU, I/O e memoria sono risorse virtualizzate fin dagli anni ’70 e non si parlava certo di Cloud. Successivamente con l’avvento di modelli applicativi di tipo Client/Server, di architetture distribuite e, sopratutto, grazie all’abbassamento dei costi dell’Hardware è avvenuta una diffusione spinta di “server reali” prevalentemente con sistemi Windows o Unix. Ma siamo alla fine degli anni ’80 e negli anni ’90 dove di cloud se ne parlava solo nei meteo in lingua Inglese.
Poi mi sono venuti in mente i Software di deployment dei sistemi; ma anche per questi abbiamo una genesi che, proprio per l’aumento della diffusione dei server distribuiti, risale alla seconda metà degl anni ’80.

Insomma lo ammetto: non sono stato capace di trovare qualche “tecnologia cloud”! Pensando al mainframe mi veniva istintivo di pensarlo adatto al cloud, ma non di considerarlo una “tecnologia cloud” se non altro perché esiste da un pò più di tempo; inoltre mi sembrava strano che da una fonte accademica come il Politecnico di Milano si parlasse di “adozione di tecnologie cloud” se non con proprietà di linguaggio. Quindi dovevo indagare e saperne di più.

Il primo passo, lo confesso, è stato Google, ho scritto cloud technoloy e via di ricerca. Come spessisimo accade la prima entrata è Wikipedia, ma è la definizione di Cloud Computing e effettuando un find nella pagina per la parola technology la prima occorrenza è nella definizione di virtualizzazione vista come una delle caratteristiche del Cloud Computing. La definizione di Cloud Computing riportata in Wikipedia è: “Cloud computing is the delivery of computing and storage capacity as a service to a heterogeneous community of end-recipients. The name comes from the use of a cloud-shaped symbol as an abstraction for the complex infrastructure it contains in system diagrams. Cloud computing entrusts services with a user’s data, software and computation over a network. There are three types of cloud computing: Infrastructure as a Service (IaaS), Platform as a Service (PaaS), and Software as a Service (SaaS)”.

Ma insomma io ho dubbi sulle “tecnologie cloud” e Wikipedia non ne riporta alcuna mensione? Non solo ma la definizione che da non mi soddisfa. Dire che Cloud Computing è (se riesco a tradurre bene…) “distribuire capacità elaborativa e di storage come un servizio ad un insieme eterogeneo di utenti finali” allora anche il TSO da solo lo posso considerare Cloud Computing? Mi si stavano smontando tutte le mie (poche) sicurezze sul tema.

A questo punto ho spostato la mia indagine di approfondimento verso la fonte dell’articolo ed ho trovato disponibile nel canale Youtube del Corriere delle Comunicazioni l’intervista a Raffaello Balocco della School of Management del Politecnico di Milano che potete vedere anche qui:

E il primo dubbio me lo sono tolto: Raffaello Balocco non parla di “tecnologie cloud” (che vengono mensionate dall’intervistatore), ma di adozione e diffusione di “soluzioni cloud”, il che mi lascia meno smarrito. Poi alla domanda:
“Quali sono i vantaggi, per una grande azienda ed anche per una piccola azienda dell’adozione di tecnologie Cloud based?”
(a Roma si direbbe: aridaje! adirittura di tecnologie cloud-based!) Raffaello Balocco risponde:
“Inanzitutto l’adozione di un sistema Cloud porta ad una maggiore standardizzazione del sistema informativo aziendale. La roadmap di utilizzo ed adozione del Cloud richiede che, come primo passo, vengano standardizzate le diverse componenti del sistema informativo e poi successivamente virtualizzate. Allora standardizzazione e virtualizzazione portano evidentemente dei vantaggi di efficenza e di flessibilità. Dal punto di vista organizzativo, la direzione IT può focalizzarsi, a livello di competenze, su degli aspetti di elevato livello: competenze di natura architetturale, di natura sistemistica, di Project Management […] demandando, viceversa, all’esterno quelle che sono le competenze più operative”.

Ne parla in modo chiaro e semplice evidenzioando, secondo me correttamente, i vantaggi iniziali visti sopratutto da un’osservatorio che può essere quello di un CIO. In qualche modo consolida anche la mia opinione che le piattaforme ibride, rispetto alle tradizionali, sono quelle che si prestano di più a sostenere una simile trasformazione. Questo perché lasciano una grande libertà nel realizzare, e modificare, architeture applicative su differenti piattaforme introducendo meccanismi di monitor e deployment che. dal punto di vista infrastrutturale, portano delle notevoli semplificazioni che implicano riduzioni di costi e di tempi.

Però i dubbi di fondo sul Cloud mi sono rimasti, così ho proseguito le ricerche anche perchè in molte entrate trovate su Google si parla di Cloud dando per scontato che il lettore sappia di cosa si parla. Ma così facendo ho letto di Cloud secondo le più differenti accezioni e forzature. Dietro la parola Cloud ho letto di offerte di hosting, ma anche di solo housing, di connettività di rete e chi più ne ha ….

Allora ho continuato a cercare fino a quando mi sono imbattuto nella definizione di Cloud del NIST. Quella che l’Istituto Nazionale degli Standards e delle Tecnologie Statunitense ha pubblicato non 3 o 5 anni fa, ma solo lo scorso anno il 25 Ottobre con il titolo Final Version of NIST Cloud Computing Definition Published. Non saranno rapidi, non saranno esaustivi ma quando pubblicano qualcosa quelli del NIST di solito è un riferimento che dura nel tempo, infatti questo è un documento di 7 pagine di cui solo 2 sono dedicate ad una definizione di 5 righe, all’elecazione delle caratteristiche essenziali, dei Service models e dei Deployment models. Finalmente leggo (liberamente tradotta da me, ma potete verificare l’originale seguendo il link): “Il Cloud computing è un modello per abilitare degli accessi tramite rete, su richiesta, convenienti e in modalità ubiquitous ad un insieme di risorse condivise e configurabili che possono essere rapidamente rese disponibili (deployed) e rilasciate con il minimo sforzo di gestione e con interazioni minime con l’erogatore del servizio. Questo modello è composto da 5 caratteristiche essenziali, 3 modelli di servizio e 4 modelli di deployment.”

Finalmente qualcuno che dice senza fraintendimenti cosa è il Cloud Computing senza il bisogno di dire come è fatto! Non è una tecnologia, non è una soluzione, ma è un modello; sulla base di questo modello, ovviamente utilizzando le tecnologie che meglio si adattano per concretizzare il modello, si possono erogare servizi e proporre soluzioni.

Lascio a voi la lettura completa del documento e continuo a raccontarvi le mie riflessioni. Infatti dopo aver letto il docuento non ho potuto non fare un paragone con lo zEnterprise. Delle 5 caratteristice almeno 3 le soddisfa by-desing. Da un punto di vista infrastrutturale, abbiamo un resource-pooling su tutte le piattaforme dell’ibrido grazie all’utilizzo dei meccanismi di virtualizzazione più appropriati per ciascuna di esse; grazie allo zEnterprise Unified Resource Manager la rapid elasticity è possibile fino allo spegnimento in caso di inutilizzo per ridurre i consumi e, definendo i workload gestiti si ha la caratteristica dei measured services. Per il broad network access ovviamente lo zEnterprise è condizionato al tipo e dimensione della connettività esterna, ma sempre by-design facilita la realizzazione con i meccanismi di gestione delle reti interni che vengono utilizzati dai differenti Virtual Server. L’ultima caratteristica (che nel documento è citata per prima) è l’On-Demand self-service; lo zEnterprise include un meccanismo per il deployment di virtual serve da template ma è più una facilitazione di gestione che un vero e proprio self-service. Per intenderci non è nato per essere reso disponibile ai consumers. Questo genere di funzionalità sono di solito fornite con dei Software Tivoli che permettono anche una grande flessibilità nel definire e realizzare le modalità di sel service.

I risultati delle mie ricerche mi hanno soddisfatto, anzi mi hanno fatto trovare una serie di documenti del NIST sicuramente interessanti che voglio indicarvi:

Se avete altre fonti o indicazioni fatemele conoscere che daremo loro l’adeguata diffusione. Da parte mia sto valutando di apire una pagina su questo sito dedicata al Cloud: mi fate arrivare in qualsiasi modo le vostre opinioni?

Ibridi: un’altra moda o evoluzione?


Per curiosità, stavo guardando la recensione di una nuova macchina fotografica digitale, la Canon EOS 650D, e tra le nuove caratteristiche ho letto “18MP APS-C ‘Hybrid CMOS’ sensor”. Ibrido? Anche per le macchine fotografiche? Ho subito pensato: “ma non è che la parola ibrido sia diventata una moda?”, “il mio caro zEnterprise é frutto di un’operazione fashion di marketing?”. Allora ho voluto approfondire per capire che cosa significasse un sensore ibrido e perché era stata fatta questa scelta.

Di solito le macchine digitali utilizzano dei sensori per catturare la luce e trasmetterla alla parte elettronica che la elabora e ne memorizza il risultato in forma di fotografia digitale. Negli ultimi 10 anni l’evoluzione dei sensori si è mossa verso tre direzioni: densità di pixel per avere maggiori dettagli, aumento della sensibilità alla luce per catturare le immagini in situazioni di scarsa luce o i dettagli delle zone in ombra, e velocità di reazione per permettere all’elettronica di effettuare le misure necessarie prima che la scena cambi.

Questa macchina fotografica utilizza un sensore che, oltre ai classici pixel per rilevare la luce, include anche dei sensori dedicati alla funzione di autofocus. Il classico sistema di rilevare la luce e passare tramite una misura fatta con l’elettronica per comandare i meccanismi di autofocus, inizia ad essere troppo lento soprattutto per le riprese di filmati. Quindi ecco che due componenti con specificità differenti (i due tipi di pixel) coesistono all’interno di uno stesso sistema (il sensore) per ottenere delle migliori prestazioni.

In effetti il lavoro di progettazione di sistemi tecnologici più o meno complessi, a mio parere, si sta spingendo in due differenti direzioni. La prima è quella di progettare utilizzando componenti specifici di tipo industriale per ciascuna funzione. Questo approccio permette di ottenere dei grossi risparmi e di realizzare dei prodotti che soddisfano delle necessità medie senza particolari pretese. La seconda direzione è quella di combinare in un unico elemento dei componenti con caratteristiche differenti per massimizzare alcune caratteristiche. Chiaramente il secondo approccio richiede uno sforzo di progettazione maggiore, sia come ingegno e sia come risorse finanziarie, portando alla fine un risultato con caratteristiche ibride “da disegno”.

Ed ecco quindi il perché la parola ibrido si sta diffondendo, non come moda, ma come risultato innovativo in vari campi. Inizialmente era un aggettivo tipico dei prodotti frutto della ricerca genetica, ora ne vediamo l’uso nelle vetture con doppia propulsione, in questa macchina fotografica, nei propellenti utilizzati dall’industria aerospaziale, nei pannelli solari che producono elettricità ed acqua calda, ma anche nel settore informatico nei dischi ibridi dove all’interno di una unità disco coesistono tecnologie classiche con quelle SSD (se non erro sia Seagate che Western Digital hanno dei drive di questo tipo).

Quindi, tornando allo zEnterprise, ho rivisto affermate le considerazioni fatte sulla sua caratteristica di sistema ibrido. È un ibrido in quanto include “da disegno” piattaforme per differenti Sistemi Operativi ed anche delle appliance specializzate e questa caratteristica permette di ottenere dei grossi vantaggi di gestione e di flessibilità. Inoltre lascia liberi di coniugare le più disparate scelte architetturali per supportare in modo adeguato le differenti componenti dei carichi di lavoro. La possibilità di considerare tutti i vari sistemi come un unico sistema nello zEnterprise si evidenzia al massimo con il concetto di Ensemble, che anche per problematiche di DR sicuramente introduce ulteriori benefici.

Per con concludere penso che le aziende che scelgono di seguire “la moda dell’ibrido” nei loro rispettivi campi lo fanno sempre più per rendere concretamente innovativi i propri prodotti.

La lunga vita del mainframe


Ho letto un articolo di sul blog di ZDNET intitolato “The rumors of the demise of the mainframe are greatly exaggerated” dove, a mio parere, viene fatta un’analisi sullo stato di questa piattaforma. Dan parte da questi fatti:

  • L’installato totale del System z continua a crescere.
  • La gestione unificata offerta con lo zEnterprise, che permette la gestione di blade su cui possono girare AIX, windows o Linux, attira nuovi clienti
  • L’IBM continua ad innovare nell’area della comunicazione tra sistemi. Questo permette di ri-centralizzare applicazioni distribuite per ridurre i costi.
  • I sistemi IBM zEnterprise sono stati acquistati da 120 nuovi clienti nel mondo.

Inoltre fa notare che:

Per alcuni workloads, un unico e grande sistema lavora meglio ed è più semplice da gestire rispetto ad un gruppo di sistemi con archhitetture standard. Se si esaminano gli studi di “cost of ownership” o “return on investment”, i costi relativi al personale per la gestione e per le operazioni supera di gran lunga il costo dei sistemi e del Sw.” […]

E conclude

La sfida chiave che si trova ad affrontare IBM, naturalmente, è di far si che gli IT decision makers, che sono cresciuti utilizzando esclusivamente sistemi con architetture standard (architetture x86 ndt) e che pensano che i mainframe siano reduci di epoche preistoriche, diventino consapevoli di quanto questi sistemi possono fare, di paragonarne i costi e di giungere alla decisione che i mainframe di oggi sono un notevole valore per i datacenter e non un relitto del passato.” […] “Può IBM riuscire nella reintroduzione dei mainframe in un mondo fatto di standard industriali? I fatti sembrano dire di si.

Ovviamente il virgolettato rappresenta una mia traduzione dell’articolo originale che è disponibile sul sito di ZDNET a questo link. Come al solito ne consiglio la lettura integrale.

The rumors of the demise of the mainframe are greatly exaggerated