INTEL al bivio?


Può sembrare strano parlare di Intel in un sito dedicato ai mainframe. Ma i produttori di chip sono, da sempre, un elemento portante nella scelta delle architetture e io sostengo che un modello architetturale mainframe-centrico è quello che per facilità di gestione ed economie di scala è quello più adatto per un ITC di tipo enterprise. Attenzione, io parlo di modello architetturale, questo poi può essere coniugato su una piattaforma piuttosto che un’altra. E’ chiaro che, per determinati volumi e per necessità di affidabilità, la piattaforma zEnterprise per me è una delle migliori. Questo non significa che domani tutti debbano buttar via il loro IT e passare ad uno zEnterprise;  ne beneficerebbe molto il mio stipendio, ma ovviamente un discorso è valutare una scelta di principio, ed un’altro è valutare l’opportunità di una trasformazione. Ma torniamo ad Intel.

Ne parlo perchè ho letto l’articolo apparso sul The New York Times dal titolo Intel’s Profit Falls 25% With Decline in Chip Sales. Chi ha letto altri miei post sa che, per me, il mercato dell’IT sta attraversando un momento di grande trasformazione dovuto a quanto accadrà ai produttori di chip. Penso che questo sia dovuto fondamentalmente per la minaccia alla supremazia di INTEL dovuta all’erosione del suo bacino di profitti da parte di tablet e di processori tipo ARM.

L’articolo del NYTimes pone l’attenzione su come, la crescita nel mercato server di INTEL non si sufficente a bilanciare la contrazione del mercato dei PC. Per Intel quest’ultimo rappresenta il 64% del suo fatturato  e adirittura l’89% del suo Utile Operativo. La contrazione del mercato dei PC ha determinato quindi la diminuzione del 25% dei profitti rispetto allo scorso anno. Questo secondo me è il problema per INTEL: produrre nuovi chip significa avere la capacità di investire 1B$ circa per ogni nuova famiglia; fin’ora Intel sfornava una nuova tecnologia con cui riusciva ad abbracciare un range di sistemi ampio dai PC ai server. Ora temo che Intel debba iniziare a scegliere se focalizzare le sue nuove tecnologie su dispositivi di largo consumo o su concentrarsi su tecnologie di classe enterprise.

Questo bivio è una scelta non solo di tipo di mercato, ma di disegno. Infatti significa decidere cosa fare di tutti quei transistor disponibili con i processi produttivi che Intel è in grado di utilizzare (sempre più vicini al confine dei 20nm): tecnologie tipo System On a Chip (SoC) che integrano disparate funzionalità a bassi consumi utili per tblet e smartphone o tante unità di elaborazione affiancate da acceleratori per soddisfare le esigenze di parallellismo e di trhoughtput dei moderni datacenter e dei modelli architetturali del cloud?

Annunci

I CIO insoddisfatti del mainframe? No, scoprono che l’outsourcing applicativo non è magico!



Lo ammetto è un’informazione vecchia che avevo scartato: il 12 Dicembre Compuware ha pubblicato un articolo dal titolo 71 Percent of Companies Frustrated by “Hidden Costs” of Mainframe Outsourcing. According a Compuware study. Dove la divisione Mainframe Solution di Compuware, riferendosi ad uno studio di 9 pagine afferma che “la riduzione dei costi è la motivazione principale che spinge all’outsourcing dello sviluppo applicativo, la manutenzione appplicativa e la gestione dell’infrastruttura in ambito mainframe“.  Più avanti Kris Manery, il Senior Vice President and General Manager della divisione, afferma che “tuttavia, come mostra la ricerca, c’è una crescente frustrazione (dei CIO n.d.a.) verso gli outsourcer che non soddisfano le aspettative. Poiché non c’è un modo per trasferire facilmente la conoscenza applicativa all’outsourcer — e di verificare la qualità e le prestazioni del codice prodotto– la qualità delle applicazioni ne soffre e rende indeterminabile qualsiasi potenziale risparmio.

Insomma una divisione che lavora in ambito mainframe e che ha nel suo portfolio prevelentemente servizi di Application Management (AM), dice che l’outsourcing dell’AM senza un adeguato trasferimento di conoscenza non porta a risultati soddisfacenti e rende qualsiasi ipotesi di risparmio vana.

A me il tema, non sembrava particolarmente interessate e piuttosto ovvio. Se un’organizzazione IT non sa nulla delle proprie applicazioni o non trasferisce la propria conoscenza all’outsourcer è un disastro! Penso che questa sia una verità platform-independent! Ma giustamente, la Mainframe Division di Compuware ha focalizzato la sua ricerca sul suo mercato. A cui nella stessa ricerca propone la sua soluzione: Workbench, un ambiente di sviluppo con un’interfaccia grafica ed intuitiva. Quindi non ne avevo parlato e nessuno mi aveva sollecitato ad approfondire il tema.

Ma oggi alcuni colleghi mi hanno segnalato l’articolo di Maria Cristina Montagnaro (scusatemi, non ho trovato suoi riferimenti su LinkedIN o similari) pubblicato ieri sul Corriere delle Comunicazioni  dal titolo Mainframe, l’outsourcing non piace ai Cio italiani che fa riferimento allo studio di Compuware. Allora ho dovuto approfondire. Nell’articolo si dice che il 71% degli intervistati è preoccupato per i costi nascosti, per l’Italia questo numero è del 73%. Ora io ho cercato tra le 19 chart dello studio, ma non sono riuscito a trovare dove sia sostenuto questo 73% italiano (il 71% totale nella chart n.3).

Quello che non ho trovato proprio è quanto si afferma sul Corriere delle Comunicazioni, che “tra le cause principali c’è l’aumento del costo dei MIPS”. Si perchè, fino a prova contraria il costo dei MIPS è diminuito! E’ ovvio che se una manutanzione applicativa viene fatta allegramente il risultato può essere un maggior consumo di MIPS (v. chart 5 dello studio) che, in termini economici, supera addirittura la diminuzione del costo dei MIPS. Veronique Dufour, Direttore Regionale per la SEMEA di Compuware, nell’articolo del Corriere, correttamente afferma che “Outsourcing e aziende devono confrontarsi e implementare processi e strumenti che portino a risultati migliori. Per esempio dovrebbero chiedersi come è possibile documentare le applicazioni legacy per risolvere i problemi che riguardano il trasferimento della conoscenza e introdurre i  test prestazionali in un punto più a monte del ciclo di sviluppo“.

From the Compuware sutdy: "Mainframe outsourcing: Removing the hidden cost"

From the Compuware sutdy: “Mainframe outsourcing: Removing the hidden cost”

Quello che non evidenzia l’articolo è che più del 50% degli Italiani intervistati attribuiscono l’aumento del consumo dei MIPS all’inefficenza di programmazione dell’outsourcer (chart n.6), e che più del 40% degli Italiani dichiarano di non aver adeguata documentazione delle applicazioni (chart n.11) e più del 60% di non aver adeguati skill in ambito mainframe (chart n.12).

Il vero nodo, secondo me, non è la piattaforma. Ripeto: non avere la conoscenza dei propri asset, non avere skill adeguati sono problematiche platform-independent!

Io penso che molti CIO, e particolarmente in Italia, hanno creduto ai miracoli di un down-sizing che avrebbe spazzato assieme al mainframe i costi,  disinvestendo frettolosamente da questa piattaforma e disinteressandosi alle sue reali potenzialità di risparmio.

PS: ma, visto che non è un mainframe, chi mi sa dire che cosa è quel macchinario nella foto utilizzata dal Corriere delle Comunicazioni nel suo articolo sul mainframe?

Insegnamenti da un flop quasi annunciato…


E’ raro leggere di progetti fallimentari in modo onesto e, sopratutto, dopo annunci roboanti. Io fin’ora mi sono sempre imbattuto in fallimenti conosciuti agli adetti ai lavori e tacitati per non esporre i promotori; oppure su annunci di fallimenti che vedono coinvolte aziende ICT in modo clamoroso, ma spesso colpevoli solo di aver fatto ciò che il legame contrattuale prevedeva e non di scelte precedenti poste come vincolo.  Durante la mia periodica opera di pulizia delle mail ho notato una segnalazione sul The New York Times dal titolo “Billion-Dollar Flop: Air Force Stumbles on Software Plan“. Poiché dagli errori si impara sono andato a leggere l’articolo e, seguendo i vari collegamenti, ne è venuta fuori una ricostruzione istruttiva che vi propongo partendo dall’inizio, alla fine le mi e considerazioni.

8-Sep-2006

Con un articolo dal titolo ESC awards $627.8 million task order l’Electronic Systems Center annuncia di aver assegnato un contratto del valore di 627.8 M$ alla Computer Science Corporation per la realizzazione dell’Expeditionary Combat Support System (ECSS), un sistema integrato per la logistica. Questa decisione segue l’acquisizione della suite ERP di Oracle 11i. L’ECSS è destinato a sostituire più di 400 sistemi legacy ed essere disponibile a 750000 utenti dell’Air Force. Nell’annuncio si dice che per il Maggio del 2008 si sarebbe completata la fase di pianificazione e disegno, dando il via alla realizzazione per arrivare alla piena operatività nel Gennaio del 2013.

18-Jun-2009

Con il titolo ECSS revolutionizes Air Force logistics, Greg Laing pubblica un articolo dove l’ECSS è visto come un “cambiamento storico, che rivoluzionerà la logistica dell’Air Force […] Sebbene ci vorranno diversi anni prima che diventi completamente operativo, l’ECSS da questo mese inizia ad essere utilizzato nella base di Hanscom. Questo sistema renderà possibile la visione e la gestione di tutte le risorse logistiche dell’Air Force sparse per il mondo.

27-Oct-2010

In Air Force poised for Expeditionary Combat Support System GroverDunn, il direttore responsabile del cambiamento Grover Dunn, commenta dicendo che “l’ambizioso tentativo di attuare la trasformazione nei vari comandi e funzioni (dell’Air Force nda) richiederà del tempo per raggiungere il suo massimo potenziale, ma sarà relativamente breve considerando le dimensioni del programma“ed aggiunge dicendo “che fin’ora non si erano mai cambiati processi, strumenti e linguaggi nel lavoro di 250.000 persone in una volta sola, e che questo è ciò che si sta per fare a partire dal primo rilascio nel periodo dei succesivi due anni e mezzo.” poi conclude dicendo che “è già in corso un pilota nelle basi di Hanscom Air Force, Mass. e Robins AFB, Ga che vede coinvolti 90 utenti. Da Dicembre altri 150 utenti parteciperanno ad un secondo pilota nelle basi di Langley AFB, Va.; Scott AFB, Ill.; Wright Patterson AFB, Ohio; and the Defense Finance and Accounting System.  Un test su larga scala verrà effettuato a Febbraio del 2012 nelle basi di MacDill AFB, Fla. e Ellsworth AFB, S.D. prima del roll-out su scala mondiale che avverà agli inizi dell’estate del 2012.

Non ho esperienze dirette su progetti di questa scala e tantomeno di logistica militare, ma ad istinto mi viene da pensare che, poco meno di 300 utenti, rappresentano un pilota poco rappresentativo di una popolazione di 250.000 utenti. Quindi dopo aver letto questo articolo ho pensato che forse le attività logistiche sono molto simili e ripetitive nei vari contesti, quindi questo numero di utenti è sufficiente per testare il sistema ed i nuovi processi; il roll-out finale potrebbe essere ridursi “solo” ad una questione di scalabilità e prstazioni.

19-Jan-2011

201301-002 110118-F-0672W-012La seconda parte dei test viene commentata poche settimane dopo nel comunicato Second test phase of Logistics ECSS commences; team remedies response-time issues dove si dice che “il personale della base di Hanscom Air Force, Mass. entrato nella seconda fase, chiamata Pilot B, il 20 Dicembra ha ampliato l’utilizzo dell’ECSS“. Ma delle issues menzionate nel titolo non se ne fa menzione se non in una breve affermazione:”Ad Hanscom la preoccupazione principale [con l’ECSS] ora sono i tempi di risposta [di rete]“. A vedere il piano riportato in un documento pubblico del 2007 a pag.5, il progetto potrebbe essere ancora in linea con il piano. Ma, a mio parere emerge la sensazione che qualcosa non procede come previsto. Infatti nel comunicato si dice che “18 utenti si sono aggiunti ai 54 iniziali nella base di Hadson“; ma non erano già 90? Possibile che l’aggiunta di 15 utenti in un progetto destinato a 250.000 sia un evento così significativo da essere menzionato?

Feb-2011

Su iniziativa del governo, l’Institute for Defense Analyses, pubblica i risultati di uno studio dal titolo “Assessment of DoD Enterprise Resource Planning Business Systems“. Nel documento si legge che (A-5) “l’ECSS inizialmente era basato sulla combinazione di tre prodotti COTS (Commercial Off The Shelf nda): ORACLE R12 eBusiness suite, IFS and Click. Circa un anno dopo, nelle fasi iniziali di definizione, risultò evidente che questi prodotti non risultavano integrati tra loro in modo adeguato e non avrebbero soddisfatto i requisiti dell’Air Force senza delle modifiche significative alla direzione (del progetto nda). ” […]  “Il programma dell’ECSS è stato ridefinito e le componenti Sw IFS e Click abbandonate a favore di un upgrade della Oracle E12 eBusiness suite e di un impegno, da parte di Oracle, di fornire la manutenzione necessaria nei release futuri.” […] “Dopo più di 5 anni e un eccesso di spesa di 500 M$, il programma è ancora lontano dall’aver definite delle baseline di tempi e costi.

2012

A Marzo il documento Reported Status of Department of Defense’s Enterprise Resource Planning Systems evidenzia (p.14) che il costo degli attuali 240 legacy systems è di 325 M$/year mentre il costo stimato dell’ESSC Program è di 5.2 B$.
E’ del 26 Novembre 2012 l’unica comunicazione ufficiale che ho trovato, sulla chiusura del programma, è la lettera che il Rep. Lee Terry ed il Sen. Mike Johanns hanno scritto ad Obama. Poi l’ondata di comunicati stampa:
Billion-Dollar Flop: Air Force Stumbles on Software Plan, Lessons from a Billion-Dollar Project Failure, How the Air Force blew $1B on a dud system, ecc. ecc. dove in alcuni si dice che “un portavoce dell’Air Force ha detto che lo scorso mese, con la cancellazione del sistema (l’ECSS nda) l’AirForce continuerà ad utilizzare i suoi sistemi di logistica legacy, alcuni dei quali sono in uso fin dagli anni ’70“.

Ed ecco le mie considerazioni:
– La prima impressione favorevole è sulla trasparenza e sulla facilità di accesso alla documentazione (dimostrata dagli innumerevoli link che riporto) che l’amministrazione degli Stati Uniti  adotta. Provate a capire nei nostri siti come un ministero spende il suo budget….

– Mi piacerebbe sapere cosa sono quei legacy systems degli anni ’70. Lo dico sul serio perchè non penso siano tutti dei mainframe (immagino che gli alcuni in uso dagli anni ’70 lo siano) e non sono riuscito ad appurarlo. Però con 2B$ forse si poteva fare una più miodesta opera di rinnovamento e consolidamento infrastrutturale che avrebbe portato minori benefici economici, ma concreti….

– Per chi è consulente suggerisco caldamente la lettura integrale dell’assessment dei sistemi ERP all’interno della Difesa Statunitense. E’ veramente un esempio di come deve essere il documento finale di un assessment! Complimenti ai professionisti dell’Institute for Defense Analyses.

Dell: senza mainframe possiamo inventare il futuro (ci inventiamo il mainframe)


zEnterprise-DellSu 01net.it ho letto il post dal titolo Dell: senza mainframe possiamo inventare il futuro. Il primo impulso è stato quello di commentare il post con delle osservazioni su quanto detto da Michael Dell (appunto il CEO di Dell) nel keynote di apertura del Dell World 2012. Poi invece che commentare quanto riportato, sono andato alla fonte ed ho cercato documentazione delle varie affermazioni; mi sono iscritto al Dell World 2012 ed ho potuto accedere al video del keynote (2 giorni dopo era disponibile su youtube una parte solamente). L’ho visto e rivisto sul PC come se avessi una moviola per non perdermi una parola (vi riporto i tempi delle citazioni sul filmato originale).

Dopo circa 8 minuti delle celebrazioni di rito Michael afferma che “We strongly believe that pcs are important” (8:20) poi afferma che quest’anno nel mondo sono stati venduti 400 milioni e ne esistono installati 1.5 miliardi. Successivamente parla di alcuni nuovi o innovativi prodotti che Dell propone per il mercato: i dispositivi  XPS10 e XPS27 e di un nuovo dispositivo da 18″ all-in-one dalle possibilità illimitate che, a suo dire, darà al miliardo e mezzo di utenti la motivazione per acquistare un nuovo PC: “his adoption accelerates, for Windows 8 and for touch, is gone a give the entire billion and a half install base of users, a reason to get a new PC. ” Penso che queste siano affermazioni e proposte dovute per un’azienda nata come produttore di PC che cerca di adeguarsi alle condizioni mutate di questo mercato.

Poi passa al tema dei Datacenter affermando che Dell da 20 anni produce server: “I want just remind that this is not a new area for Dell. We’ve been in the server business for almost 2 decades.” (11:21) e che è la numero 1 come market share per i server in Nord America ed in Asia: “Thanks to our customers Dell now is number 1 in market share in servers in North America and Asia“. E qui non lo capisco, e le antenne mi si alzano. Si perché questa affermazione viene fatta senza citare la fonte, senza dire chi ha fatto questa rilevazione; allora sospendo la visione e cerco notizie su queste classifiche. Mi imbatto sul Post di Alex Williams di techcrunch.com che potete vedere a questo link. Anche lui nota come non sia citata la fonte, anzi, dice che ad oggi non c’è nessuna comunicazione ufficiale di tale graduatoria e che ha chiesto informazioni, tramite Twitter, ad un analista dell’IDC Matt Eastwood. Matt gli ha risposto che “Dell’s #2 in server units & #2 in x86 server revenue. They are #3 in server rev overall (pesky mainframes).” senza citazioni di primi posti. Comunque sperando che fossero tweet pubblici li ho cercati ed effettivamente li vedete nella foto.Screen Shot 2012-12-16 at 11.40.41 AMMichael continua sostenendo che la vera area interessante sono le Converge Solutions.  “But the real interesting area here are Converge Solutions. This is really at the core of the market disruption that Dell is driving right now.” (13:07) e le illlustra come un’astrazione del datacenter ad un livello più alto: “What we’re doing with converge solutions is abstracting data centre to an higher level, used you have to worry about power switches and LAN what kind of memory you have, processors and switching lot a lot of details. Now you can focus on workloads and quality of services and applications freeing up time and resources to really drive innovation within your organisation. ” (13:17). Affermando che non ci si deve più preoccupare di switch, storage ed altri dettagli, ma ci si potrà focalizare sui workloads e sulla QoS (Quality of Service). Ma io non trovo nulla di così disruption. Senza citare quanto questi temi sono insiti nelle architetture System z, mi sembrano una ripresa di quanto venne annunciato nel 2010 dalla piattaforma zEnterprise che solo per i PureSystems ha perso il titolo di unico sistema ibrido con flessibilità architetturali uniche (e due anni di differenza sulla tecnologia non sono pochi).

Enterprise Solutions, Software e Servizi sono gli argomenti successivi che Michael affronta per descrivere quanto radicale sia stata la trasformazione di Dell:  “As I said the Dell Transformation has been consistent and disciplined we’re made no mistake, we’re moved aggressively. Over the past few years we brought Enterprise Solutions, Software and Services  very significantly to the point where are now more than half Dell’s gross margin.“(20:27).  Poi, tra le testimonianze dei clienti, afferma “One of the great advantage that Dell brings to the datacenters is a very clear point of view. We don’t have mainframes or many computer or other legacy software platforms that we’r trying to protect. Dell is a company born in the microprocessor age we are not protecting the pass we are inventing the future. And all ors solution are built around  next-generation scale- out  industry standard architectures.“. Ovviamente manda una frecciata alla parte di mercato per lui più appetibile ed è un messaggio che cerca di mettere in positivo la differenziazione esistente.

Si perché a mio parere la differenza c’è. Intanto vorri vedere quale programma, utilizato nel server Dell di 20 anni fa, senza essere ricompilato sia in grado di essere eseguito su un server Dell di oggi sui cui è installto uno stack di Sw di base ugualmente aggiornato. Ma a me Dell sembra, come altri player nel mercato ICT, che stia cercando di colmare un GAP ancora molto evidente e per far questo stia proponendo dei sistemi che ripercorrono la strada tracciata dai mainframe. Poi non dobbiamo dimenticare che è una compagnia che costruisce prodotti basati, per la maggior parte, su contenuti tecnologici sviluppati da altri: Intel in prima linea. In questo blog ho avuto modo di esprimere le mie opinioni sul futuro di Intel che, a seconda delle sue scelte potrebbe influire drasticamente su azienda come Dell.

Screen Shot 2012-12-16 at 3.56.32 PM

Mi sembra un’ottima sintesi della situazione e delle scelte fatte dalle aziende nel mercato dei server, il grafico che si ottiene da Yahoo Finance paragonando gli andamenti delle azioni negli ultimi due anni. Aziende come Intel ed Oracle sono più o meno allo stesso punto; Intel deve decidere il suo futuro e lo può fare forte di una grossa capitalizzazione. Ma questa decisione influenzerà pesantemente il futuro di aziende come HP e Dell che dipendono dalle sue scelte tecnologiche.

Con il 66% di fatturato dai PC, il 19% dai Server e la concorrenza dei tablet #Intel presto dovrà scegliere


English version

4110-06 810x542

In un post precedente avevo fatto delle riflessioni sul fatto che i costruttori di chip si focalizzano su mercati che, per volumi o per specificità, garantiscano quei profitti adeguati e riescano a finanziare i costi della ricerca. Alla fine ipotizzavo una crisi o una scelta di campo di Intel che vede minato il suo primato non tanto da concorrenti diretti come AMD, ma da due fattori: il primo è dovuto al possibile dissolvimento del mercato dei PC, minato da smartphone e tablet; il secondo, a mio avviso, è dovuto allo sdoppiamento del mercato dei chip da una parte per dispositivi piccoli, poco esigenti di energia elettrica e multifunzionali e dall’altra per dispositivi dalle grosse capacità di calcolo.

In questi giorni ci sono stati altri articoli (di persone ben più autorevoli del sottoscritto) che hanno rafforzato questa opinione. Forbes nel post Otellini Nicely Milked Intel’s PC-Chip Business, But is Pay Justified With Mobile Strategy a Flop? di fine Novembre evidenzia che nel 2011 Intel ha versato il 19% di ogni dollaro incassato ed il suo revenue proviene per il 66% da PC/Laptop e per il 19% dai server dei datacenter. Mentre il fatturato per tablet e mobile è stato solo “un anemico 9%” e la relativa divisione ha relizzato una perdita di 882 M$.

Quindi se il mercato dei PC/Laptop svanisce in favore dei Tablet, la mia ipotesi di giorni bui per Intel in mancanza di decisioni nuove, non è del tutto campata per aria. Un’altro brutto presentimento per Intel, viene dalla rarefazione del duopolio WinTel dopo che Microsoft ha concretizzato lo sviluppo di Windows 8 per ARM.

EETimes ha fatto un’ipotesi nell’articolo Why Intel should make chips for Apple, Cisco, ossia una svolta dell’azienda che potrebbe farla diventare il fornitore di chip per i dispositivi della mela, oppure per i router di fascia alta di CISCO. L’autore del post, Rick Merritt, vede in queste due aziende delle ottime potenzialità per Intel: “both Apple and Cisco have the potential to be much larger customers of Intel than they are today“.

Il dubbio che continuo ad avere, vedendo questi numeri e considerando queste alternative, è se Intel farà queste scelte riuscirà a continuare con un ritmo di ricerca e sviluppo adeguato anche per il mercato dei nostri datacenter? La capacità di Andy Grove di imprimere una svolta sarà ancora nel DNA del nuovo CEO?

Le rivoluzioni delle Interfacce utente



35 anni fa i mezzi per produrre ed accedere ai dati erano prevalentemente meccanici: macchine da scrivere, stampanti, raccoglitori, classificatori. Questo implicava un’attenta produzione dei dati strettamente necessari e una conseguente necessità di ordinarli e classificarli in modo da renderne semplice la ricerca.

Negli anni ’80 i terminali eliminarono alla radice il problema degli errori di battitura e l’uso della carta copiativa. Ne soffrirono maggiormente le scuole di steno-dattilografia che sparirono nel giro di 3-5 anni. I primi computer di quel periodo erano soltanto una versione più moderna dei terminali.

L’onore del primato, per l’interfaccia grafica in un uso commerciale,  spetta al Machintosh nel 1984. Ma solo negli anni ’90 si propagano i desktop con l’interfaccia a finestre:  quello che considero il primo sistema, valido per un uso da ufficio, è Windows 3.1 del 1992 e, successivamente nel 1995, appunto, Windows 95. Ed entrambi non sono altro che concretizzazioni dell’interfaccia ipotizzata da Douglas Engelbart nel 1968 in una demo dove Englebart mostrò per la prima volta un mouse (che lui chiamava bug).

L’uso di queste interfacce rese molto più semplice l’accesso ai computer. Quindi quel suono, click, che nel tempo è diventato verbo, attivava funzionalità differenti a seconda del posto su cui era eseguito. L’attenzione (e la conoscenza) si spostò tutta sugli elementi grafici su cui far suonare il mouse. Ma ci furono altre vittime. Pochi ricordano i volti dei tecnici esperti, immobili di fronte a queste novità, o disgustati rispetto a quei sistemi per videogames o immersi per giorni nella lettura di manuali e user guide prima di voler posare una mano su di un mouse. Poi la rete fu la seconda vittima: velocià enormi di 28.8 kbit/s si ottennero nel 1994 con l’adozione dello standard V.34 , e tra il 1998 ed il 1999 fu sviluppato lo standard V.90 che permetteva velocità di addirittura 56 kbit/s.

Ai primi del 2000 le interfacce iniziarono un periodo di tregua. Miniaturizzazione e nuove reti decretavano la diffusione del telefono cellulare che, di botto, riportava le interfacce utenti ad una aspetto primitivo rispetto a quello che ci proponevano i desktop.  Nel 2004 la consolle per giochi Nintendo DS introdusse, per la prima volta con una larga diffusione, un dispositivo touch screen sul mercato (in realtà i primi touch screen risalgono al 1985 introdotti dalla General Motors).  Oggi guardandosi intorno in un mezzo pubblico non sembra vero che il primo iPhone è stato commercializzato nel 2007. Le interfacce di tipo touch ci circondano ovunque e sono in continua espansione. Ma sono interfacce che definirei sempre di tipo contestuale, ossia dove un gesto assume un suo significato in bas al contesto in cui viene eseguito.

Ma sia le interfacce touch che quelle grafice dei desktop secondo me hanno in comune una cosa: il contesto lo fornisce il dispositivo. Il click ha senso solo all’interno dello schermo, i movimenti delle dita hanno una conseguenza solo su quanto mostrato dal touch screen. Ossia noi osserviamo i dispositivi e decidiamo come gesticolare in modo che il dispositivo ci capisca, ma è un liguaggio specifico: basti pensare che i gesti cambiano da iOS di Apple e qualsiasi dispositivo Android.

Io penso che nel futuro il conteso salterà fuori dai dispositivi! Anzi saranno i dispositivi ad osservare noi. In effetti già con la consolle per giochi Wii nel 2006 e con il Microsoft Kinect nel 2009 ne abbiamo avuto un assaggio. Ma presto avremo dei televisori che interpretano un nostro gesto come un comando per attivare un detrminato canale e, se lo stesso sarà fatto da un’ospite o da un minore il televisore potrebbe non reagire. Le prossime vittime saranno i telecomandi nelle nostre case e coloro che non ne sapranno fare a meno.

Date un’occhiata al primo filmato e potete farvi un’idea di quanto potrebbe essere abbastanza vicino un futuro simile: non vi ricorda la pubblicità di un televisore che permette di trasferire le foto da un tablet allo schermo con un gesto?