Se lasciate soli dentro uno stanza cinque ingegneri dell'Ibm state pur certi che usciranno con un progetto di mainframe. Anche se non fa ridere pare essere una delle storiche barzellette che circolano tra i corridoi di Armonk, sede di Big Blue. Questa volta però non è una scherzo. Oggi i ricercatori dell'Ibm annunciano un'evoluzione di questi sistemi considerati i veri dinosauri dell'era informatica ma al tempo stesso responsabili ancora oggi del funzionamento di sanità, prenotazioni aeree, fisco, ospedali e naturalmente dei flussi finanziari di banche e grandi aziende.
Sono computer capaci di costare quanto centinaia di server (100mila dollari il più piccolo) che rappresentano un mercato da 8,5 miliardi di dollari. Nati negli anni Cinquanta a lungo hanno influenzato il mondo dei computer e plasmato il ruolo dell'elaborazione nelle aziende mettendo al centro l'idea del supercervellone superpotente da cui dipendono decine di terminali stupidi. Il successo del pc, la comparsa dei server e di un'industria che guardava all'informatica in chiave di outsourcing ha però cambiato l'orizzonte ponendo dei limiti al ruolo dei mainframe.
Solo recentemente i riflettori sono tornati ad accendersi con l'affermarsi del cloud computing. E anche su Ibm dominatrice quasi assoluta del segmento (il Ministero delle Giustizia americana che a ottobre dell'anno scorso ha aperto una inchiesta proprio su Big Blue sul possibile abuso di posizione). «Il mainframe era allora service bureau e lo stesso rappresenta oggi» spiega Colin Parris, vicepresidente Systems Software e sviluppo di Ibm e membro della squadra guidata da Ambuj Goyal impegnata a rivoluzionare il mondo mainframe. «Ciò che è drammaticamente cambiato semmai sono i metodi di accesso alle informazioni e le famiglie di applicazioni che forniscono dati. Ricordo che negli anni Ottanta tutti i bancomat e i terminali 3270 erano fisicamente connessi a mainframe. In quegli anni i servizi postali e la carta erano una parte considerevole dei costi di comunicazione con gli utenti. C'era allora un intervallo tra la richiesta dei consumatori all'azienda e la relativa risposta. Oggi è tutto cambiato. Le richieste sono automaticamente processate. I servizi devono funzionare in tempo reale senza intermediari come il postino o altri soggetti che possono frapporsi tra i consumatori e l'azienda». Secondo Parris che è, tra l'altro, ricercatore al Thomas J. Watson Research Center, le caratteristiche della piattaforma mainframe si sposano perfettamente con le richieste di un modello cloud, soprattutto nel contesto di cloud private sviluppate all'interno di medie e grandi imprese. «La richiesta dei nostri clienti è chiara: fare di più con meno risorse. E mentre le economie mondiali stanno trovando un momento di stabilizzazione; il nostro compito è quello di sostituire l'improvvisazione con l'intelligenza. A livello macro significa che non ci sono più spazi lasciati all'intuizione. A noi viene richiesto di progettare architetture capaci di offrire risposte in tempo reale. Di elaborare enormi quantità di informazione per trarne significato e senso. Grazie a questa conoscenza possiamo ridurre i costi e gli sprechi, migliorare l'efficienza e la produttività. I tempi sono cambiati. Una volta eravamo spaventati dal l'overload informativo, dall'aumento di rumore di sottofondo. Oggi invece con gli strumenti semantici possiamo estrarre valore da questi dati. Trovare le correlazioni, anticipare e prevedere i cambiamenti del mercato».
Se è vero che da anni colossi come Ibm si propongono come elaboratori intelligenti di business, è altrettanto evidente che proprio in una logica mainframe la difficoltà diventa quella di tenere insieme tecnologie, software e firmware di natura differente. Su poche e costosissime macchine non si può strutturare una rete. Tradotto in chiave tecnologica questo significa integrare piattaforme esistenti e rendere sempre più flessibili le infrastrutture. «Gran parte dei nostri sforzi consiste nell'adattare i sistemi informatici ai cambiamenti di tecnologia senza intaccare il business. Ad esempio, ridurre i costi di storage impedendo la replicazione delle informazioni su più server. Secondo Morgan Stanley è questa la priorità dei Cio (responsabili dei sistemi informativi) di grandi aziende: bloccare la duplicazione dei dati che altrimenti fa schizzare in alto le richieste di banda larga».
Fare di più come meno risorse quindi. Anzi con una risorsa, il mainframe. Oggi l'annuncio potrebbe allargare i compiti di queste macchine consentendo loro di controllare e gestire anche piattaforme, hardware e sistemi a cui finora il mainframe non aveva accesso. La virtualizzazione di applicazioni su altri sistemi operativi è una delle tante promesse del cloud che oggi (più che mai) sta cercando una tecnologia per armonizzare le nuvole esistenti e quelle che nasceranno. Un'esigenza questa che ci riporta indietro ai tempi dei dinosauri quando è nato il mainframe. Ma questa, naturalmente, è solo una suggestione.
pubblicato su nova del 22-07-2010