In questo Caffè Sospeso, Gian Franco Stucchi descrive l’evoluzione della virtualizzazione, oggi un paradigma computazionale che ha come obiettivo la trasformazione delle risorse informatiche in suite di elaborazione funzionalmente potenti e integrate
Nelle discipline informatiche di base, con il termine “virtualizzazione” si intende il processo di creazione di una versione non reale di una certa risorsa computazionale (come, per esempio, un sistema operativo, un server, un dispositivo di memorizzazione di massa, una rete, una risorsa di rete, ecc.). La versione virtuale è – anzi, deve essere – funzionalmente analoga o superiore all’entità reale, ovvero mostrare almeno lo stesso comportamento. La prima forma di virtualizzazione, la più semplice ma anche la più rozza, si sperimenta quando si suddivide un disco fisso in due partizioni, ovvero in due dischi virtuali apparentemente disgiunti ma funzionalmente simili.
I processi di virtualizzazione si incontrano anche nell’ambito dei sistemi operativi: sono frutto di una prassi in auge crescente fin dagli anni Sessanta, consistente nell’utilizzo di un sistema software di alto livello (detto ipervisore) per permettere a un pool di risorse infrastrutturali (hardware, software, storage, reti) di eseguire delle attività applicative o sistemistiche in modo concorrente, ma sotto il governo di uno o più sistemi operativi diversi o istanze diverse di uno stesso sistema operativo.
Le tecnologie atte a favorire la virtualizzazione dei sistemi operativi si svilupparono in ambiente mainframe (IBM CP/CMS, VM, ecc.) e consentirono agli amministratori di sistema di evitare sprechi di risorse memory-based e di potenza computazionale in un periodo in cui la richiesta di servizi IT era in continua crescita e i costi di elaborazione piuttosto elevati. Successivamente, con la crescente diffusione dei minicomputer e la diminuzione dei costi di elaborazione, la virtualizzazione della memoria si diffuse anche in ambienti meno poderosi e ponderosi: emblematico fu il caso del Digital VAX ove l’acronimo designava una proprietà nativamente virtuale della macchina: la Virtual Address eXtension).
A partire dal 2005 i sistemi software per la virtualizzazione, intesa in senso lato e riguardante ogni tipo di risorsa, sono stati adottati molto più velocemente di quanto gli esperti potessero immaginare.
Attualmente sono sostanzialmente tre i settori dell’ICT in cui la virtualizzazione si sta diffondendo: le reti, lo storage e i server.
La virtualizzazione di rete è un metodo per combinare le risorse disponibili in una struttura reticolare ma in modo tale da suddividere la larghezza di banda in canali, ognuno dei quali è indipendente dagli altri e può essere assegnato (o riassegnato) in tempo reale a un determinato server o un dispositivo. L’idea di base è di far sì che la virtualizzazione possa nascondere la complessità gestionale e topologica della rete, separando la banda in modo tale che le operazioni risultino assolutamente gestibili, proprio come un disco rigido partizionato rende più facile la gestione dei file.
La virtualizzazione dello storage consiste nella capacità di mettere a disposizione del parco utenti una quantità, anche notevole, di memoria di massa ottenuta grazie alla configurazione virtuale di una rete di dispositivi di storage fisici e tale che appaia come un dispositivo di archiviazione singolo e gestito da una console centrale.
La virtualizzazione dei server è il mascheramento delle risorse di elaborazione (compreso il numero e l’identità dei singoli server fisici, dei processori e dei sistemi operativi) attuato nei confronti degli utenti. L’intenzione è di risparmiare a questi l’onere di dover comprendere e governare la complessità delle informazioni riguardanti i server, di aumentare la condivisione e il grado di impiego delle risorse disponibili, nonché di potenziare la capacità di espandere facilmente il pool delle risorse di elaborazione.
La virtualizzazione può essere vista come un aspetto del “Computing on Demand” , una tendenza generale che da alcuni anni anima l’evoluzione dell’ICT di classe enterprise e comprende anche l’”Autonomic Computing”, uno scenario in cui l’ambiente IT è in grado di gestire se stesso in base al livello di attività percepita, e l’”Utility Computing , in cui la potenza di elaborazione dei sistemi è percepita come un servizio di utilità che i clienti pagano solo se e quando è necessaria per le loro esigenze. L’obiettivo della virtualizzazione è di centralizzare le attività amministrative migliorando la scalabilità e la distribuzione dei carichi di lavoro.
La tendenza sopra menzionata trova la sua massima espressione nello stato di frenetica e curiosa eccitazione che il mercato manifesta nei confronti del Cloud Computing – anche se esiste un solo tentativo di modellare, in modo rigoroso e formale, questo fenomeno ed è quello proposto dal National Institute of Standards and Technology statunitense. [NdA: In proposito si rimanda il lettore al Caffè Sospeso “Le tre dimensioni del Cloud Computing”
Dato questo contesto, il tema della virtualizzazione, dopo essere stato anch’esso sugli scudi da qualche anno a questa parte, è stato poi trattato come una commodity – ovvero una voce da spuntare nella “to-do list” di ogni CIO (o IT Executive che dir si voglia) – piuttosto che come un argomento apicale, stimolo di un’adeguata e costante prassi operativa che può determinare il successo o il fallimento di un’iniziativa ICT. I tempi, però, stanno cambiando (e quando mai nell’ICT si sono cristallizzati?) e la virtualizzazione sta riassumendo una valenza strategica anche grazie all’importanza che riveste e all’onnipresenza di cui gode nei vari modelli emersi dal paradigma del Cloud Computing
I vantaggi e gli svantaggi della virtualizzazione sembrano abbastanza chiari e recepiti dal mercato, mentre il passaggio al Cloud Computing – forse per mancanza di esperienze consolidate – si sta rivelando spesso come la sostituzione di una serie di problemi con un’altra, talvolta più gravosa. La gestione delle risorse in ambiente cloud è sempre frutto di un progetto, molto complesso, riguardante la risoluzione dei conflitti che possono insorgere tra le infrastrutture fisiche; inoltre spesso si evoca un’immanente inaffidabilità della “nuvola” e si portano come prove i casi di insuccesso avvenuti in passato. In realtà molti eventi di questo genere, come altri già verificatisi nel corso della storia dell’ICT, sono avvenuti come diretta conseguenza di implementazioni reali di bassa qualità, piuttosto che di incoerenze intrinseche nel modello del Cloud Computing.
Da questa osservazione discende che la scelta di adottare, per l’ICT aziendale, l’opzione del Cloud Computing produce un incremento delle responsabilità che gravano sull’Unità Organizzativa Sistemi Informativi (e sul suo manager). Infatti, al fardello dei compiti nativi della funzione, si aggiungono quelli del controllo della qualità e della valutazione dei rischi di ogni soluzione innovativa. Ciò avviene anche quando il CIO non è responsabile della decisione finale o della scelta, e nemmeno ha interpretato il ruolo di “primus inter pares” in un comitato guida. In ogni caso è naturale che a questa figura manageriale si debba far risalire la pianificazione delle risorse virtualizzate e l’impostazione di un accurato piano di bilanciamento del carico elaborativo tra le varie aree in cui si articola il sistema informatico.
Quando si concepisce un progetto di virtualizzazione delle infrastrutture informatiche sorge innanzitutto il problema dell’identificazione e del trattamento dei fattori critici di successo e di insuccesso, cioè di quei processi vitali o mortali per il buon esito del paradigm shift computazionale.
In primo luogo bisogna considerare il contesto nel quale avviene la transizione verso la virtualizzazione. Molte unità organizzative IT hanno utilizzato la virtualizzazione dei server per de-sincronizzare (prima) e spostare nel cloud (dopo) i carichi di lavoro non critici, ma i requisiti di sicurezza e di controllo richiesti da questo approccio – piuttosto rigorosi, quindi dispendiosi – hanno impedito l’attuazione di numerose piccole implementazioni di “private cloud” a causa degli alti costi di realizzazione e di esercizio.
Secondariamente, si noti che i primi progetti di Cloud Computing erano basati su blade server connessi a un’architettura indipendente di Storage Area Network. Era un modello che consolidava l’unità centrale di elaborazione e la memoria in configurazioni di server piuttosto “dense” e collegate, tramite diverse reti ad alta velocità, a grandi impianti di SAN. Questo è stato il modello tipico delle tradizionali infrastrutture di virtualizzazione di tipo “off the shelf” pre-costruito, adottato, in particolare, nelle imprese che realizzano implementazioni di private cloud.
Di recente i produttori di hardware hanno iniziato a offrire alcune commodity hardware modulari, in configurazioni sempre più dense, che costituiscono i “mattoni” elementari per costruire il cosiddetto “Hyperscale Computing”
L’obiettivo primario delle hyperscale platform è di realizzare due funzioni critiche del Cloud Computing (e dell’ICT in generale) – la scalabilità e l’affidabilità – esclusivamente a livello di piattaforma, isolandole dal sottostante livello dell’hardware e dal sovrastante livello applicativo.
La differenza più evidente rispetto ai dispositivi preesistenti è la disponibilità di unità di memoria di massa a stato solido un’opzione che permette al server virtualizzato di eseguire le macchine virtuali in modo nativo nel sistema host senza uscire dalla SAN, una modalità che si traduce in una rete molto meno complessa e, quindi, con notevoli vantaggi rispetto ad altre configurazioni. Ne discende che non solo cambia radicalmente il rapporto prezzo/prestazioni del Cloud Computing, ma viene semplificata l’implementazione delle infrastrutture del cloud, riducendo, di conseguenza, anche il livello delle competenze IT necessarie per gestirlo. E’ un’architettura che offre ai team di implementazione una flessibilità notevole, tanto che si dice che permetta di assumere il “modello Lego” come archetipo per combinare nodi di calcolo e di storage in unità ottimali, incapsulate all’interno di un raggruppamento di LAN virtuali appartenenti a una certa dislocazione fisica di risorse. Si osservi, infine, che è enormemente facilitata la gestione di un pool di risorse di elaborazione e di storage di grandi dimensioni, dislocato in un sottoinsieme delle infrastrutture di un data center univocamente controllato.
Da quanto riportato finora si osserva che è ormai consolidato il fatto che la rivoluzione della virtualizzazione – l’atto secondo – sia in corso più a livello di data center che non di server. Con l’implementazione delle architetture virtualizzate e modulari, ogni impresa può godere contemporaneamente dei vantaggi che derivano dalla virtualizzazione a livello di reti, di storage e di server, con notevoli risparmi in termini di costi e di ottimizzazione delle prestazioni.
Il problema che emerge quando si progetta un data center totalmente virtualizzato è come identificare e realizzare le operazioni IT in modo tale da configurare in modo intrinsecamente coerente e monitorare efficacemente il complesso delle risorse virtuali. Dato che l’ecosistema globale del Cloud Computing è ancora relativamente “giovane”, rimanere al passo con le tecnologie e con le best practice costituisce una sfida non indifferente per ogni Unità Organizzativa IT (sia questa un reparto, un dipartimento, un’azienda nata da uno spin-off, un outsourcer, etc.). Inoltre, siccome il patrimonio delle competenze e delle esperienze nella gestione di grandi infrastrutture virtualizzate è piuttosto esiguo, molte imprese devono affrontare la sfida della virtualizzazione riconvertendo il personale IT al Cloud Computing (con il rischio di vederselo poi sottrarre da altre aziende) oppure ricorrendo all’outsourcing (con il rischio di accrescere a proprie spese la competenza esterna).
Forse una soluzione esiste, poiché si sta affermando una semplice ma potente killer application: la Cloud User Interface (CUI) che incapsula e favorisce l’operatività a livello di orchestrazione del cloud. Negli ultimi anni nel settore del Cloud Computing sono avvenuti diversi eventi significativi che hanno riguardato sia i grandi player dell’ICT (le Major) che le imprese di media dimensione. Tutte hanno proposto delle architetture di riferimento per i data center, puntando sulla convergenza di vari modelli infrastrutturali e su combinazioni ottimali di hardware e software per gestire i sistemi virtualizzati.
Esaminando le soluzioni proposte, si osserva che la CUI sta assumendo un’importanza crescente come fattore critico di successo del Cloud Computing in azienda. In un buon sistema di Cloud Orchestration, un’altrettanto buona UI non riveste solo un ruolo di semplice “trasformatore” – dal vecchio paradigma al nuovo, ovvero di fattore abilitante della massimizzazione delle funzionalità cloud (come il bilanciamento del carico) – ma anche di fattore critico decisionale in fase di scelta della soluzione da implementare.
Gli utenti di estrazione tecnica normalmente apprezzano i pannelli di controllo e i dashboard basati sul web, ma sono sempre un po’ conservatori e spesso richiedono, almeno inizialmente, anche un controllo supplementare delle fasi operative e di governo di una struttura ICT ottenibile tramite i tool di Command Line Interface (CLI ) e le Application Programming Interface (API ). Ne discende che rendere più o meno complessa l’interfaccia può avere un impatto significativo sulla produttività degli sviluppatori e degli amministratori di sistema, così come l’hanno, in generale, le operazioni di riqualificazione del personale (ma questo meriterebbe una trattazione a parte.
La virtualizzazione, per definizione, impone un livello di astrazione che coinvolge i dettagli dei server fisici, le specifiche delle macchine virtuali e i parametri “di targa” del networking. E’ un’operazione complessa, che a volte suscita in azienda delle lamentele perché le soluzioni di Cloud Orchestration sembrano essere delle “scatole nere” che, riducendo il controllo umano sulla tecnologia di base, sarebbero poco affidabili. In realtà, analogamente a ciò che avviene a livello del sistema operativo, raramente gli utenti interagiscono a livello di codice con la complessa tecnologia sottesa dal Cloud Computing; inoltre, è possibile aumentare la comprensione di questo paradigma grazie a corsi di formazione sulle caratteristiche del modello computazionale adottato. Infine, se la virtualizzazione potenzia veramente l’Unità Organizzativa IT nelle sue attività caratteristiche (riduzione del time-to-market, utilizzo dell’hardware e risparmio di tempo nella gestione delle risorse consentendo agli sviluppatori di creare autonomamente delle macchine virtuali autorizzate,etc.) allora dovrebbero risultare potenziate anche le attività e i processi dedicati alla crescita del business.
Il fenomeno Cloud Computing è stato discusso per anni – e la virtualizzazione per decenni – ma, al di là di ogni elucubrazione teoretica, restano alcuni problemi aperti e di non facile soluzione. Il fascino di una risorsa virtuale sta nel fatto del suo essere effimera: se si hanno delle necessità di elaborazione variabili si possono, più o meno semplicemente, aggiungere on-demand dei pool di risorse e, successivamente, ridimensionare la struttura informatica e l’assorbimento delle risorse computazionali quando il carico di picco diminuisce. Rimane però il problema del Cloud Burst (letteralmente: scoppio del cloud), una locuzione utilizzata per denominare l’esigenza di un’organizzazione di scalare velocemente verso l’alto le proprie applicazioni di rete per soddisfare improvvisi picchi di domanda. Questo sembrerebbe un evento auspicabile ma, se non fosse gestito correttamente, potrebbe causare seri danni.
Ben vengano quindi i cambiamenti dei paradigmi computazionali, sperando che possano convertire le monolitiche architetture di elaborazione esistenti in una pluralità di infrastrutture più modulari, che mettano a disposizione livelli di controllo e di operatività tali da consentire di comporre un data center avanzato e governato da un sistema software avanzato di Cloud Orchestration.
L’evoluzione delle risorse virtualizzate da gruppi di “slices of servers” a strutture “slices of full data center infrastructures” comporta un significativo cambiamento nell’utilizzo delle risorse di calcolo, incidendo sul time-to-market delle nuove applicazioni, sulla velocità di innovazione e sui costi delle risorse di base. Ognuno di questi argomenti dovrebbe essere esplorato in modo più dettagliato, individuando alcuni fattori critici come il consumo di energia e la pianificazione della capacità.
Ma questa è – al solito – un’altra storia, che innesca un tema di grande attualità: il green computing.
Ne parleremo; restate connessi.
Gian Franco Stucchi dedica questo Caffè Sospeso alla definizione degli obiettivi del Customer Relationship Management. Le relazioni con i clienti sono diventate un asset strategico per le imprese che investono risorse crescenti per rendere questo rapporto sempre più stretto e proficuo.
Nonostante l’attuale grigiore che avvolge il panorama economico, diverse aziende pubbliche e private stanno intraprendendo un cambiamento paradigmatico nel modo di concepire la strategia aziendale, e quindi i processi che ne derivano. Si sta passando da una visione del mondo basata sul prodotto (catena: design-build-sell) ad una caratterizzata dalla centralità del cliente (catena: sell-redesign-rebuild). Tale transizione comporta, per la maggior parte delle aziende, modifiche strutturali ed organizzative sostanziali.
Mentre le start-up che sorgono dal nulla o per gemmazione da un’impresa esistente possono definire, volendo, la propria struttura direttamente in funzione del servizio al cliente, le aziende ormai affermate devono compiere sforzi notevoli per riallineare la struttura a tale visione. Anziché porsi domande del tipo “A chi vendere questo prodotto?”, la questione fondamentale diventa: “Che tipi di clienti abbiamo e che prodotti/servizi desiderano?”.
Nasce dunque in questo contesto la filosofia manageriale del Customer Relationship Management (CRM) che, in nuce, si occupa della personalizzazione di massa ovvero di identificare e connotare in modo univoco l’interazione tra chi vende e chi acquista, così che la fedeltà dei clienti – ed il valore aggiunto che ne deriva – aumentino nel tempo. In fondo è l’applicazione attuale di un vecchio “trucco” di vendita, la stessa strategia che adottavano i negozi sotto casa; l’unica “differenza” – e scusate se è poco – sta nelle dimensioni coinvolte: trattare migliaia (a volte milioni) di clienti come “individui”, e non come codici, rimane la croce e la delizia del CRM.
La domanda tuttavia è: in che modo celebrare il cliente, il singolo cliente? La transizione verso una struttura organizzativa CRM-compliant può provocare un’esplosione dei costi senza alcuna garanzia di un ROI (anzi, le percentuali di fallimento sono piuttosto alte), quindi disporre di una strategia ben ponderata e di una notevole visibilità sui processi interni e sul contesto concorrenziale esterno sono due elementi determinanti per avere successo o, almeno, per migliorare il livello di governance dei processi. Dato che tutti i clienti vanno dove sono “riconosciuti per nome”, si fa sempre più importante la disponibilità di una strategia multicanale ovvero la capacità offrire ai clienti varie opzioni per interagire con l’azienda. Il CRM richiede ben più che una struttura informativa statica: per sostanzialo è necessario sviluppare un sistema dinamico, che fornisca funzionalità operative e analitiche ad ampio spettro.
Il supporto del CRM avviene mediante una serie di applicazioni e di supporti documentali volti alla conoscenza del cliente e all’organizzazione delle informazioni derivanti dal suo rapporto con l’azienda. L’esigenza di informatizzare questi dati è nata verso la metà degli anni ’80, quando si cominciava a parlare di “soddisfazione del cliente” e di “integrazione tra marketing e vendite”. Allora vennero creati i primi moduli etichettabili come “sistemi CRM” che gestivano (a fatica, in realtà) il settore delle vendite. I risultati furono scoraggianti perché emersero problemi di comunicazione ed organizzazione con le reti di vendita che non riuscivano a monitorare la loro attività a causa della pluralità delle architetture e dei sistemi software eterogenei. Inoltre, questi primi esperimenti di CRM non affrontavano il rapporto con i processi organizzativi aziendali, che sono diventati oggetto di studio solo dalla fine degli anni ’80. Nei primi anni ’90 è stata data una risposta a questo tipo di esigenza con i sistemi ERP (Enterprise Resource Planning) di prima generazione, rivolti alle aziende di dimensioni o complessità organizzative notevoli. Le Suite ERP (così si chiamavano) erano in grado di facilitare lo scambio di dati e di informazioni tra i diversi comparti aziendali, ma non di interagire in modo fluido e controllato con l’esterno. Con l’affermazione di Internet migliorarono certamente le relazioni con i clienti, ma vennero a crearsi spesso, in una stessa azienda, due sistemi informativi differenziati, uno online e uno offline.
La Net Economy ha reso inadeguate le vecchie tecniche di Customer Relationship Management volte ad agire su un mercato di massa. Oggi Internet ha imposto un maggior flusso di comunicazioni che contribuisce a ridurre l’impatto di marketing dei messaggi generici, rivolti ad un pubblico indistinto. Proprio la facilità d’uso del mezzo incrementa le opportunità di cambiare fornitore: tra un’azienda e un’altra c’è solo la distanza di un click, perciò i consumatori sono più esigenti. Inoltre, i clienti vogliono poter scegliere tra diverse varianti dello stesso prodotto, visto che acquistano via Internet proprio per ordinare, direttamente a chi li produce, i beni e i servizi desiderati. Questi devono essere, quindi, personalizzati e, soprattutto, cambiare tempestivamente in funzione delle richieste del mercato.
I sistemi software di supporto del CRM hanno alcune caratteristiche principali e altre dipendenti dal tipo di azienda e dalla presenza di altri software gestionali, per esempio di Business Intelligence o di classe ERP. Le funzioni essenziali sono, da una parte, la raccolta dei dati sui clienti e la loro profilazione effettuata in base a criteri di segmentazione più o meno sofisticati ed utili al marketing; dall’altra, la fornitura di servizi di supporto sui prodotti tramite varie strutture socio-tecniche, come le cerchie, le chat, il co-browsing, la voice over IP, ecc. Le funzioni più evolute dei package CRM permettono di operare in modo “intelligente” sul flusso di comunicazione con i clienti, facendone una classificazione secondo gruppi più o meno omogenei o secondo modalità e consuetudini di acquisto. Molto importante è poi la rintracciabilità della storia dei singoli contatti, che permette di dare una risposta personalizzata al cliente. Sul fronte delle informazioni offerte risulta centrale il ruolo del sito aziendale, che può dare alcune risposte automatiche tramite email o più semplicemente tramite le FAQ. Anche i servizi di comunicazione tra clienti sono un servizio aggiuntivo da inserire nell’ambito del CRM. I dati che emergono dai forum, dalle chat e dalle mailing list sono di fondamentale importanza per capire le tendenze della domanda e i punti di criticità nella percezione dei prodotti da parte dei clienti.
Con l’avvento del web molte imprese hanno pensato di poter ridurre l’impegno dei call center, abbattendo (talvolta anche drasticamente), il numero degli addetti e ricorrendo a prodotti software standardizzati, ma nel tempo si è visto che le soluzioni precostituite davano risultati piuttosto parziali. Anche la gestione automatizzata delle e-mail, sia in house che in outsourcing, rende un servizio di qualità a volte scarsa. Internet rappresenta, infatti, solo un canale che deve essere personalizzato, reso il più possibile interattivo per risultare efficace e, soprattutto, essere integrato con le strutture preesistenti.
Uno degli obiettivi di questa integrazione è senza dubbio la realizzazione del mitico “one-to-one marketing”, una delle frontiere più sofisticate dell’approccio CRM, cioè la segmentazione dell’offerta di mercato in gruppi sempre più piccoli fino a raggiungere la soddisfazione del singolo cliente. Oggi gli strumenti informatici lo permettono, ma è ancora un’operazione troppo costosa e non sempre conveniente. L’one-to-one marketing rappresenta la fase più evoluta del CRM perché presuppone una corretta identificazione dei clienti dell’impresa, la classificazione in gruppi omogenei, lo sviluppo di sistemi di comunicazione interattiva con essi. Solo su questi presupposti si può innestare una vera e propria personalizzazione della relazione e dell’offerta di prodotti e servizi. L’obiettivo di un approccio di questo tipo è l’incremento della penetrazione sul singolo cliente e non l’acquisizione di nuovi clienti, che si raggiunge più facilmente con operazioni di mass marketing. Il motivo per cui c’è una certa resistenza ad attuare il marketing individuale non è tanto sull’efficacia, su cui non ci sono dubbi, quanto sulla difficoltà di quantificarne i benefici e, quindi, i relativi investimenti ammissibili. Un’azione di one-to-one CRM esprime i suoi effetti nel medio-lungo periodo perché agisce sulla fedeltà del cliente e quindi sui suoi acquisti nel tempo, piuttosto che su un aumento repentino del volume globale degli acquisti.
Nel corso dell’ultimo decennio la segmentazione si è articolata in fasce sempre più sottili, ma senza raggiungere il vero e proprio one-to-one marketing. Fanno eccezione i settori delle Telecomunicazioni e delle Banche, che più si sono avvantaggiati degli investimenti in CRM. Le difficoltà nello spingersi oltre nella segmentazione sono dovute ovviamente al numero elevato dei clienti e delle transazioni in gioco, ma anche ad ostacoli organizzativi interni alle imprese soprattutto quando si implementano diversi livelli di CRM gestiti da sistemi che acquisiscono dati senza interagire efficacemente.
Il CRM originario aveva due scopi principali: l’acquisizione di nuovi clienti, soprattutto nella fase di start up, e la fidelizzazione di quelli acquisiti, in corrispondenza di una fase più matura dell’impresa. Oggi gli applicativi di CRM perseguono obiettivi più complessi, anche perché l’ICT è un potente fattore abilitante. Si dice, infatti, che le aziende diventano sempre più “customer oriented”, ovvero si organizzano completamente intorno ai clienti: in funzione della domanda si imposta la produzione, sia in termini quantitativi che qualitativi. L’efficacia di una struttura di CRM si misura proprio sulla tempestività dell’azienda nel modificare il proprio assetto in funzione degli input che arrivano dall’esterno, soprattutto via Internet. L’offerta, dunque, si piega alle dinamiche della domanda e non viceversa. E’ un metodo efficace perché garantisce risposte più sicure anche se richiede investimenti importanti e una certa flessibilità della struttura organizzativa aziendale.
Lo scopo finale del CRM è quello di integrarsi con il Supply Chain Management (SCM), ovvero con la struttura interna della produzione e, a catena, con la rete dei fornitori. I dati provenienti dal CRM devono, infatti, essere sempre disponibili a tutti i settori dell’azienda interessati, oltre che al management. Per realizzare la perfetta condivisione delle informazioni con l’interno e/o l’esterno, le applicazioni di CRM sono costruite proprio per incapsulare e convogliare i dati tramite soluzioni di Data Management che consentono di analizzare i profili utente e di generare sistemi che adattano contenuti e interazioni sulla base dei profili-tipo individuati. Una delle tecniche più usate è il Data Mining, che elabora i dati correlati al cliente in modo da trarre azioni che permettano un reale orientamento al mercato, secondo modelli e regole statistiche. Ne esistono anche versioni avanzate (quali l’Advanced Customer Data Analysis, la Data Analysis, il Web Mining, ecc.) che formulano previsioni sul comportamento specifico del singolo cliente o del segmento di clientela. Un altro tipo di applicazioni sono quelle di Customer-Centric Data Warehousing, che realizzano basi di dati per l’integrazione e la storicizzazione dei dati aziendali sul cliente derivanti dai canali classici o dal canale web, integrando in un’unica struttura informativa tutte le informazioni raccolte. I Customer Reporting e i sistemi On-Line Analytical Processing (OLAP) descrivono, invece, il comportamento di aggregati di clienti, costruendo moduli di Query & Reporting e analisi multidimensionali.
Questi sistemi software, che rappresentano l’anima analitica del CRM, rientrano tutti nella super-classe della Business Intelligence; i più sofisticati consentono anche di attivare degli “alert” che richiamano l’attenzione su elementi che possono segnalare la presenza di situazioni critiche. Tutti devono poi integrarsi con gli applicativi gestionali (di tipo Best-of-Breed integrato o suite ERP), possibilmente della stessa famiglia o che almeno usino lo stesso tipo di database.
Secondo gli studiosi e gli analisti di Marketing, il CRM costituisce uno dei più importanti fattori critici di successo in ogni area di business. In effetti, ogni impresa riscontra oggi che è sempre più difficile competere sul piano dell’innovazione visto che le soluzioni, i programmi e le tecnologie sono tutto sommato clonabili e sovrapponibili nel tempo. Bisognerà, perciò, puntare sempre di più sulla relazione con i propri clienti attuali, una risorsa fondamentale e da “coltivare” con cura. Il modo di gestire la relazione e le informazioni che derivano da questo rapporto sono beni unici e non replicabili dai competitor. Inoltre, la crescita della massa informativa legata ad operazioni di marketing, alla maggiore di disponibilità di contenuti “editoriali” generati dai diversi media, così come allo sviluppo di nuovi canali di comunicazione, porterà necessariamente alla moltiplicazione e alla segmentazione delle esigenze dei consumatori.
Si è ribadito più volte che il CRM ha come obiettivo anche l’aumento della durata del rapporto con l’utente e il potenziamento del “valore” del cliente, ovvero della sua capacità di produrre maggiori entrate per l’impresa, rispondendo alle proposte di nuovi beni/servizi. Da diverso tempo ne stanno facendo uso soprattutto gli operatori di telefonia mobile, che hanno a disposizione uno strumento efficace di ricezione dei dati sui consumi – le SIM card – che registra continuamente le informazioni sull’uso dei servizi. La telefonia – e tutto ciò che c’è di inerente, afferente e consequenziale – ha lo straordinario vantaggio di poter avviare un canale diretto di comunicazione con il cliente (tramite contact center, sms, ecc.) che si va ad aggiungere al sito web. Il solo limite di questo genere di CRM è ovviamente la privacy, perché è difficile distinguere tra le informazioni che la società di telefonia raccoglie per uso interno da quelle che ledono il diritto alla riservatezza sulle informazioni sensibili. Il crescente bisogno dei reparti di marketing di elaborare promozioni e offerte sempre nuove farà aumentare la puntualizzazione delle registrazioni fino alla creazione di profili dinamici, realizzati in funzione dei cambiamenti dei consumi. Si può immaginare, dunque, quanto sia importante l’esigenza di sviluppare un marketing non invasivo, di tipo “permission based”, ideato come un servizio per il cliente, che deve, a sua volta, percepirlo come un valore aggiunto piuttosto che come un’intrusione.
Proprio come nel CRM realizzato con i mezzi tradizionali, come rete di venditori e call centre, il punto debole di ogni progetto di fidelizzazione è la qualità dei contenuti e del servizio. Non ha senso – anzi, ne ha uno negativo – aprire un canale di comunicazione con i clienti per poi non avere niente da dire o persino dire cose sbagliate. Con Internet il problema del controllo sulla qualità aumenta perché il flusso di informazioni è maggiore. Il rischio è quello di investire in infrastrutture e software per poi sbagliare il messaggio. Un altro errore possibile è di essere troppo concentrati sulla raccolta dei dati invece che sulla fornitura di un servizio aggiunto. Sono importanti sia la capacità di ascolto sia la tempestività delle risposte, ma uno degli ostacoli più diffusi nella realizzazione di progetti di supporto del CRM si rileva nelle risorse umane. Molto spesso, infatti, gli applicativi devono essere usati da esperti dei reparti marketing e vendite che non hanno le competenze tecniche e informatiche necessarie a sfruttarne in pieno le potenzialità. Una risposta può venire dall’outsourcing: sono moltissime, infatti, le aziende che offrono servizi di CRM come la raccolta delle domande dai clienti (consigli, lamentele e segnalazioni varie), l’organizzazione delle risposte standard, le campagne speciali di informazione tramite mailing list, l’assistenza, l’invio di documentazione, la gestione servizi personalizzata, ecc. E’ anche possibile misurare il feedback su azioni specifiche, valutarne subito il ritorno, con opportunità di retroazione rapida.
Per concludere, non resta che ribadire che la carenza di buone relazioni con i clienti ha un impatto fortemente negativo sui risultati aziendali. I cicli di vendita e quelli decisionali risultano prolungati; le frizioni che si determinano lungo la supply chain riducono il livello di soddisfazione dei clienti e minacciano il processo di fidelizzazione, due minacce che, nell’attuale quadro economico, sono assolutamente da stigmatizzare e contrastare.
Mentre un tempo era impensabile personalizzare le strategie di marketing e di vendita dei propri prodotti nei confronti di ogni singolo cliente, oggi gli strumenti di supporto del CRM offrono in tal senso nuove opzioni e opportunità.
Diversi sono i vantaggi competitivi che i sistemi CRM possono realizzare. In termini di valore finanziario, la gestione del rapporto con il cliente favorisce un aumento delle entrate per cliente e sostanziali miglioramenti in termini di produttività. A livello organizzativo, le applicazioni CRM contribuiscono ai processi aziendali associando i servizi e il supporto post-vendita alle operazioni di vendita e marketing. Per quanto concerne le vendite, l’implementazione di un sistema CRM consente a chi lo adotta di presentare ai propri clienti un’offerta personalizzata.
Infine, in termini di posizionamento sul mercato, forniscono alle aziende un significativo elemento di differenziazione e un indiscusso vantaggio competitivo.
di Gian Franco Stucchi
Un Caffè Sospeso da gustare, insieme a Gian Franco Stucchi, in un tour guidato tra i business object alla ricerca di qualche certezza in un mondo in perenne formazione
Non è mai esistito, nella breve ma tumultuosa storia delle tecnologie dell’informazione, un momento come quello attuale caratterizzato dalla concentrazione di una molteplicità di condizioni estremamente favorevoli per l’attuazione di un mutamento paradigmatico nello sviluppo del software applicativo.
Le metodologie, le architetture, gli indirizzi strategici, le visioni tecnologiche e gli approcci organizzativi stanno confluendo in un unico punto virtuale, nel quale si accumulano ed interagiscono creando fenomeni di risonanza e pervasività. La tecnologia degli oggetti (OT), le architetture distribuite, i database multidimensionali, i sistemi OLAP (On Line Analytical Processing) e la ripatizione delle applicazioni e dei dati sono solo alcuni degli indirizzi tecnici emergenti.
Le direzioni funzionali lungo le quali si articola lo sviluppo dei sistemi economici e sociali evidenziano una tendenza alla focalizzazione degli obiettivi strategici su pochi elementi chiave, all’appiattimento delle strutture, all’eliminazione delle barriere burocratiche, ed enfatizzano le comunicazioni tra varie entità, le attività svolte in collaborazione ed operanti secondo una logica globale di tipo pull (trainata dal mercato), sostitutiva della precedente di tipo push (spinta dall’interno).
Uno dei concetti più significativi, dal punto di vista dello sviluppo del software applicativo, è quello di business object (BO), particolarizzazione dell’idea di “oggetto” ed elemento costruttivo fondamentale delle nuove soluzioni applicative gestionali. Il vantaggio principale dei BO consiste nella riduzione del grado di difficoltà insito nella modellizzazione dei processi di business e nella possibilità di creazione di un alveo favorevole ad una transizione, uniforme e non traumatica, dal modello concettuale astratto dell’entità o del processo in esame alla sua implementazione fisica.
Il termine “oggetto” vaga da molto tempo nel mondo delle tecnologie dell’informazione ma solo recentemente è uscito dagli ambienti di nicchia, collocandosi nel cosiddetto mainstream tecnologico. Anch’esso, come il termine “sistema”, è inflazionato e logorato dall’uso improprio che spesso ne viene fatto dalla letteratura più o meno specialistica e dal marketing di talune case produttrici.
L’idea fondamentale dell’OT, dal punto di vista dello sviluppatore, consiste nella rappresentazione di un’entità reale con un oggetto, cioè con un unico modulo software – sicuro, robusto, compatto ed autoconsistente – che incapsula sia lo stato di un’entità (i dati) sia i suoi possibili comportamenti (i metodi). Non tutti gli oggetti hanno lo stesso scopo: per progettare le applicazioni gestionali, gli oggetti possono essere divisi in due categorie: gli application object ed i business object.
Un application object è un oggetto che realizza una generica infrastruttura di programmazione e viene utilizzato per costruire il substrato operativo di una soluzione applicativa. In questa classe rientrano, ad esempio, gli oggetti impiegati per la creazione delle interfacce grafiche, per l’esecuzione delle funzioni di ordinamento o di sequenzializzazione delle informazioni, per la realizzazione delle applicazioni query SQL, etc.
Un business object è la rappresentazione di un elemento di rilevanza aziendale e costituisce, come tale, una cristallizzazione di un frammento della conoscenza aziendale. Una working definition derivata da quelle proposte dal BOMSIG (Business Object Management Special Interest Group) dell’OMG (Object Management Group, un consorzio al quale appartengono diverse centinaia di imprese IT) è la seguente:
“Un BO è la rappresentazione di un’entità di business attiva ed è costituito, almeno, da un nome, da una definizione e da un insieme di attributi, comportamenti, relazioni e vincoli. Un BO può rappresentare, per esempio, una persona, un luogo, un concetto. La descrizione di un BO può essere espressa in un linguaggio naturale, in un linguaggio formale di modellizzazione o in un linguaggio di programmazione.”
Secondo questa definizione, tipici BO sono i clienti, i fornitori, gli ordini, le fatture, i prodotti, i magazzini, i cespiti, etc. Le mutue interazioni tra i BO, innescate da eventi con una significatività aziendale, compongono i processi che modellano il sistema impresa (gestione degli ordini, fatturazione, carico a magazzino, gestione dei cespiti, gestione dei flussi di cassa, etc). Le entità che originano i BO sono le funzionalità richieste in azienda, le relazioni tra queste, i processi di business e gli eventi.
Un BO può essere concepito come un blocco rappresentativo di funzionalità applicative che viene dislocato ed utilizzato in contesti differenti – sia come elemento indipendente, sia in congiunzione con altri BO – per fornire servizi informativi agli utenti. Le funzionalità applicative in un’azienda possono essere generate da varie fonti, ma assumono due nature: sono tangibili, ovvero sostenute e documentate da un medium dotato di consistenza fisica (le informazioni cartacee o elettroniche), o intangibili, cioè si stabiliscono tra le varie entità aziendali solo per il fatto che queste emergono ed interagiscono nello svolgimento dei processi.
Le funzionalità tangibili sono tali proprio perché sono state individuate con precisione e rappresentate, tramite un mezzo fisico univocamente accettato, sia in modo formale sia in modo informale. Esse si riferiscono ad attività che, di norma, sono di tipo operativo e a questa categoria si possono far risalire, per esempio, gli ordini di acquisto o di vendita, i resoconti finanziari, le fatture, le comunicazioni interne, la posta (elettronica o cartacea) in arrivo o in partenza, etc. Le funzionalità intangibili sono più sottili e delicate poiché, spesso, sono relative a processi e relazioni essenziali per la sopravvivenza e la competitività dell’azienda (le cosiddette attività mission-critical).
Per quanto concerne le altre due entità generatrici di BO, si osservi che i processi riguardano tutta la gestione aziendale, coinvolgendo gli ordini, le vendite, la produzione, il controllo della qualità, le transazioni finanziarie, la logistica in entrata ed in uscita, etc.; le relazioni emergono naturalmente poiché l’azienda, in quanto sistema economico-sociale aperto e comunicante, stimola la nascita di interazioni tra le risorse umane, i clienti, la forza commerciale, etc.
I BO possono essere costruiti anche intorno agli eventi più significativi della vita aziendale, quali: la chiusura mensile o annuale dei conti, il lancio di una nuova campagna di marketing, l’attivazione di una particolare linea di credito, etc. In questo caso essi non rappresentano funzionalità o processi o relazioni, bensì avvenimenti, talvolta eccezionali, ritenuti di rilevanza essenziale per la gestione aziendale.
Qualunque entità rappresentino, i BO sono, dal punto di vista dello sviluppatore, delle strutture informative che incapsulano in un modulo software le regole e le relazioni che intervengono nei processi aziendali: le regole determinano i comportamenti degli oggetti nel loro contesto ambientale (di business); le relazioni (anche conflittuali) si originano in funzione dell’interazione di un oggetto con le entità ambientali (altri oggetti o utenti o eventi) e stabiliscono le potenzialità dell’oggetto.
Lo studio dei BO, esaurita la componente definitoria, può concentrarsi su un insieme di caratteristiche, la composizione del quale è molto varia in funzione del grado di approfondimento dell’analisi e del retroterra culturale dell’analista. In questa trattazione si considerano quattro proprietà – da intendersi come “cardinali”, cioè fondamentali per lo studio successivo – che, data la loro immediatezza, possono contribuire ad illuminare il neofita nella comprensione dei BO.
Una delle caratteristiche principali di un oggetto, che riguarda la sua composizione, è il grado di granularità, una valutazione dell’articolazione strutturale interna che può assumere almeno tre valori crescenti: componente, contenitore o composito (o composto).
Un oggetto è detto componente quando si ritiene che possa essere utilizzato nella costruzione di un altro BO (questo concetto è simile a quello di subroutine utilizzato in programmazione). Gli oggetti componenti non sono necessariamente oggetti banali: essi possono spaziare dal semplice calcolo di uno sconto per quantità ad una procedura di controllo del credito per giungere sino ad un’analisi di profittabilità realizzata con sofisticati metodi matematici. Il tratto distintivo principale di un oggetto componente è la sua transitorietà: essi sono attivati da un input, lo elaborano, producono un output e si riportano in uno stato di quiescenza. Ne discende che il contributo che apportano alla conoscenza dei problemi aziendali è frutto solo del periodo di attività del comportamento dell’oggetto.
Un oggetto contenitore avvolge, gestisce e contiene altri BO ed è, dunque, un tipo di oggetto appartenente ad una categoria di complessità superiore alla precedente, poiché incapsula in sé almeno la somma delle conoscenze degli oggetti contenuti incrementata di un’ulteriore quota dovuta alle modalità di interazione e di gestione dei componenti. Un buon esempio di un oggetto contenitore è costituito dai documenti composti da testi, grafici, tabelle di calcolo, immagini e suoni, quali sono i compound document resi disponibili dai maggiori produttori di software. A rigor di termini, un contenitore non è un vero BO poiché il suo scopo consiste nell’armonizzazione di una complesso di oggetti, coordinandone i comportamenti ma prescindendo dal contesto (si veda nel seguito il significato di questo termine). Questo non significa che non sia possibile costruire delle applicazioni, anche potenti, tramite i contenitori ma che la responsabilità della comprensione del contesto implicato dall’oggetto è demandata all’utente.
Gli oggetti compositi sono l’espressione più alta della granularità e costituiscono gli esempi più emblematici della categoria dei BO. Un oggetto di questa specie è costituito da componenti, contenitori e da una certa quota di intelligence che rendono la combinazione molto più potente ed espressiva della semplice “addizione” delle parti. Si ottiene un fenomeno sinergico simile a quello di certe leghe metallurgiche, che presentano delle caratteristiche fisiche e chimiche notevolmente superiori alla semplice combinazione lineare di quelle corrispondenti dei materiali elementari.
La seconda caratteristica dei BO, precedentemente accennata ma lasciata all’interpretazione intuitiva, è quella del contesto. Con questo termine si intende la posizione di un oggetto in un processo di business oppure il ruolo che esso gioca nella costruzione di un BO contenitore. Ben pochi BO hanno una significatività in uno stato di perfetto isolamento ambientale: essi, non avendo alcuna rilevanza agli effetti dei processi aziendali, sarebbero completamente inutili e la loro esistenza risulterebbe ingiustificata. Talvolta questa singolarità esistenziale potrebbe essere addirittura dannosa poiché contribuirebbero ad aumentare il “rumore ambientale”: l’esistenza di un BO è giustificata solo nel contesto di un processo ed in relazione con gli altri BO che vi partecipano.
I BO, come tutte le entità rappresentative dei fenomeni reali, sono dotati di un’altra caratteristica inalienabile: il ciclo di vita. Una volta creato, un BO inizia il suo ciclo vitale cambiando il proprio stato ed è importante comprendere le implicazioni di questa evoluzione, poiché ogni transizione può innescare degli eventi che influenzano sia l’oggetto sia stesso sia quelli a questo correlati nei processi di business.
L’ingresso dell’OT nel mainstream tecnologico ha creato molte aspettative da parte del mercato, sostenute ed attivate dai “boatos” di marketing. In realtà, pur essendo l’OT una disciplina che data dal lontano 1967, con la definizione del linguaggio Simula, molto spesso i conclamati “plug-and-play” si trasformano in strazianti “plug-and-pray” (dopo essere transitati, tutti, nello stato “plug-and-pay”). Queste delusioni sono originate, soprattutto, dalla superficialità degli approcci adottati per attualizzare il paradigma proposto dall’OT in una certa realtà aziendale, spesso caratterizzata da una cultura d’impresa inadeguata all’innesto tecnologico. Nonostante ciò, l’OT non è l’ennesimo sogno di visionari, bensì una mondo in creazione e consolidamento intorno ad un nucleo di concetti, di proposte e di soluzioni standard che agiscono da catalizzatori per l’interoperabilità.
Dal punto di vista commerciale, l’OT viene ampiamente utilizzata, da molti anni, in diversi settori ed in primo luogo quelli di natura strettamente tecnologica. Sono molti, infatti, i moduli appartenenti alla categoria del software di base o dei tool di sviluppo avanzati (CASE, CAD, CAM, CAE, Sistemi Operativi) concepiti e realizzati impiegando l’OT. I BO, in particolare, possono trovare vasti campi d’applicazione nella creazione di sistemi software complessi, realizzando in tal modo i concetti dell’attuale corrente filosofica imperante nel mondo dello sviluppo applicativo: la composizione per parti (o per componenti) del software. I BO si propongono, infatti, come candidati ideali per lo sviluppo di applicazioni wrapper atte a recuperare, in ottica OT, i sistemi software sviluppati in passato (i legacy system). Essi, inoltre, possono essere utilizzati per la costruzione di “mini-applicazioni” autoconsistenti (simili alle app diffusissime nel mondo del Mobile Computing) destinate ad operare singolarmente o in armonia con altri moduli software.
Un altro impiego dei BO può essere individuato nella costruzione di librerie di classi, una sorta di collezione di “matrici software” alla quale attingere per costruire oggetti complessi grazie alle trasformazioni di generalizzazione o specializzazione. Questi oggetti-archetipo, acquistati o costruiti e perfezionati nel tempo, diventeranno presumibilmente un asset aziendale, poiché, se adeguatamente ingegnerizzati, si propongono come gli elementi portanti per il consolidamento del patrimonio di conoscenze dell’impresa, la vera arma competitiva con valenza strategica del futuro.
Affinché possano campionare in modo adeguato la realtà, i BO però devono possedere alcune caratteristiche fondamentali in termini di generalità e di sicurezza.
Innazitutto i BO sono delle entità condivise da una notevole quantità di applicazioni eterogenee e da una molteplicità di utenti con esigenze informative diverse. Per esempio, un oggetto che rappresenta un ordine di vendita è un’entità interessante per vari dipartimenti aziendali, quali l’area delle vendite, la produzione, il marketing, l’amministrazione. E’ facile immaginare, dunque, che la descrizione dell’oggetto, consolidata nella classe dalla quale questo deriva, debba essere estremamente esaustiva per rappresentare tutti gli aspetti organizzativi indotti dai vari processi di business.
Appunto perché sono entità condivise – e, spesso, vitali per l’azienda – sia i BO stessi sia l’ambiente operativo che li sostiene devono essere garantiti da un adeguato meccanismo di sicurezza, articolato su vari livelli. Si rendono necessari, per esempio: degli schemi di autenticazione e di autorizzazione; dei meccanismi di controllo delle versioni; dei sistemi di firewall anti-intrusione, sia questa accidentale o intenzionale; un ambiente operativo fault tolerant generalizzato e coerente tra le varie piattaforme applicative; un tool di system management sofisticato e sensibile che sappia intercettare in tempo utile tutte le anomalie e reagire in maniera anticipatoria.
Dal “brodo primordiale” dell’OT stanno emergendo forme di vita superiore. Affinché questo sforzo evolutivo abbia successo, esso deve essere sostenuto e protetto da tutti gli attori che interpretano un ruolo decisivo sul mercato delle tecnologie dell’informazione. Utenti, sviluppatori e case produttrici devono partecipare congiuntamente allo sviluppo dell’OT, coagulando l’interesse e gli indirizzi di ricerca e sviluppo intorno alla definizione ed alla realizzazione di standard terminologici, concettuali ed operativi che consentano la massima interoperabilità – o meglio, la massima interscambiabilità – tra i prodotti e le soluzioni applicative. Questa è una questione vitale per ogni evoluzione tecnologica: le imprese sono oberate da problemi di business e mostrano una crescente insofferenza nei confronti di tecnologie che, pur proclamandosi innovative, producono, in realtà, un incremento della complessità dei problemi piuttosto che contribuire alla realizzazione efficiente dei processi di business.
Gian Franco Stucchi
Molte imprese stanno spostando sul web le tradizionali applicazioni aziendali, collegando i sistemi di back-office con gli ambienti online.
In questo contesto nascono nuove esigenze, prendono vita complesse architetture informative eterogenee e sistemi di supporto decisionale avanzati, come quelli descritti da Gian Franco Stucchi in questo Caffè Sospeso.
Durante la seconda metà del ventesimo secolo, diversi paesi, prevalentemente appartenenti al Mondo Occidentale, sono passati da un’economia basata principalmente sulla produzione ad una struttura economica e sociale sempre più regolata – e condizionata – dall’informazione.
Analizzando il comportamento delle imprese, si è osservato che i manager hanno riconosciuto le conseguenze logiche del cambiamento paradigmatico sottostante, ovvero che le informazioni erano (e sono) una risorsa essenziale, seconda solo al capitale ed alle risorse umane in termini di importanza per le aziende.
Le informazioni si possono definire, in prima approssimazione, come “dati contestualizzati”, cioè come espressioni di grandezze quantificabili e misurabili calate in un certo contesto che ne esalta le potenzialità rappresentative.
Nel corso dell’ultimo ventennio, complici le economie di scala realizzate grazie al progresso scientifico, si è diffusa un’ampia gamma di prodotti e di tecnologie volte a facilitare l’ottenimento di dati oggettivamente o soggettivamente significativi da parte dei quadri direttivi di staff e di line, dell’alta direzione o della proprietà, dei responsabili dell’IT e, in generale, di altri “soggetti decisionali”.
Accanto a questo fenomeno se ne è diffuso un altro, strettamente correlato alla mission di supporto dei processi decisionali tanto da apparire come un corollario di questa: l’estensione delle funzionalità native dei tool atti a sostenere e abilitare lo scambio di informazioni tra i “tunnel e i silos” aziendali, mappandone – se necessario – la struttura, ma semplificando, ove possibile, l’assemblaggio e l’integrazione di informazioni di natura eterogenea per generare un valore aggiunto.
Tra la miriade di definizioni dei sistemi di supporto decisionale (DSS), una delle più datate è la seguente “Un DSS è un’efficace fusione di intelligenza umana e tecnologie dell’informazione che interagiscono fortemente tra loro per risolvere problemi complessi”.
Già ai tempi di questa definizione – risalente ai primi anni Ottanta del XX Secolo ma ancora validissima nella sua essenzialità e priva di orpelli o vincoli pubblicitari in quanto non coniata dalla Consulting Firm di moda – si poteva osservare che le realizzazioni di tipo DSS erano confinate essenzialmente nell’area della definizione e della comprensione di un problema aziendale.
Oggi sarebbero qualificate come tali le soluzioni destinate, in particolar modo, al supporto della Business Intelligence (BI), un termine-ombrello introdotto nel 1989 dall’analista Howard Dresner (http://www.dresneradvisory.com/) per descrivere un insieme di concetti e metodologie atte a sostenere i processi decisionali.
La maggior parte dei prodotti appartenenti a questa classe supporta anche alcune tecniche di esplorazione e d’analisi dei dati indipendentemente dal formato di questi, consentendo la conversione di dati grezzi in informazioni e di informazioni in conoscenza.
Di recente sono avvenuti profondi cambiamenti.
I prodotti e le tecnologie di BI vengono oggi impiegati in modi che vanno ben al di là del loro ruolo classico, in particolare si opera in ambiti legati alla cosiddetta Net Economy o ai Social Network. Infatti, la BI svolge un ruolo determinante nell’analisi del comportamento dei clienti consentendo così di tarare le strategie di e-commerce e di costruire portali “accattivanti”, atti a sostenere le nuove funzionalità delle suite ERP avanzate (o estese) e una miriade di strategie di marketing mirato. La popolarità, l’economicità e il grado di usabilità dei tool di BI è tale che sono accolti con favore anche da quella classe di utenti finali che in passato li osteggiava poiché o li giudicava troppo complessi, oppure li riteneva dei “concorrenti informatici” del decisore umano (atteggiamento luddista di chi teme a priori l’ICT). In virtù di questo trend, si prevede che il mercato di tali strumenti sarà destinato a crescere sempre più, tanto che le principali società di analisi profetizzano notevoli espansioni di molte aree di business.
Per capire come e perché gli strumenti di BI siano soggetti a questo fenomeno espansivo, è importante prendere esame l’evoluzione storica e i criteri che vengono adottati in fase di selezione dei dati da parte di questi tool. La dizione “strumenti di Business Intelligence” non sarà forse adeguata ma ha il vantaggio di riunire una vasta gamma di prodotti con background storici diversi sotto il termine-ombrello di Dresner.
Nel tempo, e per ogni variazione dei vari “paradigmi” che regolano il moto dell’universo ICT, nuovi prodotti di BI sono apparsi sul mercato, mentre quelli esistenti sono stati ridefiniti ed estesi per offrire nuove funzionalità e per essere applicati in nuovi contesti. Esistono tuttavia delle caratteristiche che differenziano le varie classi di prodotto e, in misura più o meno estesa, determinano la capacità di questi strumenti d’essere applicati a nuovi domini funzionali.
Nella tassonomia regna ancora una certa confusione. Seppure datata e di origine accademica – il che per alcuni è un handicap nativo – una classificazione delle varie realizzazioni di sistemi di supporto decisionale opera una distinzione tra i diversi tipi in base al grado di complessità della realizzazione e al livello di ausilio che possono offrire ai decisori. Secondo questa visione, i DSS si possono ripartire in tre grandi famiglie: orientati ai dati, orientati ai modelli e di natura logica. Questa classificazione – che incorporava di fatto i sistemi di BI nei DSS, pur non prevedendoli esplicitamente dato che allora non erano ancora stati “battezzati” – venne sostituita da un’altra, che prevedeva la prevalenza della portata della BI su quella dei DSS e quindi postulava che gli strumenti di BI potessero essere suddivisi in due gruppi distinti: EIS (Executive Information System) e DSS.
Gli strumenti EIS creavano applicazioni destinate sostanzialmente come supporto decisionale a responsabili aziendali privi di particolari competenze tecniche che avevano bisogno di esplorare dati a vari livelli di dettaglio e analizzare dati riassuntivi. I sistemi EIS venivano solitamente eseguiti su mainframe o server “corposi”, erano costosi (mediamente pari 100 mila dollari per il solo componente server) e di proprietà esclusiva della direzione aziendale. Gli strumenti DSS, destinati invece ai knowledge worker più tecnici, supportavano l’accesso ai dati strutturati ad hoc, rendevano disponibili delle tecniche di data analysis anche piuttosto avanzate ed erano relativamente a buon mercato.
Questa divisione tra strumenti EIS e DSS venne via via sfumando per una serie di cambiamenti verificatisi nel mercato come risultato di tendenze tecnologiche e organizzative complementari, quali la diffusione dei modelli di elaborazione distribuita e l’appiattimento delle strutture gerarchiche aziendali con la successiva comparsa di unità organizzative autonome, responsabili dei propri risultati e, per questo, con un potere decisionale anche notevole.
Manager aziendali e knowledge worker oggi richiedono un accesso diretto e immediato ai dati aziendali per poter aumentare l’efficacia del proprio agire e la competitività delle proprie unità organizzative, esattamente come l’alta direzione aveva bisogno di informazioni per l’assunzione di decisioni strategiche per l’intera azienda (necessità che ovviamente permane). Inoltre, per restare competitivi, gli strumenti EIS sono stati adattati per essere eseguiti anche in ambienti computazionali distribuiti (client/server) e, in seguito, anche dispersi e mobili (via Internet), con conseguenti riduzioni dei costi. Nel corso di questi cambiamenti sono comparse nuove generazioni di prodotti composti (di query e reporting) in ambiente distribuito: pur essendo principalmente strumenti di reporting, anche questi, come gli strumenti EIS e DSS, semplificavano gli accessi ai database, potevano creavano applicazioni di lettura dei dati e fornivano anche rudimentali funzionalità di analisi.
Non sorprende dunque che gli strumenti EIS/DSS e gli strumenti di query/reporting si siano evoluti separatamente in una nuova classe di prodotti in grado di offrire sia funzionalità analitiche che di reporting, replicando un fenomeno biologico noto con il nome di “evoluzione convergente”. La possibilità di essere eseguiti via Web e la facilità di utilizzo sono oggi gli aspetti fondamentali per tutte le classi di prodotti, e determinanti in fase di selezione.
Dato che lo scopo degli strumenti di BI è di consentire agli utenti aziendali di analizzare, manipolare, generare informazioni operando su altre informazioni o dati tramite interfacce familiari e intuitive, ovviamente i risultati dei processi di elaborazione (normalmente detti di data mining) devono essere presentati poi in un modo da consentire ai responsabili aziendali di comprenderli. Sfortunatamente per l’utente non specialista, nei sistemi di gestione dei database relazionali i dati sono strutturati in righe e colonne all’interno di varie tabelle e vengono rigorosamente normalizzati per prevenire le ridondanze, garantire l’integrità referenziale e consentire un alto grado di flessibilità nell’accesso controllato alle strutture dati. Queste poi sono (quasi) facilmente comprensibili da parte del Basso e dell’Alto Clero addetto alle cure del Sacro Database Aziendale (MIS Manager, Database Administrator e le legioni degli IT professional), ma offrono ben poche informazioni agli utenti aziendali, molto volenterosi ma spesso con conoscenze d’informatica d’impresa piuttosto scarsa.
Tutte le scuole di pensiero della BI concordano nel ritenere che gli utenti devono poter disporre di viste logiche sui dati estremamente articolate, in formati riassuntivi, a “campi incrociati”, che supportano le analisi comparative. In pratica esistono due diversi approcci alla presentazione di informazioni comprensibili agli utenti aziendali: il primo prevede l’archiviazione multidimensionale dei dati; il secondo metodo richiede l’impiego di strutture di dati normalizzati da costruire in una vista nella quale tali dati vengono associati direttamente alla rispettiva rappresentazione aziendale originale.
I database multidimensionali (MDBMS) memorizzano i dati in matrici insieme ai rispettivi attributi o “dimensioni”, quali prodotto, ora, costo, diffusione geografica, vendite e così via. Dato che in un archivio di dati multidimensionali possono esistere molte dimensioni, gli archivi vengono spesso denominati “ipercubi” o “cubi”. I vendor di strumenti di BI che supportano i database multidimensionali possono essere distinti in base al modo con il quale gestiscono dati sparsi o densi (se i dati nell’ipercubo sono per lo più vuoti, il cubo è detto “sparso”), e al modo con cui i cubi vengono memorizzati su disco. La maggior parte dei vendor utilizza complessi algoritmi di indicizzazione, di hashing e di compressione per ridurre i volumi in gioco ed ottimizzare l’accesso ai cubi. Altri vendor adottano un approccio più “brutale”, scrivendo i cubi direttamente su disco (sotto forma di matrici multidimensionali).
Poiché i cubi richiedono n indici per n dimensioni, questa caratteristica limita la dimensione dei cubi implementati in questo modo.
Un altro approccio, che consente agli utenti di visualizzare i dati in termini familiari, consiste nel fornire rappresentazioni multidimensionali di database relazionali creando “viste logiche” multidimensionali di dati relazionali. I vendor hanno infatti aggiunto ai loro strumenti un livello di metadati che nasconde agli utenti la struttura fisica del database normalizzato e associa i termini aziendali alla corrispondente rappresentazione del database sottostante. Ciò è ottenuto combinando diverse tabelle in una singola tabella logica e associando nomi di tabelle e campi agli equivalenti elementi descrittivi. Diversi vendor utilizzano anche indici multidimensionali e tabelle di hashing, oltre all’SQL ottimizzato, per aggirare i colli di bottiglia delle prestazioni.
Gli strumenti disponibili possono essere ulteriormente suddivisi in base alla capacità di estrarre informazioni da database o da data warehouse per trasferirli in database locali di dimensioni inferiori (relazionali o multidimensionali) disponibili anche su desktop. Questi tool possono alimentare le fonti locali di dati per creare dei report, eseguire operazioni di “data drilling”, di “what-if analysis” e altre attività statistico-matematiche, dettate dalle più svariate tecniche di simulazione e previsione. Alcuni strumenti non prevedono meccanismi per la memorizzazione dei dati specializzati ma solo viste multidimensionali di strutture dati transazionali o data warehouse, mentre altri prevedono nativamente archivi relazionali propri, in grado di contenere le informazioni estratte dai database istituzionali (operazionali o componenti di data warehouse o data mart).
Una terza classe di strumenti si occupa invece di estrarre sottoinsiemi di dati relazionali e di memorizzarli in strutture multidimensionali. Queste estrazioni multidimensionali si differenziano da un MDBMS completo nel senso che avvengono solitamente in ambiente locale (su un desktop), sono limitati a piccoli volumi di dati (spesso tutte le celle dell’ipercubo vengono memorizzate su disco senza alcuna indicizzazione o hashing) e sono privi di alcune funzionalità MDBMS avanzate.
La quarta classe di strumenti di BI comprende database multidimensionali di fascia alta, solitamente basati su server potenti, che vengono popolati con complesse estrazioni da database operazionali e data warehouse. Sono queste le strutture informative dedicate al complesso mondo dei Big Data (che presto racconteremo)
In conclusione, è ormai un fatto acquisito che il processo di estrazione di informazioni significative dai filoni cognitivi disponibili si sta facendo, da un lato, sempre più urgente, e, dall’altro, sempre più complesso, data l’articolazione e la continua espansione delle strutture informative, delle reti di interconnessione e dei tassi di produzione di dati eterogenei. Il rumore informativo che permea il cosiddetto “cyberspazio” nel quale siamo immersi rende l’analisi della realtà difficile da interpretare poiché prima di poter accedere a informazioni significative bisogna imparare a navigare in ambienti caotici.
Per ottenere delle informazioni dai dati disponibili si deve ricorrere a soluzioni sempre più scientifiche, raffinate e articolate, ma tali da consentire di accedere e integrare i dati provenienti da fonti diverse, analizzarli in maniera interattiva e, quindi, utilizzarli per la creazione della conoscenza e il supporto decisionale.
Ma questo non è che l’inizio: chissà cosa ci riserverà la Data Science (un’altra materia antica ma dal nome fresco di conio).
State connessi…
Gian Franco Stucchi
Il tipico cliente di e-business dispone di un notevole potere, conferitogli dalle informazioni, che gli consente di pretendere elevati livelli di servizio, una sofisticata personalizzazione dell’offerta ed una reattività immediata da parte dei fornitori e dei partner-in-business. E’ un complesso articolato di forze descritto in questa puntata de Il Caffè Sospeso da Gian Franco Stucchi
Una strategia d’impresa che prenda in seria considerazione l’e-business è ormai una caratteristica comune a tutte le aziende. Innescato da Internet, in fondo un fenomeno tecnologico, l’e-business ha trasformato il mondo delle aziende, eleggendo a proprio sovrano il cliente, soprattutto di alto profilo e tecnologicamente avanzato (oltre che attrezzato). Il tipico cliente di e-business, sia esso un consumatore finale (B2C) o un’azienda (B2B), dispone infatti di un notevole potere, conferitogli dalle informazioni, che gli consente di pretendere elevati livelli di servizio, una sofisticata personalizzazione dell’offerta ed una reattività immediata da parte dei fornitori e dei partner.
Questo cambiamento paradigmatico del mercato sta causando effetti notevoli sulle aziende di produzione, anche su quelle che subappaltano a terzi le operazioni di produzione dei beni, pur restando responsabili dei prodotti di fronte al cliente. Il cliente di e-business è molto “attento” al rapporto: chiede prodotti sempre più personalizzati, tempi di consegna sempre più rapidi ed un accesso immediato (e seamless, senza “traumi”) allo stato dei propri ordini: in definitiva si aspetta che le aziende che svolgono la propria attività sul Web soddisfino al meglio le sue richieste dato che questa è la “promessa” (o la scommessa?) dell’e-business.
Per avere successo le aziende devono elevare i loro gradi di velocità, flessibilità e trasparenza sia a livello di sistemi di back-end che di processi di evasione degli ordini. Ne discende l’esigenza di nuovi sistemi informativi di stabilimento in grado di supportare i nuovi requisiti produttivi indotti dall’e-business.
Con la riduzione del ciclo di vita dei prodotti e la possibilità, data ai clienti, di configurare e personalizzare il prodotto desiderato al momento dell’ordine (affermazione del modello Build To Order o BTO), le operazioni di evasione si basano sempre più sulla capacità di produzione dell’azienda anziché su quella di stoccaggio. Tuttavia molte imprese presentano una grave discontinuità nella “pipeline” informativa, dato che il software per la gestione aziendale e quello di sostegno delle operation logistiche/produttive risulta privo di adeguate funzionalità a livello di stabilimento.
Addirittura gli stabilimenti di produzione dotati di sistemi meno recenti (i legacy system) si rivelano costellati di veri e propri “buchi neri” informativi, creando in tal modo una lacerazione significativa nel flusso ininterrotto di informazioni (di prodotto e di processo), una risorsa fondamentale per il successo dell’e-business. Per rimediare alla “sindrome da buco nero” è necessario dotarsi di sistemi di stabilimento in grado di supportare nuovi livelli di flessibilità, di trasparenza delle informazioni, di comunicazioni immediate, di alta affidabilità e standardizzazione. La maggior parte dei sistemi IT di stabilimento e delle architetture attualmente esistenti non sono ancora in grado di garantire pienamente questi requisiti, ma i produttori di software d’impresa – sia di tipo ERP che di classe Best-of-Breed (BOB) – hanno esteso le funzionalità offerte, anche tramite un intenso utilizzo delle tecnologie Web, per supportare i nuovi modelli strategici di gestione aziendale.
Una notevole attenzione è stata dedicata al front-end del processo di e-business, consentendo ai clienti d’ordinare prodotti direttamente via Web e, a tal fine, sono stati resi disponibili sofisticati sistemi di interazione bidirezionale tra impresa e cliente. Nonostante ciò, con l’e-business sono i processi e i sistemi di back-end, ovvero quelli responsabili dell’evasione degli ordini e delle altre operation, a trovarsi nell’occhio del ciclone generato dalla turbolenza del mercato. Ricevere ordini tramite Internet è la parte più facile del lavoro: il difficile è realizzare prodotti mantenendo le promesse implicite in questi ordini.
Cresce sempre più il numero delle aziende che non possono evadere gli ordini dei clienti semplicemente spedendo a magazzino i prodotti disponibili in grandi quantità.
Questo fenomeno accade innanzitutto perché i livelli di inventario sono stati ridotti drasticamente grazie a sofisticate pratiche di gestione delle supply chain e, in secondo luogo, perché gli ordini cliente di e-business sono sempre più personalizzati.
Dato questo scenario, gli stabilimenti di produzione devono realizzare prodotti in grado di soddisfare ogni singolo ordine cliente esattamente come promesso, cercando allo stesso tempo di rispettare i lead time. Ne deriva la necessità di compiere un notevole sforzo di integrazione dei sistemi logistici-produttivi-informativi per realizzare un alto livello di rapidità e di visibilità dei processi di e-business. Realizzare prodotti mantenendo le promesse dell’e-business mette infatti alla prova gran parte dei processi e dei sistemi informativi aziendali.
Per diventare competitive nel mondo dell’e-business, le aziende devono infatti raggiungere nuovi livelli di velocità, flessibilità e trasparenza nei propri processi aziendali di evasione degli ordini.
– La velocità. Per velocità si intende la rapidità e l’accuratezza nell’esecuzione di un processo di business. Raggiungere un’alta velocità presuppone un flusso di informazioni istantaneo ed ininterrotto, che scorra tra tutti gli anelli della catena di evasione degli ordini. Questo non solo assicura operazioni veloci, ma garantisce anche una consistente sovrapposizione delle attività che consente di ridurre drasticamente i lead time globali della supply chain.
– La flessibilità. La flessibilità si riferisce alla facilità e alla prontezza con cui un processo aziendale – e i sistemi che lo supportano – si adattano ai cambiamenti significativi che possono interessare l’azienda. Questi cambiamenti possono coinvolgere tendenze di mercato (per esempio un aumento della domanda), la concorrenza da parte di nuovi prodotti o l’introduzione di una nuova tecnologia di prodotto o processo. Le aziende che riusciranno ad essere flessibili saranno in grado di adattarsi ai cambiamenti determinati da clienti sempre più esigenti, espandendo i servizi a valore aggiunto in modo che ciascun prodotto garantisca la qualità e le informazioni atte a tenere traccia della propria genesi oppure a recepire le modifiche “last-minute” per gli ordini personalizzati. La flessibilità è anche l’abilità di evolvere nel tempo, in modo che processi e sistemi siano in grado di supportare le nuove esigenze di business, non appena queste si presentano.
– La trasparenza. Per trasparenza si intende la capacità di garantire una visibilità totale per quanto riguarda le informazioni e le attività a tutti i soggetti coinvolti nella supply chain di e-business, siano questi clienti, fornitori, reparti interni o dipendenti. Per avere successo nell’e-business, non possono esistere buchi neri di informazioni o luoghi in cui si nascondono problemi. La trasparenza è anche un fattore chiave della velocità e della flessibilità. Disporre di una visibilità istantanea sulle informazioni appropriate consente non solo di reagire più rapidamente, ma anche di anticipare gli eventi. Ciascun soggetto della supply chain di e-business, dai fornitori, ai distributori, ai fornitori di logistica, ai produttori a più livelli, deve disporre internamente di queste funzionalità per agire efficacemente come forza di mercato.
– Un fattore critico di successo. Un front-end sofisticato può attirare nuovi clienti, ma nel lungo termine il successo di un’azienda dipende dalla sua capacità di soddisfare gli ordini rapidamente e in maniera affidabile, pertanto i processi produttivi di tipo tradizionale, che costituiscono il back-end, devono risultare rapidi ed efficienti quanto quelli virtuali. E’ questa una lezione che Amazon.com ha appreso a caro prezzo: dopo essere nata come business virtuale puro, la società ha dovuto aggiungere robuste capacità di stoccaggio dei prodotti offerti per ottenere il controllo sui processi di fornitura critici.
Molte aziende dispongono di strutture informative di tipo tradizionale, ma sono prive delle capacità di pianificazione e controllo richiesto dalla situazione competitiva. Questo stato dovrà necessariamente cambiare, dato che, con la riduzione dei lead time per i prodotti personalizzati o configurati e con l’aumento della complessità delle linee di prodotti, saranno sempre più i processi di produzione a determinare il successo dell’e-business. Anche le imprese di tipo online, che realizzano prodotti su misura e che subappaltano le operazioni di produzione, dipenderanno sempre più dalla velocità e dalla flessibilità delle aziende di produzione subappaltatrici.
La produzione di beni e servizi porta in sé un paradosso. Infatti le analisi di settore mostrano che, nella maggior parte delle aziende esaminate e delle supply chain prese in considerazione, l’anello debole del processo di evasione degli ordini di e-business è proprio il punto nel quale si verifica la massima creazione di valore aggiunto, ovvero le strutture ed i sistemi di produzione. Questo non significa che gli stabilimenti vengano gestiti in maniera inefficiente – infatti sono stati spesi miliardi per automatizzare e migliorare la produttività aziendale – ma che la questione critica sta nel fatto che la maggior parte dei sistemi informativi di stabilimento non sono adatti a fronteggiare le sfide del paradigma dell’e-business. Per ironia della sorte, l’ambito al quale viene destinata la parte principale degli investimenti aziendali, in termini di strutture, macchinari, materiali e manodopera, è anche quello interessato dal minore investimento in IT.
Molte grandi aziende hanno destinato budget IT notevolissimi ai sistemi amministrativi, alla gestione delle risorse umane, alla pianificazione economico-finanziaria, alla logistica distributiva, ma la produzione rappresenta – in molti casi analizzati – una discontinuità significativa nell’architettura IT aziendale. Gli stabilimenti di produzione sono raramente dotati di sistemi informativi in grado di soddisfare le promesse dell’e-business. Di norma questi sistemi sono, per certi versi, anche molto efficienti ma, per altri, si tratta di veri e propri buchi neri informativi ove un ordine – o l’intero processo di evasione all’interno dello stabilimento – può essere perso di vista. Le ragioni di questa situazione, alcune delle quali riportate nel seguito, sono quasi sempre di origine storica.
• Miscellanea di sistemi – Molti stabilimenti di produzione dispongono di sistemi centrati sulla soluzione di uno specifico problema (per esempio far funzionare una linea di produzione) o su una singola funzione (gestire o assicurare la qualità). Questa polarizzazione porta alla presenza di sistemi IT diversi, ciascuno con un proprio insieme di formati di dati e di architetture, spesso non ben documentati.
• Isole di informazioni – I sistemi di stabilimento meno recenti non sono stati pensati per consentire la condivisione delle informazioni. Essi sono raramente integrati tra loro ed operano come isole di informazioni separate, incapaci di fornire una vista completa di quanto accade in produzione.
• Solo per interni – Quasi tutti i sistemi di stabilimento sono focalizzati sulle operazioni interne e le architetture informative tradizionali sono state pensate con poca lungimiranza. Alcuni sistemi di stabilimento dispongono di un’interfaccia verso l’azienda e verso le altre applicazioni di Supply Chain Management ma la maggior parte non fornisce una visibilità completa a livello di ordini ai sistemi situati “al di fuori dei cancelli” dello stabilimento.
• Personalizzazioni – Nella maggior parte delle aziende, ciascuno stabilimento dispone di sistemi personalizzati, siano questi applicazioni sviluppate su misura o package standard profondamente modificati per adattarli alle esigenze specifiche. Questi sistemi altamente personalizzati sono difficili da integrare e poco flessibili da modificare in risposta ai cambiamenti che intervengono nei processi di business.
Nel corso degli ultimi anni, la maggior parte delle aziende di produzione ha destinato risorse considerevoli per risolvere questi problemi nei sistemi di gestione e di pianificazione aziendali.
La migrazione ai sistemi ERP e di Supply Chain Management integrati consente d’ottenere una coerenza e una trasparenza interna unitamente ad una riduzione dei costi di supporto. Lo stesso obiettivo deve ora essere conseguito dai sistemi di stabilimento: i produttori dovranno investire in sistemi in grado di fornire visibilità in tempo reale, sia internamente che esternamente, lungo tutta la supply chain, e, nel contempo, altamente e facilmente personalizzabili, per soddisfare i requisiti univoci di ciascun stabilimento e contemporaneamente supportare la standardizzazione tra i vari stabilimenti.
Il fatto che la maggior parte delle aziende non abbia ancora implementato un software di stabilimento completo potrebbe rivelarsi una fortuna. Soddisfare le varie richieste dell’e-business richiede infatti che il software di stabilimento presenti determinate funzionalità. Coloro che stanno cercando di colmare il divario tra le applicazioni IT di stabilimento e il software di produzione di e-business dovranno tenere in considerazione numerose aree chiave a fronte delle quali valutare le soluzioni attualmente disponibili. Le caratteristiche dei sistemi software di produzione di e-business dovrebbero includere:
1. Un Modeling completo. Per gestire i dettagli produttivi a livello di stabilimento, il software deve essere in grado di modellare accuratamente il processo di produzione – o i processi di produzione nel caso di Mixed (o Multi) Mode Manufacturing – e, nel contempo, essere connesso con i processi esterni di evasione degli ordini. Deve altresì gestire il flusso di informazioni completo per i processi di produzione, i prodotti e gli ordini, in un unico stabilimento o più stabilimenti e aziende subappaltatrici esterne.
2. Informazioni in-process. La visibilità di tutte le attività di produzione è un requisito cruciale ma, per rivelarsi effettivamente utile, essa non deve riguardare i dati di produzione grezzi quanto le informazioni in-process, grazie alle quali i dati vengono immediatamente sintetizzati e resi utilizzabili sotto forma di informazioni. I sistemi software di stabilimento che utilizzano le informazioni in-process producono una visibilità completa dello stato fisico e della posizione delle risorse, degli ordini e dei prodotti all’interno dello stabilimento.
3. Comunicazioni immediate. Per garantire l’efficacia richiesta dall’e-business, il sistema IT deve essere in grado di trasmettere le modifiche e le istruzioni specifiche dei singoli ordini in maniera istantanea ai soggetti o ai sistemi responsabili della produzione. Deve altresì trasmettere informazioni in-process “fuori dai cancelli” dello stabilimento, indirizzandole a coloro che hanno bisogno di conoscere lo stato dei processi, le eccezioni e lo stato di avanzamento.
4. Affidabilità, robustezza e scalabilità. L’e-business richiede un alto livello di affidabilità dei sistemi IT che supportano e assicurano la qualità dei processi. Un sistema di produzione di e-business è di tipo mission-critical, in quanto è responsabile della correttezza operativa e del funzionamento delle attrezzature. Per supportare i volumi di e-business e la personalizzazione di massa, il sistema deve anche essere in grado di scalare adeguatamente all’aumentare del numero di operatori e della caratura delle operazioni.
5. Flessibilità per evolversi e adattarsi. Grazie alle best practice aziendali, i processi di produzione cambieranno e diventeranno sempre più efficienti. Le aziende di produzione dovranno creare sistemi personalizzati flessibili il cui supporto o aggiornamento sarà curato da un ridotto staff IT interno. Esse devono essere in grado di modificare le proprie operazioni di produzione di stabilimento e fare in modo che il software possa incorporare rapidamente queste modifiche senza danneggiare l’integrità del sistema.
6. Standard aziendali. L’insieme dei vantaggi derivanti dal potere della standardizzazione è stato l’elemento trainante delle vendite di sistemi ERP. Questi vantaggi sono ora da conseguire anche negli stabilimenti, un ambito ove la standardizzazione del software non era possibile in passato in quanto la maggior parte dei package in commercio non erano sufficientemente flessibili e non erano in grado di modellare tutti i diversi “stili di produzione” in strutture informative diverse. Un sistema software di stabilimento deve essere in grado di affrontare facilmente le estensioni specifiche di un sito produttivo restando tuttavia completamente aggiornabile da parte del fornitore.
7. Gestione di più stabilimenti. Per le aziende che dispongono di più stabilimenti, l’amministrazione e la gestione dei sistemi remoti e del flusso di informazioni tra i vari stabilimenti di produzione è un aspetto di fondamentale importanza per le prestazioni globali del processo di evasione degli ordini cliente. Pertanto, il sistema deve essere in grado di gestire informazioni e risorse IT in più stabilimenti e garantire un’amministrazione ed un controllo centralizzato delle configurazioni remote, il consolidamento tra i vari stabilimenti e “viste” locali e globali.
In sostanza, un sistema di produzione di e-business deve fornire un ambiente robusto e adattabile che supporti un’ampia visibilità, in tempo reale, della supply chain e consenta, contemporaneamente, sia la standardizzazione a livello aziendale che la personalizzazione a livello di singolo stabilimento.
Questa è la sfida … ai produttori di sistemi software di classe enterprise la (non semplice) soluzione.
Gian Franco Stucchi
La riorganizzazione delle imprese può essere una strategia vincente purché si trasformi in un’attitudine mentale e operativa continua. In questo Caffè Sospeso di Gian Franco Stucchi sono descritti tre tipi di approcci: il Re-structuring, il Re-engineering e il Re-thinking.
“Il BPR è il ripensamento fondamentale e la ricostruzione radicale dei processi aziendali effettuati con l’obiettivo di migliorare le prestazioni critiche, quali i costi, la qualità, il livello di servizio ed il time-to-market”.
Questa definizione, dovuta ai fondatori del BPR (Business Process Reengineering), in pratica propone che si esamini l’intero complesso delle operazioni aziendali esistenti e lo si riprogetti per realizzare la strategia di miglioramento del servizio al cliente, che attualmente è, in assoluto, quella vincente in tutti i comparti. Posta in questi termini, non è che questa tanto conclamata disciplina aggiunga molti contributi alla cultura manageriale corrente. Infatti, scremata dalle grazie terminologiche ed estetiche, dovute all’eleganza della definizione, il BPR sembra l’ennesimo precetto da “Consulting Firm”, inventato per produrre nuove fonti di laute parcelle mediante la diffusione di messaggi terrorizzanti. Questa conclusione sarebbe vera se ci si limitasse a considerare il BPR in modo molto superficiale, prescindendo dalle motivazioni profonde che determinano la necessità di una riorganizzazione continua delle imprese a causa di un contesto economico e sociale in continuo divenire, che rende sempre più difficile il mantenimento dei livelli di competitività.
Le motivazioni che portano alla riorganizzazione delle imprese sono molte e di natura diversa. Alcune hanno un’origine contingente e sono legate alla singola situazione, all’area geografica, al segmento di mercato; altre, invece, sono strutturali, di portata globale, ed investono tutte le aziende, poiché non sono gestibili dalla singola entità ma rappresentano il risultato di un insieme di componenti, esogene ed endogene, assolutamente incontrollabili in modo puntuale.
In altri termini, la complessità ambientale è tanto alta e “mercuriale” che non è incapsulabile e gestibile dalla singola impresa. Nel seguito, si riportano, come esempio, alcuni fattori di turbolenza, emersi nel corso degli ultimi tempi, che si sono mostrati fortemente condizionanti nei confronti dell’esistenza e del posizionamento competitivo delle imprese.
– La caduta delle barriere e i movimenti valutari. La caduta delle barriere tra i mercati creano delle situazioni di prezzi dei prodotti e di costi dei fattori produttivi strutturalmente diversificate. Si noti, per esempio, che il costo del lavoro (medio orario) in Europa è superiore a quello dei Paesi Asiatici; inoltre, sin dai tempi della caduta degli accordi di Bretton Woods (http://www.borsaitaliana.it/notizie/speciali/fondo-monetario-internazionale/storie-funzioni/fmi-fine-sistema-di-bretton-woods/fmi-fine-sistema-di-bretton-woods.htm) , nei primi anni ’70, le disparità e la mobilità dei costi e dei prezzi sono rinforzati da movimenti valutari di ampia portata che portano alla sopravvalutazione o alla sottovalutazione di una moneta. Ne discende che, per una sorta di principio dei vasi comunicanti, la produzione o viene trasferita in paesi nei quali è possibile costruire a costi inferiori, oppure viene realizzata grazie ad impianti fortemente innovativi, nei quali sono ampiamente recuperati i concetti di ottimizzazione dei processi.
– Il legame tra il potenziale produttivo e le tecnologie dell’informazione. Le nuove tecnologie, soprattutto quelle relative al trattamento ed alla distribuzione dell’informazione, portano ad una rapida obsolescenza dei processi produttivi – e, quindi, degli impianti dedicati alla loro realizzazione – determinando anche l’obsolescenza delle strutture organizzative concepite per la creazione e la distribuzione dei prodotti. Esse, inoltre, entrano come componenti essenziali delle nuove entità prodotte, che, non a caso, oggi assumono il nome di “prodotto/servizio” per indicare l’intima connessione tra il “core” dell’entità e i “peripheral” che la arricchiscono e la distinguono. Lo scenario è reso ancora più complesso dalla pervasività che caratterizza l’ambito tecnologico: una tecnologia nasce in un campo e si propaga velocemente negli altri, anche non immediatamente affini, incrementando il grado di complessità strutturale dell’ambiente e il livello di competizione nel mercato.
– L’atteggiamento dei consumatori. Il profilo del consumatore medio è notevolmente mutato: è più critico, più attento, ricerca il prodotto o il servizio che offre il miglior rapporto qualità/prezzo, è sempre meno “leale”. Questa evoluzione comportamentale deve essere recepita – addirittura anticipata – dalle imprese, tanto forte è l’influenza che provoca sul posizionamento competitivo dei prodotti e dei servizi offerti. Si pensi, per esempio, all’evoluzione ambientale e comportamentale in atto in molte filiali bancarie: cadono le barriere architettoniche dei vecchi sportelli protetti da vetri blindati e si creano delle salottiere “isole di conversazione” nelle quali i funzionari ed i clienti, seduti ai due lati contigui di una scrivania, trattano i loro affari con maggiore privacy e confidenza.
– Le concentrazioni nel sistema distributivo. Le imprese di distribuzione tendono a concentrarsi formando agglomerati dotati di forti poteri d’acquisto che condizionano la struttura del sistema di approvvigionamento e di distribuzione e inducono rilevanti ristrutturazioni, sia nella logistica a monte, sia in quella a valle. La competizione a livello di prezzi al consumo provoca anch’essa, inevitabilmente, una revisione organizzativa per recuperare nei costi i margini ceduti a livello di prezzi.
– La riduzione dei sussidi per le imprese in crisi. In Italia, in passato, l’assistenzialismo ha assunto gli aspetti più deteriori, consentendo la sopravvivenza, a spese del contribuente, di aziende decotte ed inefficienti. Oggi questa situazione non è più ammissibile, per cui il grado di inefficienza di un’impresa deve essere drasticamente ridotto agendo con tutte le leve disponibili – organizzative, produttive e finanziarie – sui costi e sui ricavi.
– La caduta dei monopoli e le privatizzazioni.
La logica dell‘Unione Europea porta alla caduta dei monopoli, soprattutto di proprietà pubblica, e alla privatizzazione di quegli Enti che hanno goduto, per decenni, di posizioni di rendita normalmente associate a una gestione estremamente inefficiente. La caduta dei monopoli e le privatizzazioni, singolarmente e congiuntamente, costituiscono due rilevanti motivi per la riorganizzazione anche perché sono sempre condizionate dall’attesa, da parte degli azionisti, di un ritorno economico degli investimenti.
l fenomeni elencati, si ribadisce, sono di tipo strutturale e non contingente; essi valgono in generale, non sono tipici di una situazione, non è possibile sottrarsi alla loro influenza ed impongono alle imprese un cambiamento paradigmatico, necessario per evitare uno spiazzamento che può assumere due forme: strategico e organizzativo.
Lo spiazzamento strategico riguarda il prodotto o il servizio offerto e tutto quanto vi è di affine o di consequenziale: le aree produttive, i componenti, i mercati – settori e zone geografiche – , etc.
E’ un tipo di spiazzamento molto grave, di difficile soluzione, e richiede un grande impegno da parte di tutte le risorse (umane, economiche, finanziarie) mobilitate dall’impresa per essere superato grazie a un riposizionamento strategico dell’offerta o, più incisivamente, dell’impresa stessa.
Lo spiazzamento organizzativo riguarda le modalità di creazione dei prodotti e dei servizi; è certamente, almeno inizialmente, meno grave dello spiazzamento strategico ma spesso ne costituisce il prologo o la causa scatenante. Ne discende che certi processi di riorganizzazione proattivi – cioè non passivi, tendenti ad anticipare gli eventi critici per lo spiazzamento organizzativo – riescono a estendere la loro portata a livello superiore, evitando lo spiazzamento strategico. Questa conclusione, di natura sperimentale, cioè rilevata sul campo della contesa competitiva, è molto importante, anche se appare quasi pleonastica.
Le imprese, dunque, devono assumere come stato esistenziale quello della complessità e della turbolenza ambientale al quale reagire grazie al riposizionamento strategico e alla riorganizzazione continua, allineando, dinamicamente e flessibilmente, la visione con la prassi, la strategia con la struttura, i prodotti con i processi, le risorse con le tecnologie.
Gli specialisti di Management Science e di Organizzazione, di origine statunitense e sempre molto fecondi nel coniare nuove sigle e denominazione accattivanti, indicano tre vie, i “Tre Re-“, per la riorganizzazione delle imprese: Re-structuring, Re-engineering, Re-thinking.
Si noti come queste correnti di pensiero, seguendo una moda corrente, inizino tutte con il prefisso “Re-“, intendendo con questo sottolineare, già nella denominazione, la comune filosofia sottostante, che consiste nel recupero, continuo e in una nuova ottica perennemente adeguata alle condizioni esterne, del patrimonio globale di un’impresa, costituito da tutte le sue risorse, di qualunque natura esse siano (culturali, economiche, finanziarie, organizzative, etc).
Questa osservazione non costituisce un distinguo di tipo linguistico, ma è inerente alla natura intrinseca, sostanziale, dei Tre Re-.
I progetti di tipo Re-, piuttosto diffusi e fortemente finanziati, registrano alti tassi di insuccesso proprio perché vengono condotti in manifesta antitesi con la filosofia sottostante ed impiegati solo per giustificare, occasionalmente, feroci salassi di personale. Questa è la forma più truce delle ristrutturazioni – a volte necessaria, più spesso destinata a clamorosi fiaschi – poiché incide, solo minimamente e occasionalmente, sui costi ma non crea alcun vantaggio competitivo che consenta un riposizionamento strategico dell’impresa.
I Tre Re- sono delle categorie nelle quali rientrano metodologie e tecniche di ottimizzazione dei processi dell’impresa che presuppongono la definizione una funzione obiettivo e di un insieme di vincoli. La funzione obiettivo non può limitarsi, sempre ed esclusivamente, alla mera riduzione di costi (a furia di dimagrire, si diventa anoressici e… si defunge) , ma richiede una visione, una strategia e una prassi, tutte qualità essenziali per un management efficace e accorto. L’insieme dei vincoli non può essere tanto pesante da impedire lo sviluppo e gli investimenti in risorse (soprattutto umane): questi sono elementi che dovrebbero comparire non già come vincoli, ma come componenti della funzione obiettivo.
Il Re-structuring si focalizza sulla singola “scatola” organizzativa, proponendosi di ottimizzarla senza alcun intervento di tipo globale e prescindendo dalla portata, sempre più ampia, delle singole attività o dei singoli processi che pervadono le unità organizzative confinanti. I progetti di Re-structuring sono di tipo “ex-post”, reattivi, concepiti ed attivati in condizioni d’emergenza.
Le tecniche impiegate sono basate sui numeri (per esempio il benchmarking), esprimono indicatori di efficienza della singola unità, si propongono di scremarla da tutti gli orpelli e i vincoli accumulatesi nel tempo, e producono spesso dei risultati traumatici, quali il downsizing e l’outsourcing. Questi termini, piuttosto noti agli specialisti informatici, si riferiscono anche ad altri settori aziendali quali: l’amministrazione, la gestione del personale, i servizi generali, la logistica. In alcuni casi viene coinvolta anche la produzione e si assiste a un fenomeno di esternalizzazione, se non del prodotto finito, almeno di un semilavorato di altissimo livello ad esso molto prossimo.
Il Re-engineering – e in particolare la sua tecnica più nota, il BPR – se utilizzato in forma riduttiva, degrada rapidamente nella categoria del Re-structuring. La reingegnerizzazione dei processi deve basarsi su modelli diversi da quelli in atto, che rappresentano la realtà pregressa, ma, focalizzandosi sul cliente interno ed esterno, adottare modelli di riorganizzazione che siano globali ed anticipatori. Solo in questo modo la riorganizzazione risultante sarà efficace, non traumatica, adeguatamente condivisa dal personale e continuamente sostenuta dal management. Si noti, infatti, che, secondo le stime effettuate da alcune società di consulenza, il 60% degli interventi di tipo BPR incontra dei problemi imprevisti o degli effetti collaterali indesiderati proprio a causa dell’emergenza di fattori critici “soft”, quali: la motivazione, la mancanza di impegno da parte della direzione, le pesanti resistenze “politiche” del personale. I progetti di reingegnerizzazione non devono limitarsi alla singola “scatola” organizzativa, ma, appunto perché ispirati da una visione globale, focalizzarsi sui processi, coinvolgere tutte le unità organizzative. Il BPR si distingue da un intervento di Re-structuring perché collega l’approccio ai problemi, le tecniche da adottare e gli strumenti utilizzati nel processo di cambiamento con l’obiettivo strategico dell’impresa.
L’aspetto innovativo non consiste tanto nei metodi e nei contenuti, quanto nell’integrazione tra questi e costituisce la vera novità della disciplina, tendente a stabilire un nuovo paradigma risolutivo, estremamente efficace, basato sul concetto dei “processi di business”. La produzione, per esempio, non deve essere considerata solo dal punto di vista manifatturiero, ma deve coinvolgere anche la funzione di ricerca e sviluppo, la progettazione, il marketing, le vendite. Un altro esempio è fornito dagli acquisti: non è sensato tentare un’ottimizzazione di questa funzione prescindendo dalle interconnessioni interne ed esterne; più corretto è l’approccio del BPR che tende ad inquadrarla nel contesto di un’ottimizzazione globale dell’intero processo di approvvigionamento dell’impresa.
Ne discendono, immediatamente, alcuni fattori critici di successo per la reingegnerizzazione dei processi dell’impresa:
– la definizione di una chiara visione strategica dell’impresa;
– l’adozione di una tensione continua e radicale per il cambiamento;
– la concezione dei processi di business, intesi come sequenze di azioni e decisioni che si sviluppano trasversalmente in tutta l’organizzazione;
– la gestione degli aspetti umani legati al cambiamento per collimare positivamente il riadattamento culturale del management e del personale operativo;
– il potenziamento della professionalità e delle capacità personali come conseguenza del progetto di riorganizzazione;
– lo sviluppo di un avanzato sistema informativo che tracci, sostenga, stimoli e abiliti la reingegnerizzazione, tanto da divenirne uno strumento essenziale e un supporto irrinunciabile.
Il Re-engineering, dunque, è ben diverso da un mero intervento locale volto ad incrementare l’efficienza operativa di una funzione senza alcun riguardo all’influenza o agli effetti collaterali che possono originarsi nelle funzioni contigue o nei processi globali dell’azienda. Data l’enfasi che esso pone sulle correlazioni, sugli aspetti globali, sulle sinergie, sul coordinamento, esso può essere annoverato tra le discipline di tipo sistemico.
La definizione del BPR di Hammer e Champy e il primo fattore critico di successo elencato precedentemente portano all’introduzione del terzo Re-, il Re-thinking. Ripensare l’impresa e riflettere la sua organizzazione ha come prerequisito l’abbandono della “politica dello struzzo”, che può essere determinata sia da una certa inerzia mentale del management, sia, ancor più pericolosamente, da un’arroganza dettata dal conseguimento di una posizione di leadership temporanea. La storia delle imprese, soprattutto quelle ad alto contenuto tecnologico, insegna che le posizioni di rendita sono temporanee e, per essere mantenute, è necessaria un’attenta sensibilità ai segnali, deboli o forti, provenienti dal mercato. La clientela è poco fedele; è sempre più esigente e abbandona o sostituisce facilmente i prodotti meno competitivi in termini di rapporto qualità/prezzo. Ripensare l’impresa significa concepire una visione di questa e dell’ambiente, rendere le strutture flessibili, capaci di intercettare i segnali e di prevederne la portata, riposizionare continuamente l’offerta e tarare l’organizzazione in termini elastici e anticipatori. E’ un’attività manageriale di altissimo contenuto, defatigante ma affascinante perché richiede uno sforzo di affinamento perenne delle tecniche di ripensamento per superare i freni inibitori al cambiamento presenti in tutte le persone.
Nella partita a poker con il futuro il gioco è pesante ma le imprese possono iniziare la mano decisiva un bel “tris di Re-” servito. Questo è un eccellente inizio nel gioco contro le turbolenze e la complessità e consente alle imprese di schierarsi in modo flessibile ed anticipatorio. La mano servita, comunque, non fornisce la certezza della vincita, poiché esistono ancora degli ostacoli di natura interna ed esterna che potrebbero portare alla sconfitta. Molti progetti di riorganizzazione sono falliti a causa dell’elemento umano, che si dimostra riottoso al cambiamento per vari motivi: perché non ne ha compreso la necessità; o perché, pur avendola compresa, non condivide la soluzione adottata; o, ancora, perché gode di posizioni di prestigio, di privilegio e di potere che verrebbero perse nel nuovo contesto.
La riorganizzazione, dunque, non è solamente un’attività di tipo tecnico, magari sostenuta da eccellenti strumenti informatici, ma, essenzialmente, un’attività di tipo manageriale che coniuga competenza con sensibilità, intuizione ed elasticità mentale.
Gian Franco Stucchi
La capacità di analizzare e comprendere il valore dei dati – e a maggior ragione dei big data – richiede l’utilizzo di strutture informative articolate ma organizzate, come racconta Gian Franco Stucchi in questo Caffè Sospeso. Non è certo una novità, ma una necessità che risale, almeno, al 2300 a.C.
Nell’estate del 1964, Paolo Matthiae , un giovanissimo archeologo italiano dell’Università di Roma che operava in Siria, intraprese alcuni scavi nella località di Tell Mardikh, una zona allora semisconosciuta situata nella Siria settentrionale, vicino ad Aleppo. I primi reperti mostrarono subito l’eccezionalità del sito. Si era in presenza di un complesso che in passato costituiva certamente un centro politico e commerciale molto importante: la città di Ebla.
Gli scavi della spedizione italiana proseguirono senza sosta, incoraggiati dai continui ritrovamenti. Nel 1975 si verificò una scoperta sensazionale: in un locale vennero alla luce 1.727 tavolette d’argilla intere, 4.713 larghi frammenti e diverse migliaia di scaglie, il tutto in perfetto stato di conservazione e risalente al XXIV secolo a.C. L’interpretazione dei caratteri cuneiformi non fece altro che confermare l’enorme importanza della scoperta: le tavolette comprendevano rendiconti mensili “in entrata” di tessuti, preziosi e rame; registrazioni di oggetti in oro e in argento “in uscita”; ordinanze reali; trattati politici; verbali processuali; testi rituali per i matrimoni; rendiconti amministrativi dell’attività agricola e pastorale.
Praticamente le tavole di Ebla costituivano un insieme di dati strutturati che rappresentava e sosteneva la gestione economica, politica e logistica dell’antichissima città-stato. Erano un vero e proprio database, forse il primo della storia, nucleo portante di un protosistema informativo.
I dati, dal latino “datum”, sono frutto dell’osservazione del mondo reale – che, appunto, li dona, li dà – e costituiscono la materia prima con la quale, attraverso opportune elaborazioni, si producono informazioni, cioè una maggiore conoscenza dell’ambiente in cui si opera e la possibilità di controllarlo, modificarlo e dirigerlo.
Il concetto di “dato” si è evoluto notevolmente nel corso dei vari decenni della storia dell’informatica, passando da un’accezione esclusivamente numerica (espressione di quantità misurabili) ad identificare entità rappresentabili con strutture alfanumeriche organizzate in formati standard, costituiti generalmente da liste o da tabelle (dati anagrafici, ordini, etc.).
Ulteriori estensioni si sono rese necessarie quando, grazie ai progressi e alle economie permesse dall’evoluzione tecnologica di base, è stato possibile elaborare documenti a testo libero, forme figurative (disegni, immagini o grafici), filmati e suoni.
La disponibilità di strumenti hardware e software sempre più accessibili e potenti ha permesso alle persone e alle imprese di raccogliere e memorizzare quantità sempre maggiori di dati di dettaglio. Questa possibilità spinge le organizzazioni commerciali, che dispongono di informazioni sempre più accurate sui clienti, sulle vendite di prodotti e sul consumo dei servizi, verso la realizzazione di sistemi decisionali orientati ai modelli per trasformare i dati “grezzi” in conoscenze in grado di supportare e potenziare l’efficacia delle leve d’azione concepite per acquisire e mantenere un vantaggio competitivo sulla concorrenza.
L’utilizzo di tali sistemi, che non sono solo strumenti di mera reportistica ma permettono di condurre analisi anche molto sofisticate, consente di ottenere una migliore conoscenza dei clienti, dei loro bisogni e delle loro attese, e quindi di migliorare l’efficienza e la profittabilità di un sistema-impresa fornendo prodotti a prezzi più bassi, con un livello qualitativo più elevato, più servizi, più personalizzazioni e una maggiore flessibilità logistico-produttiva.
Per cogliere questi obiettivi è necessario un processo di sintesi e di valutazione dei dati che scaturisca da uno sforzo congiunto da parte dell’ICT – che ha il compito di fornire i dati e la tecnologia per potervi accedere (data warehouse, data mart, strutture informative complesse) – e dai responsabili dei diversi processi di business (i knowledge worker), che “scavano” con saggezza e competenza (almeno si spera!) nella miniera dei dati, alla scoperta di informazioni potenzialmente utili, impiegando sofisticati strumenti di esplorazione e di modellizzazione
La capacità di analizzare massicci quantitativi di dati e di estrarne le potenziali informazioni non ha ancora raggiunto il livello delle tecniche sviluppate nel corso degli anni per la raccolta e la registrazione delle stesse. Tuttavia, qualunque sia il contesto nel quale si opera (un’area di business, un settore della medicina, della scienza, dell’ingegneria, del management e – perché no? – dell’arte o delle discipline umanistiche o sociali), i dati, nella loro “forma fredda”, non contengono che una minima quantità di informazione.
Per esempio, il database che rappresenta il mercato di un’azienda che si occupa di vendita di beni di consumo può mettere in evidenza la correlazione tra alcuni prodotti e certi gruppi demografici; questa correlazione potrebbe giustificare l’attivazione di campagne di marketing focalizzate, con un ritorno finanziario sicuramente superiore rispetto a una campagna generalizzata. I database si possono dunque definire come una risorsa informativa potenziale ma “dormiente” che, solo se utilizzata correttamente, può fornire benefici sostanziali.
Tradizionalmente l’analisi dei dati è stata un processo in gran parte manuale. L’analista, una volta entrato in familiarità con la base dei dati, si occupava di comprenderne la struttura e di generare una serie di resoconti comportandosi come un vero e proprio query processor umano. Questo approccio decadde rapidamente in termini di efficacia non appena la quantità e la varietà dei dati cominciarono a crescere: non è possibile, infatti, arrivare a “comprendere” milioni o miliardi di registrazioni di valori relativi a fatti o eventi ritenuti significativi, ognuno dei quali potrebbe essere specificato, in termini strutturali, da migliaia di campi (o attributi), e nemmeno tenere il passo, ove anche l’analisi manuale fosse realizzabile, con la velocità con cui l’informazione aumenta di volume e si modifica.
L’attività di attribuzione di un significato ai dati (o valutazione semantica dei dati) è descritta in termini differenti a seconda della comunità di ricerca che se ne occupa (per esempio, termini spesso ricorrenti sono: knowledge extraction, information harvesting, data archeology, data pattern processing). Il termine Data Mining è utilizzato per lo più dai progettisti di database in ambito statistico e, solo recentemente, in campo economico. L’acronimo KDD è utilizzato per riferirsi a un processo generale che mira a scoprire informazione utile dai dati.
Il Data Mining rappresenta solo una fase particolare in questo processo, cioè la fase in cui si attua l’applicazione di algoritmi specifici per estrarre modelli significativi dai dati. Sono gli altri passi del processo KDD, come la preparazione, la selezione, la pulizia dei dati, la fusione di appropriate informazioni antecedenti e la corretta interpretazione dei risultati del mining, che assicurano che l’informazione sia significativa.
Un’applicazione superficiale dei metodi di Data Mining può essere un’attività pericolosa, che conduce sovente alla scoperta di modelli privi di senso (non a caso, un tempo, la letteratura statistica definiva come “drogati” i risultati di questi approcci rozzi e superficiali).
Il KDD si è evoluto (e sta evolvendo) grazie alla confluenza delle ricerche provenienti dai campi più disparati, quindi non solo dal settore che si occupa dello studio e della progettazione di database, ma anche da settori apparentemente più distanti, quali quelli che si interessano di intelligenza artificiale, di statistica, di modellistica, di sistemi esperti, di metodi di reporting, di tecniche per il recupero dei dati e di modelli per accrescere la velocità di calcolo e l’affidabilità (High Performance Computing). I sistemi software di KDD incorporano perciò teorie, algoritmi e metodologie derivate da un elevato numero di settori di indagine.
La Data Science , che studia la progettazione e l’implementazione di strutture dati e di applicazioni collegate provvede a creare le architetture necessarie alla memorizzazione, all’accesso e alla manipolazione dell’informazione. Il Data Mining richiede degli strumenti preconfezionati, che permettano di effettuare analisi in profondità, su quantità di dati di dettaglio che possono essere molto grandi (tipicamente da 100 megabyte a 10 terabyte come i big-data) e che consentono di estrarre rapidamente le informazioni richieste: per facilitare questo compito sono necessarie delle operazioni di elaborazione a monte, tipiche di chi opera con i data warehouse.
Il Data Warehousing è un termine in auge ormai da tempo e si riferisce alla tendenza delle attuali attività di business di raccogliere, convalidare e ripulire dati transazionali in modo da renderli disponibili ad analisi in tempo reale e all’attività di supporto decisionale. Un processo di Data Warehousing potrebbe essere visto come un navigatore in grado di navigare nel mare di informazioni acquisito nel corso degli anni. Questo processo, da un lato, crea un’architettura mirata ai servizi di Business Intelligence, dall’altro contempla, attraverso i processi di estrazione e trasformazione dei dati, ogni aspetto riguardante l’utilizzo delle informazioni.
Il cuore dell’architettura è un deposito di dati, il cosiddetto Data Repository, che molto spesso si identifica nel Data Warehouse stesso, nel quale le informazioni sono archiviate in un modello integrato e consolidato.
Le sue caratteristiche sono espresse dagli “assiomi” seguenti
Il Data Warehouse è tipicamente costruito attorno a dei soggetti. I soggetti sono, per esempio, argomentazioni di business di particolare rilievo come le vendite o la fascia di mercato. La struttura di un soggetto è determinata dal livello e dalla natura dell’informazione così come è richiesta dall’utente di business.
Il Data Repository è distinto dal sistema che gestisce i processi transazionali (OLTP), in modo tale da non interferire con esso. Questo indica che l’informazione è strutturata per soddisfare le esigenze di business e non i requisiti del sistema transazionale.
Il Data Warehouse è integrato. Tutte le informazioni preziose dovrebbero essere integrate nella definizione del soggetto. Le eventuali discrepanze nei dati provenienti dal sistema transazionale devono essere corrette prima del loro caricamento.
Il Data Warehouse non è volatile e fornisce un’unica fonte di verità. Ciò significa che nel momento in cui due persone richiedono la stessa informazione, otterranno la stessa risposta e il dato non cambierà durante il processo di analisi.
Il Data Warehouse fornisce una prospettiva storica di un’area di business. Il dato è archiviato in forma sommarizzata e “vive” per alcuni anni. Questo permette di ottenere dei trend per analisi statistiche e previsionali.
La distribuzione delle informazioni è l’elemento chiave per la costruzione di un Data Warehouse di successo, in quanto essa deve fornire le basi per il processo decisionale. Le aziende hanno archiviato i dati di business per molti anni, ma lo sfruttamento incompleto del loro potenziale ha da sempre costituito un problema insoluto. Ecco quindi come, un ambiente di distribuzione delle informazioni così strutturato, mira alla risoluzione di questo problema.
Le iterazioni iniziali di un processo di Data Warehousing, sono usualmente impegnate proprio a risolvere problematiche di business già esistenti.
Nelle iterazioni successive, si tende invece ad assumere un atteggiamento più propositivo, ricercando il valore reale all’interno dell’informazione. Il suo maggior punto di forza è che facilita le query ad hoc e le esplorazioni di dati non previste. Vi è quindi la libertà di analizzare in modo differente i propri dati, piuttosto che essere limitati in un insieme predefinito di report.
Nelle situazioni in cui viene verificata una serie significativa di query, la creazione di un livello Data Mart può costituire una soluzione per ottimizzare i tempi di risposta di interrogazione.
In un Data Warehousing di successo è assolutamente necessario poter disporre di validi strumenti per il supporto decisionale (DSS) per poterne sfruttare a pieno la struttura. Questo è possibile solo se gli strumenti di analisi sono compatibili con quelli usati per caricare e mantenere le informazioni.
I dati dunque sono la materia prima per costruire dei sistemi di supporto decisionale, o almeno la componente più diffusa di questa specie d’applicazioni che, per quanto riguarda la tassonomia, è pervasa da una certa confusione terminologica. Seppure datata, una classificazione delle varie realizzazioni di sistemi di supporto decisionale opera una distinzione tra i diversi tipi in base al grado di complessità della realizzazione e al livello di ausilio che possono offrire ai decisori. Secondo questa visione, i DSS si possono ripartire in tre grandi famiglie: orientati ai dati, orientati ai modelli e di natura logica. Questa classificazione – che incorporava di fatto i sistemi di Business Intelligence nei DSS, pur non prevedendoli esplicitamente dato che allora non erano ancora stati “battezzati” – venne successivamente sostituita da un’altra, che postulava la prevalenza della BI sui DSS e che gli strumenti di BI potessero essere suddivisi in due gruppi distinti: EIS (Executive Information System) e DSS.
Secondo questa interpretazione, gli strumenti EIS creavano applicazioni destinate sostanzialmente come supporto decisionale a responsabili aziendali, privi di particolari competenze tecniche, che avevano bisogno di esplorare i dati a vari livelli di dettaglio ed analizzare dati riassuntivi. Essi venivano solitamente eseguiti su mainframe o server “corposi”, erano costosi e di proprietà esclusiva della direzione aziendale. Gli strumenti DSS, destinati invece a knowledge worker più tecnici, supportavano l’accesso ai dati strutturati ad hoc, rendevano disponibili delle tecniche di data analysis piuttosto avanzate ed erano relativamente a buon mercato.
La divisione tra strumenti EIS e DSS venne via sfumando per una serie di cambiamenti verificatisi nel mercato come risultato di tendenze tecnologiche ed organizzative complementari, quali la diffusione dei modelli di elaborazione distribuita e l’appiattimento delle strutture gerarchiche aziendali, con la successiva comparsa di unità organizzative autonome, responsabili dei propri risultati e, per questo, con un potere decisionale anche notevole.
Manager aziendali e knowledge worker oggi richiedono un accesso diretto ed immediato ai dati aziendali per poter aumentare l’efficacia del proprio agire e la competitività delle proprie unità organizzative, esattamente come l’alta direzione aveva bisogno di informazioni per l’assunzione di decisioni strategiche per l’intera azienda (necessità che ovviamente permane). Inoltre, per restare competitivi, gli strumenti di supporto decisionale sono stati adattati per essere eseguiti anche su architetture distribuite e, in seguito, in ambienti web, con una conseguente riduzione dei costi.
Non sorprende dunque che gli strumenti EIS/DSS e gli strumenti di query/reporting si siano evoluti separatamente in una nuova classe di prodotti in grado d’offrire sia funzionalità analitiche che di reporting, replicando un fenomeno biologico noto con il nome di “evoluzione convergente”. Comunque sia, la possibilità d’essere eseguiti via web e la facilità di utilizzo sono oggi gli aspetti fondamentali – e determinanti in fase di selezione – per tutte le classi di prodotto.
La Realtà Virtuale è sostanzialmente presente quanto il mondo fisico; è componibile come un’opera d’arte, illimitata come un sogno. Gian Franco Stucchi ne illustra alcuni aspetti in questo articolo de Il Caffè Sospeso condividendo però il pensiero di Eli Khamarov: “Most people are awaiting Virtual Reality; I’m awaiting virtuous reality”.
Le nuove tecnologie non appaiono dal nulla come una scintilla di ispirazione mistica dalla mente di un individuo e nemmeno vengono accettate in modo ineluttabile per i benefici che dovrebbero apparire evidenti (almeno per chi le propone). Una tecnologia emerge attraverso un processo che coinvolge contesti molto ampi che sono culturali, linguistici, istituzionali e tecnologici. Una chiara illustrazione di questo processo si può desumere dall’apparire della Realtà Virtuale (VR, da Virtual Reality) nel 1989 e dalla conseguente diffusione dell’idea attraverso i media.
Il 7 Giugno 1989 la Autodesk, produttrice di software per Computer Aided Design, e la VPL, un’eclettica società di computer, annunciarono una nuova tecnologia chiamata, appunto, Realtà Virtuale. Nel commercializzare questa tecnologia (che costituiva un enorme cambiamento nel modo di concepire la natura dei computer), gli sviluppatori e i promotori ricorsero a un ventaglio di iperboli, come riportato nella definizione seguente [tratta da VPL Research Inc. “Virtual Reality at Texpo ’89”, Redwood City, California, (1989), e ripresa da Howard Rheingold “Virtual reality”, Mandarin, London (1991)].
“La VR è ormai nota a tutti, sostanzialmente presente quanto il mondo fisico, componibile come un’opera d’arte, illimitata ed innocua come un sogno. Quando sarà globalmente diffusa, verso la fine del secolo, essa non sarà percepita come un medium usato solo all’interno della realtà fisica, ma piuttosto come una realtà addizionale. La VR spalanca un nuovo continente di idee e possibilità. Al Texpo ‘89 abbiamo posato per la prima volta un piede sulla spiaggia di questo continente”.
In effetti l’interazione fra uomo e sistema informatico ha avuto un grandissimo sviluppo ed è stata oggetto di un enorme sforzo teso alla ricerca di strumenti sempre più efficaci, di tecniche sempre più idonee ad imitare quel naturale rapporto che l’uomo è capace d’avere con gli oggetti reali. La disponibilità dei Personal Computer e dei Mobile Internet Device (MID) ha sostenuto l’evoluzione del dialogo uomo-macchina con strumenti di interazione efficaci e immediati, alcuni dei quali hanno goduto di uno straordinario successo. Si pensi, per esempio, alla vastissima diffusione dei cosiddetti “menù di comandi” i quali, implementati nelle forme più disparate, permettono sostanzialmente di decidere e comunicare al sistema, in ogni istante, la successiva azione da intraprendere. Il perfezionamento delle tecnologie dell’interazione e l’adozione di sofisticati e potenti strumenti software hanno portato all’attuale simulazione del tavolo di lavoro ovvero alla metafora della scrivania. Il PC o il MID riesce così a rappresentare un insieme di strumenti, di documenti, di “fogli elettronici” con i quali – e sui quali – è possibile lavorare utilizzando tool che costituiscono le evoluzioni elettroniche di quelli propri di ciascuna professione, da quella del giornalista a quella del fotocompositore, dal ragioniere alI’ingegnere, dalla segretaria allo scienziato.
Nel corso degli ultimi anni si è investigato in profondità sull’uso di una grande varietà di strumenti fisici di interazione. Tastiere, tavolette grafiche, mouse, joystick, touch screen, track-ball hanno goduto, ciascuno, di un periodo di grande enfasi, seguito da una più corretta collocazione a fianco di applicazioni particolari o al servizio di specifiche professionalità. Nessun disegnatore, in realtà, sente la necessità d’avere un sistema che riproduca esattamente il proprio tavolo da disegno: ciò di cui ha bisogno è che I’interazione con un sistema CAD sia intuitiva e semplice, come lo sono tipicamente gli strumenti tradizionali, e che il suo rapporto con i sistemi informatici abbia la stessa naturalezza che deriva dal contatto materiale con le cose. In quest’ottica, uno degli attuali limiti imposti ai sistemi di software applicativo dagli strumenti di interazione uomo-macchina risiede nella difficoltà di gestire elementi appartenenti ad uno spazio di dimensione superiore a quello che gli strumenti stessi sanno trattare in modo nativo.
Si verifica, per esempio, come sia macchinoso e limitante I’uso di meccanismi di interazione che agiscono su una o su due dimensioni per trattare elementi pienamente appartenenti allo spazio tridimensionale. La tavoletta grafica e il mouse sono strumenti ottimi per il disegno – e in generale per trattare elementi bidimensionali -, il joystick, uno strumento che ha conosciuto un periodo di grande successo legato soprattutto ai videogiochi, associa ogni movimento alla gestione di una coordinata. Questa limitazione è tanto più evidente nell’ambito della progettazione assistita, dove ancora lo strumento principe per interagire con modelli tridimensionali è dato da quell’insieme di potenziometri chiamato “dial box”, ognuno dei quali è asservito al controllo di una sola dimensione geometrica, sia questa un asse di rotazione oppure un vettore di spostamento. Il desiderio di superare questo limite è fortemente presente negli utenti degli attuali computer, pur essendo forse attenuato dall’errata convinzione che ciò potrà essere ottenuto solo con la prossima generazione di sistemi, con nuovi e diversi hardware attualmente inimmaginabili.
Ma forse, nei brevi periodi di consolidamento di una tecnologia, com’è quello I’attuale, si possono ricercare modi differenti e innovativi d’utilizzo di una stessa tecnologia investendo in Ricerca e Sviluppo.
L’introduzione di nuovi meccanismi di interazione può rappresentare, per un utente, un passaggio di importanza equivalente a quella che costituisce, per un tecnologo, lo sviluppo di una nuova generazione di microprocessori. I limiti fisici che si sono via via susseguiti fino a costituire il confine dell’interazione uomo-macchina sono passati dall’iniziale pannello di comandi – attraverso il quale comandare al computer di “leggere” una pila di schede perforate – al terminale alfanumerico, al menù di comandi rigidamente e gerarchicamente organizzato, fino all’odierno simulacro di una scrivania piena di oggetti.
Per poter superare l’attuale limite ed essere in grado di condurre gli utenti dei computer all’interno dello straordinario mondo definito da Joseph Weizenbaum nella sua opera “Computer Power and Human Reason” , è necessario superare lo scoglio concettuale del piano dello schermo e introdurre una modalità di interazione basata su modelli che non solo siano in grado di simulare le medesime operazioni cui sottoponiamo gli oggetti reali, ma siano essi stessi realmente delle operazioni. In altri termini è importante non solo ottenere la rotazione del modello di un solido applicando ripetute operazioni semplici di rotazione attorno ad un asse, ma “girare” lo stesso modello come si farebbe se lo si potesse maneggiare oppure “aggirare” I’oggetto, come si dovrebbe (e si deve) fare ad esempio con una casa. Oltre a ciò è possibile ipotizzare un numero probabilmente illimitato di operazioni che non sono “realmente” possibili e implementarle con altrettanta facilità.
Per esempio, I’operazione di zoom potrebbe prendere a prestito dal mondo reale una lente di ingrandimento oppure richiedere all’immaginazione dell’utente-osservatore un proprio rimpicciolimento proporzionale che lo riduca a una sorta di micronauta. Il fine di simulare una realtà tridimensionale è ottenuto portando alle naturali conseguenze quell’effetto ottico che si ottiene utilizzando un paio di occhiali appositi per assistere alla proiezione di immagini opportunamente sdoppiate; ciò serve a far sì che ciascun occhio percepisca una visione prospettica leggermente differente di quella percepita dall’altro occhio.
Perché I’uomo sia immerso in una sorta di spazio sensoriale cibernetico (cyberspace, per gli anglosassoni) basta perciò limitare il mondo complessivo a questo mondo di immagini “leggermente spostate”, togliendo tutto quanto ricorda allo spettatore che inforca occhiali stereoscopici che quello, in fondo, è solo un film. La scena tridimensionale viene presentata attraverso due monitor posti ciascuno davanti ad un occhio, sorretti da una specie di casco che limita a questi la visione e le immagini rappresentate su ciascun monitor differiscono tanto quanto le due immagini di un oggetto reale catturate dalle retine. Lo stesso casco è dotato di sensori relativi ai gradi di libertà propri del capo ed è perciò in grado di fornire informazioni sulla variazione di punto di vista dell’osservatore. L’effetto di immersione nello spazio cibernetico viene aumentato dall’uso contemporaneo di un dispositivo dí input pienamente tridimensionale come il “data glove” (guanto virtuale), uno strumento che permette di valutare gli spostamenti della mano e delle dita nello spazio; questi vengono trasmessi al programma applicativo affinché I’utilizzatore possa vedere e usare la propria mano nello spazio cibernetico.
Le idee e i principi che sostengono questa apparentemente nuova applicazione risalgono in realtà a molti anni or sono, quando Ivan Edward Sutherland, vincitore del Premio Turing nel 1988, costruì e sperimentò lo Sketchpad, il sistema-pioniere dell’interazione uomo-macchina. Sutherland arrivò a definire il suo nuovo strumento come una “stanza nella quale il computer può controllare I’esistenza delle cose”.
Gli sviluppi moderni della Realtà Virtuale includono parecchi progetti militari (per esempio per la simulazione dei voli) e di ricerca. Fra questi ultimi grande successo hanno le applicazioni all’architettura e alla progettazione di ambienti, mentre sembrano ancora un po’ in ritardo i decolli delle soluzioni rivolte alla progettazione meccanica e impiantistica, sebbene quest’ultima sembri poter trarre enormi vantaggi dalla visualizzazione e simulazione di impianti complessi.
In effetti la Realtà Virtuale costituisce un potente strumento operativo e di supporto decisionale che permette di visualizzare in modo tridimensionale e ad alta risoluzione ambienti e oggetti, e di interagire con questi in tempo reale, fornendo una sensazione di immersione e di presenza nell’ambiente ricomposto.
Attraverso la Realtà Virtuale è possibile ricostruire ambienti immaginari o ambienti che non esistono più, come monumenti o città appartenenti a epoche passate. E’ interessante come, attraverso tale tecnologia, sia possibile fare dei confronti tra quello che c’è e quello che c’era, percependo con mano quali cambiamenti ha portato il tempo.
La storia, l’architettura, l’archeologia sono discipline che sperimentano continuamente la necessità di ricostruire mondi non più visibili e da qui viene l’interesse e l’importanza della Realtà Virtuale applicata ai beni e alle attività culturali.
Una ricostruzione virtuale ha valore storico, didattico, scientifico e può anche essere utilizzata per valutare nel tempo l’eventuale deterioramento degli ambienti stessi confrontando ricostruzioni 3D ottenute utilizzando immagini che ritraggono in tempi diversi i medesimi ambienti.
Una ricostruzione 3D offre anche una capacità di dettaglio superiore: navigando all’interno di un ambiente 3D ci si può muovere liberamente alzandosi e avvicinandosi a pareti e ad oggetti posti in posizioni difficilmente raggiungibili, ottenendo informazioni di dettaglio pari alla visione che si avrebbe stando a pochi centimetri di distanza dagli oggetti stessi.
Una tecnologia emergente, figlia della Realtà Virtuale, è la Realtà Aumentata che consiste nell’aggiunta di informazioni supplementari a una scena reale. A differenza della Realtà Virtuale, che mira a sostituire il mondo reale con un ambiente completamente sintetico ed isolato da quello reale, in cui l’utente è immerso e con cui può interagire, la Realtà Aumentata non isola l’utente dal mondo reale, bensì lo completa mediante oggetti virtuali generati dal computer, in un mondo che è fatto di oggetti reali e virtuali.
La Realtà Aumentata potenzia la percezione e l’interazione dell’utente con l’ambiente fornendo informazioni visive che l’utente non potrebbe rilevare direttamente con i propri sensi. Il mondo reale risulta dunque “aumentato”, ovvero virtualmente arricchito, con informazioni grafiche e testuali addizionali, sincronizzate e generate dal computer. L’obiettivo è di incrementare la percezione visiva dello spazio fisico con immagini prese dallo spazio virtuale, con il risultato che l’ambiente reale e virtuale sembrano coesistere e l’utente si può muovere liberamente nella scena, con la possibilità, altresì, di interagire con essa.
Due studiosi, Paul Milgram e Fumio Kishino, hanno proposto una tassonomia, il Reality-Virtual Continuum che spiega in che modo la Realtà Virtuale e quella Aumentata sono collegate. Secondo questi autori, il mondo reale e l’ambiente virtuale rappresentano due condizioni estreme: la Realtà Aumentata giace, nella scala di Milgram e Kishino, più vicina all’ambiente reale, essendo in essa il mondo reale predominante rispetto ai dati aggiunti tramite computer.
di Gian Franco Stucchi
Il Caffè Sospeso di Gian Franco Stucchi oggi affronta il tema del Cloud Computing, analizzandone caratteristiche e opportunità.
Il National Institute of Standards and Technology (NIST) ha pubblicato una definizione funzionale di Cloud Computing che integra diverse caratteristiche comuni a molte soluzioni di mercato, utile per chiarire il panorama dell’offerta e capire il posizionamento dei player.
Il Cloud Computing è ancora un paradigma in evoluzione, nonostante sia ormai diffusa, tra gli operatori del comparto delle tecnologie dell’informazione, un certa frenesia di presenzialismo poiché è considerato molto promettente in termini di ricavi. Le definizioni, i casi d’uso, le tecnologie di base, i problemi, i rischi e i benefici che dovrebbe produrre questo paradigma computazionale saranno certamente precisati, nel corso dei prossimi mesi, in modo più accurato di quanto lo siano attualmente grazie (per dirla in politichese) “all’ampio dibattito” in atto su questo tema sia nel settore pubblico che in quello privato.
E’ prevedibile però che tutto ciò che vi è di inerente, afferente e consequenziale al Cloud Computing evolverà e cambierà nel tempo, così come è accaduto – e accadrà – per ogni altro paradigma-killer che, periodicamente, emerge dall’ICT (o viene fatto emergere artatamente).
E’ semplice pronosticare una certa aleatorietà definitoria del Cloud Computing dato che le specifiche riportate nel documento assunto come base per la redazione di questo articolo fanno riferimento alla versione NIST SP – 800-145 pubblicata il 28 settembre 2011 dall’Information Technology Laboratory del NIST e redatta a cura di due scienziati, onusti di gloria informatica, quali Peter Mell e Tim Grance (http://csrc.nist.gov/publications/nistpubs/800-145/SP800-145.pdf).
Si osservi infine che l’industria del Cloud Computing costituisce un ecosistema ampio e articolato, composto da diversi modelli di riferimento, adottati da una crescente comunità di fornitori di soluzioni e servizi che operano in quasi tutti i settori di mercato. Ne discende che le definizioni riportate nel seguito sono piuttosto lasche, appunto perché tentano di comprendere tutti i vari approcci possibili al Cloud Computing.
La definizione
Secondo il gruppo di lavoro coordinato da Mell e Grance, il Cloud Computing è definibile nel modo seguente:
“Il Cloud Computing è un paradigma di elaborazione dei dati concepito per favorire, tramite la rete Internet e l’utilizzo on-demand, l’accesso economico a una serie di funzionalità ICT. Esso riguarda un pool riconfigurabile di risorse computazionali condivisibili (per esempio: reti, server, sistemi di storage, applicazioni e servizi) che possono essere rese rapidamente disponibili a un parco di clienti indefinitamente esteso. Il rilascio di queste risorse deve avvenire da parte di un fornitore di servizi e con la minima attività possibile di gestione o di interazione”.
Questo modello di Cloud Computing enfatizza la disponibilità delle risorse ed è composto da cinque caratteristiche di base, tre modelli di servizio e quattro modelli di distribuzione.
Le caratteristiche di base
On-demand self-service. Si assume che ogni consumatore (o cliente) sia messo in condizione di acquisire, unilateralmente e in base alle proprie esigenze operative, il complesso delle capacità di elaborazione di cui ha bisogno, sia in termini di tempo macchina dei server che di capacità della memoria di massa disponibile via rete. Questa attività deve avvenire automaticamente, attingendo ai servizi che ogni provider eroga e senza richiedere alcuna interazione umana.
Broad network access. Le diverse funzionalità sono rese disponibili tramite una rete di comunicazione accessibile mediante una serie di meccanismi standard che promuovono l’utilizzo, da parte del consumatore, di piattaforme o dispositivi eterogenei, stanziali o mobili (per esempio, telefoni cellulari, laptop e PDA).
Resource pooling. I provider delle risorse di elaborazione sono raggruppati in pool affinché possano servire una pluralità di utenti utilizzando un modello multi-tenant, con diverse risorse fisiche e virtuali assegnate ai tenant (lett. “affittuari”, in questo contesto meglio “co-proprietari” http://it.wikipedia.org/wiki/Multi-tenant) in modo dinamico e in base alla domanda. Negli ambienti di Cloud Computing il cliente deve percepire un marcato senso di indipendenza dalla locazione; in genere non ha alcun controllo o conoscenza sulla posizione esatta, puntuale, delle risorse a sua disposizione, ma è in grado di specificarla a un livello di astrazione piuttosto elevato (di stato, regione, datacenter). Esempi di risorse che possono essere allocate in pool sono lo storage (memorie di massa), gli elaboratori, la memoria centrale, la larghezza di banda della rete di comunicazione e le macchine virtuali.
Rapid elasticity. Le funzionalità sono rese disponibili in modo rapido ed elastico (cioè adattabile al carico di lavoro). In alcuni casi si richiede che ciò avvenga automaticamente per permettere di scalare rapidamente in modo distribuito (scale out) e, altrettanto rapidamente, essere rilasciate per traslare in ambienti centralizzati (scale in). Per il consumatore, le capacità disponibili devono apparire illimitate e possono essere acquistate in qualsiasi momento nelle quantità desiderate.
Measured service. I sistemi cloud controllano e ottimizzano le risorse in modo automatico adottando alcune funzioni di misurazione operanti a un livello di astrazione adeguato al tipo di servizio richiesto (per esempio: storage, processing, larghezza di banda e contabilizzazione degli utenti attivi). Inoltre, l’utilizzazione delle risorse può essere monitorata, controllata e riportata all’esterno del sistema per garantire la trasparenza operativa e amministrativa sia ai provider che ai consumer dei servizi utilizzati.
I modelli di servizio
Software as a Service (SaaS). E’ la capacità, messa a disposizione del consumatore, di utilizzare le applicazioni del fornitore che operano su un’infrastruttura cloud. Le applicazioni possono essere accedute da diversi dispositivi client tramite un’interfaccia di tipo thin-client (come un web-browser, per esempio). Il consumatore non gestisce o controlla la sottostante infrastruttura cloud (rete, server, sistemi operativi, storage, singole funzioni applicative), con l’eccezione, eventualmente, di un limitato gruppo di configurazioni applicative specifiche di un certo utente.
Platform as a Service (PaaS). Con questa dizione si intende la capacità, attribuita (o ceduta) al consumatore, di dislocare sull’infrastruttura cloud alcune applicazioni realizzate dal consumatore stesso o acquisite dal mercato. Esse devono essere create utilizzando i linguaggi di programmazione o i tool supportati dal provider dell’infrastruttura. Il consumatore non deve gestire l’infrastruttura cloud, ma ha il controllo sulle applicazioni distribuite e, se possibile, anche sulle configurazioni dell’ambiente di hosting applicativo.
Infrastructure as a Service (IaaS). Permette di fornire al consumatore la capacità di acquisire le risorse di calcolo fondamentali relative ai server, allo storage e alle reti. In questo caso il consumatore è in grado di distribuire e attivare l’esecuzione di qualunque tipo di sistema software, sia di base (per esempio i sistemi operativi) che applicativo (per esempio una suite di gestione aziendale o di Customer Relationship Management). Anche in questo caso il consumatore non gestisce l’infrastruttura cloud, ma ha il governo dei sistemi operativi, dello storage, delle applicazioni distribuite ed, eventualmente, esercita un controllo limitato su alcuni componenti di rete (per esempio i firewall dislocati sull’host).
I modelli di distribuzione
Private cloud. Definisce un’infrastruttura cloud utilizzata esclusivamente da un’organizzazione (impresa o ente). Può essere gestita direttamente dall’organizzazione oppure da uno o più provider specializzati, ed esistere in forma “on premise” (letteralmente nell’edificio, in sede) oppure “off premise” (fuori dall’edificio, fuori sede).
Community cloud. L’infrastruttura cloud è condivisa da molte organizzazioni e supporta una comunità di consumer che hanno gli stessi interessi (per esempio: la missione, i requisiti di sicurezza, le policy, le considerazioni sulla conformità). Essa può essere gestita dalle organizzazioni o da terzi e può esistere in forma on premise o off premise.
Public cloud. L’infrastruttura di cloud computing è messa a disposizione del pubblico o di un settore industriale di grandi dimensioni ed è di proprietà di un’organizzazione specializzata nella vendita di servizi cloud.
Hybrid cloud. L’infrastruttura cloud è una composizione di due o più modelli di distribuzione (private, community, public), che rimangono entità uniche ma sono integrate da tecnologie standard o proprietarie che consentono di effettuare la portabilità dei dati e delle applicazioni (per esempio il cloud bursting, una tecnica per il bilanciamento del carico tra cloud).
I sistemi software cloud-like sfruttano appieno le opportunità offerte dal paradigma Cloud Computing essendo, innanzitutto, orientate ai servizi ma con particolare attenzione alla condizione di “statelessness” (o “apolidia”, che in questo caso indica la non-appartenenza a una particolare corrente culturale o commerciale dell’ICT), all’accoppiamento lasco, alla modularità e all’interoperabilità semantica.
La consacrazione del paradigma
Da diversi anni gli esperti dell’ICT profetizzano l’avvento del Cloud Computing e anche le piccole e medie aziende stanno prendendo in considerazione la “nuvola”, nonostante il fatto che la crisi economica globale, scoppiata nel 2008, abbia rallentato gli investimenti in questa tecnologia,in particolare, e nel settore dell’innovazione tecnologica, in generale. Sembra però che in questi anni siano quelli della definitiva affermazione di questo paradigma. Il Cloud Computing sta raggiungendo lo stadio della maturità nelle grandi imprese, secondo quanto rivelano gli studi condotti – su universi-campione anche estesi e articolati di professionisti e aziende utenti di ICT – sia dalle società di ricerca (per esempio, dalle citatissime Gartner e IDC a livello mondiale), sia dalle organizzazioni di tipo “Università&Impresa” (vedasi l’affollato pool degli Osservatori MIP del Politecnico di Milano).
A questi centri di competenza si rimanda il lettore per eventuali approfondimenti sullo stato d’avanzamento della pervasività del Cloud Computing.
I vantaggi nell’adozione di soluzioni di questo tipo risiedono nell’ottimizzazione dei costi e della ridondanza, con un parallelo aumento del grado di uptime e di scalabilità dell’impianto cloud di elaborazione dell’informazione che si intende realizzare o utilizzare.
In effetti il Cloud Computing, secondo il report “Cloud Dividend” del Centre for Economics and Business Research (CEBR) ed altre analisi di settore, potrebbe migliorare significativamente l’efficienza degli utilizzatori, riducendo anche la quantità degli investimenti sprecati, cioè legati alla sottoutilizzazione delle capacità ICT. Per questo motivo nei prossimi anni queste soluzioni saranno in grado di produrre benefici enormi e generare milioni di posti di lavoro, cifre non certo trascurabili per le imprese dai paesi del Vecchio Continente, sempre più sottoposte alla pressione della concorrenza globale.
Tra i settori che potrebbero maggiormente beneficiare dall’avvento del cloud si annoverano la distribuzione, il retail e l’hospitality, ma perché la rivoluzione della nuvola possa definitivamente affermarsi è necessaria una svolta radicale dal punto di vista normativo poiché, di fatto, con questa tecnologia si esporta una certa mole di dati al di fuori dei cancelli dell’impresa, spesso all’estero e in luoghi diversi, in contrasto con tutto ciò che normalmente è previsto, per ragioni legata alle privacy e alla sicurezza, dalle policy aziendali e dai regolamenti in uso negli Stati Europei,
Neelie Kroes, dal 2010 Commissario Europeo per l’Agenda Digitale, ha costantemente sottolineato che le linee guida della normativa EU dovranno riguardare la protezione dei dati, la sicurezza, la regolamentazione della privacy e un approccio comune all’impiego delle tecnologie cloud.
«Secondo me – ha dichiarato in proposito – ogni cittadino europeo, fruitore di servizi cloud, deve essere messo in grado di sapere come il proprio fornitore protegge i suoi dati. Inoltre, tutti i governi dei Paesi in cui si trovano i server (ovvero dove “la nuvola tocca la terra”) devono definire un quadro giuridico tale per cui sia garantita un’adeguata protezione dei dati e della privacy. Può sussistere una serie (limitata) di eccezioni – dettate, per esempio, da ragioni contingenti di ordine pubblico o di sicurezza nazionale – ma anche queste devono essere coerenti con i principi sovrani dello Stato di Diritto».
A questo proposito osserviamo che, una volta – ma sono passati molti anni – l’Italia era considerata la patria del diritto, tanto che avevamo molti legislatori che riuscivano a dare un senso ai codici. Oggi i cittadini sono sconfortati; qualcuno parla ancora dell’Italia come la patria del diritto, ma troppe sono le leggi “ad personam” approvate nelle varie sedi competenti, anche quando sono palesemente di dubbia o discutibile legittimità.
Forse la diffusione del Cloud Computing può essere proprio l’occasione per intraprendere un cammino verso un nuovo Stato di Diritto (magari seguito dal solito, ma stantìo, “2.0” o dal persistente aggettivo “Digitale”).
Gian Franco Stucchi
Il Caffè Sospeso di Gian Franco Stucchi oggi parla dell’effetto dematerializzazione.
“Non vorrei sembrare troppo catastrofico, ma dalle informazioni di cui posso disporre si trae una sola conclusione: tutti i paesi membri dell’ONU hanno a disposizione a malapena dieci anni per accantonare le proprie dispute e impegnarsi in un programma globale di risanamento dell’ambiente […], orientando i propri sforzi verso la problematica dello sviluppo”.
Maha Thray Sithu U Thant – Segretario Generale dell’ONU
L’inquietante sentenza sembra tratta, pari pari, dal più recente rapporto sull’ambiente pubblicato da qualche prestigioso think thank statunitense.
Niente affatto: risale al 1969, è dovuta a U Thant, allora Segretario Generale dell’ONU, e comparve come incipit nell’Introduzione del libro “I limiti dello sviluppo” (Biblioteca della EST Mondadori, 1971), che ebbe a suo tempo una certa notorietà, salvo poi entrare nel tunnel dell’oblio. L’illustre statista notava come, già da allora, l’ambiente fosse in crisi e, in un certo senso, si stesse ribellando alle offese dell’uomo.
La situazione non è affatto cambiata, anzi, osservando ciò che accade ogni giorno, sembra proprio che il mondo si stia rivoltando contro il proprio creatore, con buona pace di tutta la scienza e la tecnologia dispiegata nel corso dei secoli.
La società umana deve affrontare una serie di conseguenze, involontarie quanto ironiche, delle sue ingenuità in campo ambientale, sociale ed energetico. Come qualificare – se non almeno come “ingenuo” – un modello di sviluppo che ha causato, in pochi anni, il dimezzamento delle foreste del pianeta (si ricorda in proposito che uno slogan del WWF – “Quest’anno ci siamo giocati l’Austria” – era già famoso molti anni or sono); la desertificazione di immense distese di terra (è il destino che attende le foreste pluviali equatoriali, dopo la fase di abbattimento degli alberi e del sottobosco); la peregrinazione per il mondo di migliaia di tonnellate di rifiuti di ogni genere che non si sa dove stivare (e il processo è solo all’inizio)?
Percorsi ottimali
Proprio la tutela ambientale, l’eco-responsabilità e il risparmio energetico – in particolare nell’ICT – sono oggi alcuni dei temi dominanti dei piani editoriali di molte pubblicazioni e di intere biblioteche di memorie scientifiche, complice certamente il prossimo mega-evento EXPO 2015 ma anche una serie di altre iniziative che – si spera – contribuiscano a innescare un crescente interesse ed una nuova sensibilità sociale indirizzata all’ottimizzazione dei processi tramite un utilizzo innovativo e “intelligente” della tecnologia.
L’eco-sostenibilità è un concetto piuttosto difficile da tradurre in operatività immediate, anche perchè è una delle funzioni caratteristiche dell’economia globale, un sistema complesso, non definibile puntualmente su scala ridotta. La storia dimostra che è sempre possibile, comunque, identificare le modalità che permettono ai consumatori di un prodotto/servizio di ottenere, da questo, una serie di funzionalità crescenti, in numero e portata, pur usando meno energia e risorse per unità di funzione. Sono questi indicatori che definiscono e misurano le variabili critiche della dematerializzazione, una tematica sempre più importante per realizzare una sostanziale efficienza economica e ambientale nell’esecuzione delle attività umane e nei processi di produzione dei prodotti e dei servizi.
In economia, il termine “dematerializzazione” si riferisce proprio alla riduzione, assoluta o relativa, della quantità di risorse necessarie per servire le funzioni economiche di un’organizzazione. In poche parole, dematerializzazione significa “fare di più con meno”, un concetto simile a quello di “effimerizzazione” – stabilito da Buckminster Fuller , architetto neo-futurista e studioso di Teoria dei Sistemi – secondo il quale il progresso tecnologico avrebbe permesso all’umanità di mantenere un tenore di vita crescente nonostante l’immanente esplosione demografica e il progressivo esaurimento delle risorse disponibili.
Strettamente associato alla crescita dell’interesse per la dematerializzazione, emerge, dalle applicazioni pratiche sinora realizzate, un segnale molto forte. Più precisamente, si è notato, nel corso del tempo e grazie al perfezionamento delle tecniche produttive disponibili, un declino sia dell’uso dei materiali impiegati per realizzare e rendere disponibili i risultati finali di quasi tutte le filiere industriali, sia del valore della “embedded energy”, ovvero dei contenuti energetici incapsulati nei prodotti/servizi. In senso più ampio si giunge ad una conclusione, forse pleonastica: la dematerializzazione favorisce la riduzione, assoluta o relativa, della quantità di risorse (intese in senso lato) necessarie per costituire e servire le funzioni economiche – e come tale è strettamente correlata con l’ambiente nel quale si svolgono le attività umane. Non solo: questa riduzione è causa di un simmetrico calo dei rischi produttivi (generazione di rifiuti e di scorie, esposizione a fonti pericolose, …) e contribuisce così alla conservazione dell’ambiente naturale. Ne discende che un generale orientamento alla dematerializzazione non può che favorire lo sviluppo economico e sociale a lungo termine.
Diversi studiosi propongono una legge di corrispondenza facilmente accettabile. Essi affermano che il contenuto energetico e materiale dei beni e dei servizi prodotti da un Paese può essere misurato da un indicatore, l’intensità d’uso di materiali ed energia, espresso dal rapporto tra la domanda fisica di tali prodotti e il prodotto interno lordo (PIL). L’analisi – effettuata a lungo termine e su scala globale – dell’andamento dei consumi di materie prime e di beni di base mostra una tendenza accentuata alla riduzione di tali intensità, un fenomeno di carattere molto generale.
Si può assumere che la dematerializzazione delle produzioni sia un segnale del fatto che il valore dei beni e servizi, nelle fasi avanzate dello sviluppo, sia sempre più collegato ai contenuti cognitivi e sempre meno a quelli materiali. Tra l’altro, questo significa che settori di base – come l’energia elettrica, la siderurgia, il cemento, la chimica, l’alluminio – pur rimanendo delle portanti dell’economia, tendono a contribuire sempre meno alla crescita economica complessiva dei Paesi industrializzati.
Il fenomeno può essere messo bene in evidenza considerando le curve di intensità d’uso in funzione del tempo disponibili presso le società di ricerca settoriali o istituti indipendenti di analisi socio-economica. Si rileva che la forma generica è quella detta “a campana asimmetrica”, caratterizzata, in una fase iniziale, da una crescita rapida sino al raggiungimento di un massimo, e seguita da una seconda fase nella quale si nota una discesa piuttosto lenta.
Una Campana Asimmetrica
La crescita iniziale è dovuta al prevalere di attività “pesanti” per la costruzione delle infrastrutture e la produzione dei materiali fondamentali; una volta completata questa fase, nelle fasi di sviluppo più maturo di tipo postindustriale, l’enfasi passa dalla quantità alla qualità, prevalgono le attività più leggere, come le industrie avanzate e i servizi, che richiedono consumi ridotti di energia e di materiali, con uno spostamento del mercato dai prodotti indifferenziati (come diceva Henry Ford: “The Customer Can Have Any Color He Wants So Long As It’s Black”) ai prodotti specializzati ma realizzati con componenti standard (una sorta di “artigianato di massa”).
Materia e conoscenza
Dallo studio delle “campane” su un’ampia scala temporale (da alcuni decenni a un secolo), gli analisti di settore osservano come il punto di massimo venga raggiunto successivamente dai Paesi che hanno avviato via via più tardi il processo di industrializzazione. Si può anche notare che il punto di massimo d’intensità d’uso dell’energia ha un valore più basso per i Paesi che si sono industrializzati più recentemente, cioè quando hanno avuto a disposizione una gamma di tecnologie più avanzate ed efficienti. Il grado di dematerializzazione – ovvero la misura dell’intensità d’uso – può anche essere visto come correlato all’aumento della produttività dell’impiego delle risorse naturali di materiali ed energia, conseguito attraverso l’effetto cumulato dell’incorporazione di conoscenze tecnologiche nei beni e nei servizi.
Lo scenario descritto è il risultato della combinazione di alcuni fattori critici. Innanzitutto si sono consolidati, nel corso degli ultimi decenni, alcuni cambiamenti paradigmatici nella struttura della domanda finale, con una crescita progressiva dei settori del terziario e della alte tecnologie, che in generale non comportano grandi consumi di materiali e di energia. Si è poi manifestata una saturazione della domanda finale, confermando una tendenza consolidata. Infatti, nei sistemi socio-economici caratterizzati da un livello di reddito medio-alto, i consumi tendono tanto più alla saturazione quanto più i bisogni primari della popolazione sono soddisfatti. Infine, si è pervenuti ad un incremento dell’efficienza complessiva del sistema economico globale – grazie al progresso tecnologico e alla diffusione dell’ICT.
Non a caso l’era attuale viene indicata come “post-industriale”, una connotazione che nasce dall’enfasi dei processi di “de-“ (de-industrializzazione, de-materializzazione, de-strutturazione, …). Questo non implica affatto uno smorzamento dell’attenzione per i processi di creazione dei prodotti, quanto piuttosto una caduta di rilevanza della produzione massiva di beni semplici a vantaggio della creazione di servizi complessi e dell’importanza incrementale delle applicazioni della conoscenza e delle tecnologie.
La produzione delle società post-industriali si basa sull’applicazione cosciente e sostenibile delle conoscenze teoriche dell’elettronica, dell’informatica, delle comunicazioni, della fisica, della bioingegneria. I processi e i beni sui quali si svolge l’attività di trasformazione sono sempre meno elementari, osservabili dall’uomo e congruenti con le sue dimensioni, ma risultano da un’elaborazione, sempre più articolata e sofisticata, di altri prodotti e servizi, talvolta intangibili o dematerializzati.
Lo studio delle dinamiche socio-economiche dominanti mostra come la società attuale sia composta da organizzazioni che si estendono “oltre i cancelli dell’impresa”, da sistemi dinamici costituiti da una moltitudine di componenti debolmente interconnessi (strutture a blob – macchie, grumi), caratterizzati da fenomeni incrementali di complessità e turbolenza. Il governo delle variabili gestionali tradizionali non è sufficiente, nel contesto prospettato, ad assicurare lo sviluppo economico e sociale di questo tipo di organizzazioni: il compito, nuovo e più importante, che si deve affrontare consiste nella produzione di conoscenza – o addirittura nella gestione dell’industria della conoscenza – in modo tale da trasformare una tensione culturale in un vantaggio competitivo per il business oppure in un business stesso.
La destinazione di risorse finanziarie ed intellettuali all’accrescimento del patrimonio cognitivo consente l’aggregazione di prodotti e servizi in passato inesistenti, la formulazione di nuove strategie, la creazione di nuovi beni, l’estensione delle capacità decisionali, l’individuazione di nuove funzioni aziendali e la nascita di innovative discipline culturali, quali il management della conoscenza.
Il compito primario dei manager e dei professional non consiste solamente nell’attività previsionale ma assume una rilevanza incrementale nel tempo l’aspetto decisionale, inteso come la capacità di orientare i processi dell’organizzazione, di guidarne l’evoluzione verso gli obiettivi stabiliti e di valutare continuamente le alternative strategiche. Tutto ciò è possibile solo se è possibile disporre di un’ampia visibilità sui problemi emergenti, sulle opportunità che si presentano, sui rischi di ogni alternativa strategica, sui processi da attivare.
L’enfasi dell’interesse manageriale si sposta dalla risoluzione dei problemi (problem-solving) alla comprensione degli stessi (decision-making), poiché la natura di questi si è fatta molto più complessa e la portata delle soluzioni notevolmente più ampia e critica.
Pervasività tecnologiche
Le tecnologie dell’informazione assumono una rilevanza fondamentale nel contesto descritto poiché concorrono alla creazione di nuove tecnologie produttive (e la dematerializzazione, laddove è applicabile, ne è un componente chiave), pervadono i processi di produzione, sono un elemento di aggregazione di prodotti o servizi, contribuiscono in modo determinante all’incremento e alla disseminazione della conoscenza e supportano i processi decisionali.
Anche se l’orientamento alla dematerializzazione può essere considerato un percorso naturale per la tecnologia, che ha sempre mirato a massimizzare l’efficienza dell’uso delle risorse, tuttavia i processi che la realizzano subiscono un’accelerazione quando si manifestano alcuni eventi-trigger. Tipici sono, per esempio, le conseguenze delle crisi energetiche, sempre più frequenti; la diffusione dell’e-business, con le sue varie implicazioni (B-to-B, B-to-C, B-to-E, e-invoicing, e-payment, Social Network, …); l’introduzione di alcune normative specifiche che riguardano la conservazione sostitutiva (il documento informatico, dematerializzato, acquista valore probatorio ai fini fiscali e legali).
Oggi il ruolo strategico delle risorse naturali tende ad enfatizzarsi sommandosi a quello delle risorse immateriali, della conoscenza scientifica e, più in generale, a quello della cultura. La competizione globale è centrata proprio su queste variabili, trascende i confini di una singola organizzazione, coinvolge il sistema istituzionale e locale di sostegno all’economia. In generale si osserva che le azioni possono essere locali, ma gli effetti globali, confermando così il detto “Agisci localmente, ma pensa globalmente”.
Di Gian Franco Stucchi