In questa pagina vogliamo parlare di : “Remote DBA tra aziende in modo coopetitivo”
Buona lettura.
Parte 1 di 2
Pre-informazioni
FONTE : Claudio VENTURINI
TITOLO : Progettazione e Sviluppo di Data Warehouse in Ambiente Coopetitivo
Relatore: Dott. Andrea MAURINO
Correlatore: Dott. Angelo SIRONI
Viene reso disponibile a titolo informativo dei pezzi della tesi di Laurea di Claudio Venturini date a Stefano Fantin da Andrea Maurino, docente universitario dell’Università degli Studi di Milano Bicocca, come risorsa di lettura e documentazione.
Coopetizione: problemi per l’IT
In uno scenario coopetitivo si hanno due o più organizzazioni che operano in un regime competitivo all’interno di un certo mercato, e che necessitano però di cooperare in alcuni aspetti del business. Le motivazioni possono essere svariate e sono state ampiamente dibattute dalla ricerca in ambito economico, di gestione dell’organizzazione e di knowledge management.
In generale, un rapporto coopetitivo tra diversi attori pùo essere instaurato per volontà degli stessi partecipanti, oppure imposto da enti terzi. Nel primo caso gli attori individuano nella cooperazione la possibilità di ottenere dei benefici comuni, che nessuno di essi potrebbe ricevere in uno scenario puramente competitivo. Un esempio è lo scambio di informazioni ai fini di migliorare la qualità dei prodotti o dei servizi forniti ai clienti. Nel secondo caso invece lo scenario prevede un terzo attore, che ha il potere di forzare o stimolare uno scambio di informazioni tra i partecipanti. Un caso tipico è quello in cui alcune organizzazioni sono obbligate per legge a partecipare ad un meccanismo di cooperazione.
Dal punto di vista dell’IT la coopetizione si caratterizza per il fatto che gli attori coinvolti hanno la necessità di scambiare informazioni, senza tuttavia integrare completamente i loro sistemi informativi. Questo scambio di informazioni deve essere ben controllato, in quanto la coopetizione pùo essere redditizia solo se l’aspetto cooperativo del rapporto fornisce benefici a tutti i partecipanti, e non genera quindi vantaggi competitivi al singolo attore. I problemi di maggiore rilevanza dal punto di vista dello sviluppo di un sistema software che effettui tale integrazione in ambiente coopetitivo, sono quindi i seguenti:
Individuazione delle informazioni da condividere capire quali informazioni è necessario scambiare e quindi integrare, in modo tale che esse risultino utili per la globalità delle organizzazioni coinvolte.
Tecniche di integrazione scegliere le tecniche adeguate per svolgere l’integrazione, sia in termini di processo da seguire, sia in termini di architetture e sistemi impiegabili. In questo ambito rientrano anche le problematiche relative alla risoluzione di possibili incongruenze semantiche tra le informazioni provenienti da organizzazioni differenti.
Scalabilità il numero di organizzazioni coinvolte nella coopetizione pùo essere nell’ordine delle decine, e variare nel tempo: è quindi necessario che l’architettura sia sufficientemente scalabile affinchè i relativi dati possano essere integrati nel sistema con relativa semplicità.
Flessibilità l’integrazione di diversi sistemi informativi aumenta la probabilità che almeno uno di essi subisca modifiche nel breve periodo. Tale probabilità è tanto più alta quanti più sono i sistemi informativi integrati, e rappresenta un problema soprattutto quando la quantità di informazioni condivise è alta. Il sistema deve essere quindi in grado di reagire velocemente ai cambiamenti nei vari sistemi informativi integrati.
Sicurezza garantire la sicurezza delle informazioni pubblicate, attraverso adeguati meccanismi di controllo di accesso
Privacy garantire la privacy delle informazioni pubblicate, al fine di evitare che uno degli attori possa venire a conoscenza di informazioni sensibili per le altre organizzazioni, ad esempio attraverso attacchi di tipo inferenziale. In particolare è necessario trovare il giusto bilanciamento tra l’utilità dei dati condivisi, nell’ottica di svolgere indagini analitiche, e il livello di privacy richiesto.
Proprietà dei dati nel momento in cui i dati vengono pubblicati, un’organizzazione rischia di perderne il controllo. Questo problema è fortemente influenzato dalla presenza di un terzo attore, e dal grado di fiducia che le organizzazioni coinvolte
vi ripongono. In certi casi infatti questo ente terzo pùo farsi carico di gestire i dati condivisi.
Per risolvere questi problemi l’IT deve in primo luogo identificare le architetture, le piattaforme e le tecnologie necessarie all’integrazione e allo scambio delle informazioni. In secondo luogo deve definire un adeguato modello di sviluppo, in particolar modo per quanto riguarda la fase di raccolta dei requisiti. Nel seguito si analizzerà nel dettaglio come è possibile soddisfare i requisiti indicati nel caso specifico dello sviluppo di un sistema di data warehousing.
Solitamente un DW è utilizzato per analisi quantitative degli eventi di interesse per il business di un’organizzazione, quali ad esempio le vendite, gli acquisti o i livelli di magazzino. Di conseguenza tratta informazioni di tipo numerico, come le quantità di prodotto, o i prezzi. Per fare questo il DW organizza le informazioni in modo tale che possano essere utilizzate in modo efficiente per svolgere analisi ai fini del supporto alle decisioni. I dati vengono estratti da varie sorgenti interne all’organizzazione, e integrati tramite una delle tecniche di integrazione, al fine di ottenerne una visione unificata. Durante questa fase possono subire anche un processo di pulizia, al termine della quale vengono integrati all’interno del DW.
Il DW viene utilizzato dagli utenti a diversi livelli. Gli organi dirigenti lo utilizzano per analisi complesse dei vari aspetti del business , al fine di supportare le proprie decisioni.
Altri utenti lo possono utilizzare semplicemente per la generazione di report periodici, che talvolta possono anche essere resi pubblici all’esterno dell’organizzazione.
In un DW sviluppato in ambiente coopetitivo le singole sorgenti di dati sono di proprietà di diverse organizzazioni, e vengono integrate al fine di osservare fenomeni che coinvolgono non i singoli ma tutti i partecipanti. .
Coopetitive Data Warehouse (CDW) :
il sistema non viene sfruttato unicamente all’interno dell’organizzazione. Al contrario il sistema è aperto, e può fornire informazioni a diverse tipologie di utenti:
le stesse organizzazioni coinvolte nella coopetizione, che possono così ottenere una visione più ampia del mercato in cui operano
la pubblica amministrazione, che pùo richiedere dati al fine di svolgere attività di controllo
cittadini e consumatori al fine di renderere più trasparente la filiera produttiva.
Coopetizione, Competizione, Cooperazione
Negli ultimi anni altri autori hanno enfatizzato l’importanza dei meccanismi coopetitivi per la creazione di valore all’interno del business.
Tramite la teoria dei giochi è possibile modellare matematicamente i comportamenti degli attori del business al fine di studiarne le decisioni strategiche. In un gioco ogni concorrente applica delle strategie per la decisione della mossa da intraprendere ad ogni turno. La redditività della mossa è definita da una funzione di ricompensa, che associa un valore numerico ad ogni mossa effettuata dal partecipante. Usualmente la ricompensa rappresenta il guadagno o la perdita di denaro, e di conseguenza pùo trattarsi di un
valore negativo. L’obiettivo dei giocatori è massimizzare la somma delle ricompense ottenute durante i vari turni di gioco.
Senza entrare nel dettaglio della rappresentazione matematica, i tre scenari di competizione, cooperazione e coopetizione si possono cos`ı caratterizzare:
Competizione L’organizzazione è un’entità isolata rispetto agli altri attori del mercato, e l’unico obiettivo nel gioco è la ricerca di una ricompensa maggiore di quella ottenuta dagli avversari, seguendo un comportamento opportunistico. In questo scenario di gioco la vincita corrisposta ad uno dei giocatori corrisponde ad una indentica perdita per l’avversario, e di conseguenza si pùo parlare di gioco a somma zero. E’ evidente che in questo tipo di gioco le funzioni di ricompensa dei vari partecipanti sono in netto contrasto tra loro: non esiste quindi una vera e propria creazione di valore, ma si ha piuttosto un passaggio di valore tra i giocatori.
Cooperazione Le organizzazioni in gioco sono mosse da un interessi convergenti, e di conseguenza sono caratterizzate da funzioni di rincompensa concordi tra loro. In generale le interazioni sono basate su un rapporto di fiducia reciproca, in modo del tutto opposto a quanto avviene in uno scenario competitivo. Questo contesto
è rappresentabile con un gioco a somma positiva, in cui la creazione del valore è possibile ed è tanto più consistente quanto più i giocatori adottano una strategia che mira a perseguire interessi comuni: ciò costituisce un forte disincentivo verso l’adozione di comportamenti opportunistici.
Coopetizione Il contesto coopetitivo è uno scenario ibrido in cui i partecipanti perseguono interessi parzialmente convergenti. Ciò significa che, al contrario di quanto avviene nella cooperazione, l’interesse primario di una organizzazione non
è perfettamente allineato con l’interesse degli altri partecipanti al gioco. Non c’è quindi un rapporto di totale fiducia tra i giocatori: al contrario è probabile che la funzione di ricompensa di alcuni dei giocatori favorisca comportamenti opportunistici. Questi fattori fanno si che il gioco sia caratterizzato da una struttura a somma positiva ma variabile, che pùo portare a benefici comuni tra tutti i partecipanti, ma non necessariamente equi. In questo scenario viene a crearsi una situazione di incertezza dovuta al fatto che i giocatori non hanno modo di stimare a priori i vantaggi che possono ricevere dalla cooperazione. Tale incertezza pùo portare verso comportamenti opportunistici, riducendo di conseguenza la partecipazione alla cooperazione.
In ogni caso le analisi possibili devono essere ristrette alla globalità delle organizzazioni coinvolte, e non devono quindi coinvolgere i dati di una sola di esse.
Coopetizione dal punto di vista dell’IT
Vantaggio reciproco Cooperazione tra due o più partners al fine di ottenere vantaggi reciproci. Un caso reale è il servizio di roaming internazionale fornito dalle com- pagnie di telefonia mobile, che competono nell’attrarre clienti, ma al contempo cooperano per garantire l’accesso alla rete telefonica anche all’estero, dividendo i ricavi generati dal traffico telefonico internazionale. Gli operatori devono imple- mentare dei meccanismi di scambio dei Call Detail Record, e unificare i sistemi di addebito. Un secondo esempio sono i servizi di pagamento automatico del pedaggio autostradale, come ad esempio Telepass. Nonostante la rete autostradale italiana sia di proprietà di diverse società in competizione, esse cooperano al fine di fornire il servizio Telepass sull’intera rete. Anche in questo caso è necessario un flusso continuo di dati tra le varie organizzazioni per gestire i gli addebiti sulle carte di credito degli automobilisti.
Stakeholder con il potere di forzare la coopetizione In alcuni scenari di busi- ness si ha la presenza di uno stakeholder con potere a sufficienza per instaurare un rapporto di cooperazione tra altri stakeholder in competizione tra loro. Un scenario di questo tipo si è creato in Italia in seguito all’istituzione della Borsa Continua Nazionale del Lavoro (BCNL), un portale web con l’obiettivo di favorire l’incontro tra domanda e offerta di lavoro. In questo caso lo Stato ha imposto per legge alle varie agenzie di job placement pubbliche e private di cooperare mettendo a disposizione nel portale alcune informazioni dei profili dei richiedenti lavoro che esse gestiscono. Un secondo esempio è quello del parallel sourcing, modello tipico di approvvigionamento di materiale nell’industria automobilistica giapponese [?]. In questo caso un’organizzazione si rifornisce di materiale da più fornitori differen- ti, mantenendo il rapporto con ciascuno per un lungo periodo. Questo garantisce una fornitura costante di materiale e contribuisce a creare una forte competizione tra i fornitori. Tuttavia essi sono anche obbligati a scambiare conoscenza tra loro relativamente ai problemi di produzione e alle relative soluzioni.
Sistemi Informativi Statistici La Pubblica Amministrazione, o grandi aziende, pos- sono decidere di integrare parzialmente i propri sistemi informativi al fine di disporre di informazioni relative alla popolazione, con finalità di supporto alle decisioni e analisi statistiche.
L’integrazione dei sistemi informativi dei partecipanti si traduce nella costruzione di un sistema informativo federato, che consenta lo scambio di informazioni tra le or- ganizzazioni coinvolte. Tra i maggiori problemi nella costruzione di sistemi di questo
Stato dell’arte
In un contesto di coopetizione, ci sono sicuramente le questioni organizzative. Una prima analisi in questo senso è stata condotta con l’obiettivo di valutare quali siano i fattori che causano il successo o il fallimento del progetto, delineare i profili degli attori coinvolti nel processo di integrazione, classificare i possibili comportamenti che questi possono adottare, e infine individuare le fasi essenziali nella costruzione del sistema.
In un progetto di costruzione di un sistema informativo federato, su base coopetitiva, si possono individuare i seguenti attori:
Coopetition board committee Un comitato con il ruolo di favorire la coopetizione facendo da tramite tra le organizzazioni coinvolte e coordinando il progetto
Decision maker L’insieme dei dirigenti delle varie organizzazioni coinvolte, che hanno potere di decidere che grado di importanza assegnare al progetto e di conseguenza quante risorse destinare
Coopetition Process Key Role (CPKR) Un gruppo di persone per ognuna delle or- ganizzazioni coinvolte incaricate di interfacciare l’organizzazione con il coopetition board committee, al fine di realizzare la coopetizione. Solitamente sono persone di grado inferiore ai decision maker, ma con una grande influenza nel processo coopetitivo.
Gli autori evidenziano che in alcuni casi per conseguire gli obiettivi del progetto potrebbe essere necessario intervenire sui processi di business dell’organizzazione, in particolar modo quando è necessario affrontare problemi di qualità dei dati. La loro reingegnerizzazione è un’operazione costosa, ed è quindi necessario che i decision maker comprendano appieno l’entità del plus valore apportato dall’iniziativa all’organizzazione. In caso contrario non saranno disposti a investire sufficienti risorse, in termini di cap- itale sia umano che finanziario. Ciò è particolarmente importante nel caso in cui la coopetizione sia forzata da enti terzi.
Il ruolo dei CPKR è fondamentale per il successo del progetto, in quanto essi si occupano di rendere possibile l’integrazione predisponendo le necessarie interfacce tra l’organizzazione e il mondo esterno. Un caso tipico di CPKR sono i tecnici del reparto IT, che devono preparare le piattaforme hardware e software necessarie a permettere la comunicazione dell’organizzazione con la federazione. In alcuni casi i CPKR non os- serveranno un beneficio diretto dall’introduzione del nuovo sistema, e potrebbero quindi essere riluttanti nel partecipare alla cooperazione. In aggiunta, essi si trovano solita- mente in una situazione di subordinazione rispetto ai decision maker. Se questi ultimi non intendono investire adeguate risorse nel progetto, è molto probabile che lascino a disposizione dei CPKR, per l’attuazione del progetto, solo una piccola parte del totale delle ore lavorative.
Remote DBA tra aziende in modo coopetitivo
Parte 2 di 2
Fondamenti di
Informatica per l’organizzazione
Prima parte del corso: lezioni 1-6
Dispense redatte da:
Antonio Ceparano,Vincenzo Ferme,Monica Menoncin,Alessandro Re
Verificate dal professor Giorgio De Michelis per assicurare l’assenza di strafalcioni.
DISPENSE AMPLIFICATE DAL DOTTOR STEFANO FANTIN .
Storia dell’informatica nelle organizzazioni
Le aziende iniziano a far uso di automatismi e macchinari già prima dell’arrivo dei computer, ad esempio agli inizi del 1900 si utilizzavano macchine per organizzare l’anagrafe mediante schede ordinate e meccanismi di selezione, o per sintetizzare informazioni e conti, come ad esempio le Tabulating o Accounting Machines.
L’International Business Machines, IBM, nasce proprio in questo settore: inizialmente vendeva sistemi per le fatturazioni, che venivano fatte migliaia di volte al mese; vi erano quindi sistemi di produzione di fatture, ma non di gestione: non si facevano statistiche e non c’era un luogo dove memorizzare grandi volumi di dati.
A metà degli anni 30 e degli anni 40, tre gruppi di lavoro principali lavorano sui calcolatori elettronici programmabili: Alan Turing in Inghilterra, con l’obiettivo di realizzare un sistema di crittazione per scopi bellici, Konrad Zuse in Germania (da alcuni reputato il vero inventore del
calcolatore elettronico) e John von Neumann con il team dell’ENIAC in America. Gli americani in particolare hanno avuto il merito, dopo la guerra, di vedere un ruolo dei calcolatori all’interno delle organizzazioni e di introdurli quindi in questi ambienti.
Il concetto di calcolatore programmabile è però antecedente a questo periodo: già nella metà del 1800 Charles Babbage aveva ideato una macchina meccanica per eseguire i calcoli, il “motore differenziale”. Questa macchina era però affetta da problemi meccanici e non venne mai realizzata da Babbage (una produzione secondo i progetti originali venne completata nel 1991, Science Museum in London). Babbage progettò in seguito il “motore analitico”, una macchina ancora più complessa, che utilizzava schede perforate, e che era in grado di essere programmata a piacimento. Disponeva di unità aritmetica, controllo di flusso e memoria: era il primo progetto di un calcolatore Turing-completo.
Alla fine degli anni 50 si intuì che il calcolatore poteva essere usato nell’impresa e la pubblica amministrazione, la cui organizzazione soffriva a causa delle enormi quantità di dati. A causa dei costi elevati, solo le grandi organizzazioni e centri di ricerca (come quello spaziale) e l’esercito potevano permettersi un calcolatore.
Negli anni 60 l’informatica entra finalmente nelle aziende in maniera diffusa anche grazie al ruolo di IBM, che sviluppa il primo mainframe, il System/360 (1964), progettato per avere una diffusione molto ampia nelle organizzazioni medio/grandi di quel periodo.
In quell’epoca anche in Italia vi era una produzione di calcolatori elettronici per le organizzazioni, grazie ad Olivetti. Quest’azienda era composta da due gruppi di lavoro: a Pisa si effettuava la progettazione concettuale e fisica della macchina, ad Ivrea vi era il polo commerciale di vendita ed interazione col cliente. Lo sviluppo dei calcolatori, in quest’epoca, era una sfida e un’avventura, poiché’ non esistevano ancora processi di sviluppo che garantivano la realizzazione di macchine ad elevata usabilità.
Col tempo queste tecnologie si diffusero e il calcolatore divenne un mezzo con cui gestire tutte le informazioni codificabili.
Oggi, rispetto a 40 anni fa, l’informatica è cambiata molto. Ci sono stati molti miglioramenti rispetto al tempo delle schede perforate, ma purtroppo ci sono anche stati inevitabili problemi derivanti dal cambiamento che l’innovazione richiedeva. Attualmente ogni volta che introduciamo un cambiamento bisogna fare i conti con le tecnologie esistenti (legacy), spesso mal documentate o non documentate affatto, prevedere delle integrazioni e tempi di migrazione, scontrarsi con la resistenza degli utenti.
Nell’organizzazione aziendale vi è una spinta al continuo uso dei calcolatori per varie ragioni. Le più impellenti sono le enormi quantità di dati da gestire, spesso informazioni non strutturate, e la necessità di eseguire calcoli ripetitivi o complessi.
Visione a 3 facce
All’interno dell’organizzazione esistono tre ambiti d’interesse per i sistemi informativi:
l’ambito operativo, quello relativo alla registrazione dei fatti dell’azienda, necessario per il suo governo;
l’ambito decisionale, relativo all’elaborazione delle informazioni per sviluppare la Business Intelligence;
l’ambito collaborativo, relativo alla gestione dei flussi comunicativi e di conoscenza nell’azienda e con interlocutori esterni, necessario per poter concepire il nuovo.
Al funzionamento dei sistemi informativi corrisponde buona organizzazione delle attività e quindi vantaggio per gli stakeholder (siano essi i dipendenti, i soci, i fornitori, lo stato).
Questa suddivisione dei sistemi informativi, detta a “tre facce”, venne proposta in due articoli11 alla fine degli anni ,90 da un gruppo di esperti provenienti da università e background diversi, sosteneva la necessità di tenere conto dei tre ambiti per la realizzazione di un sistema efficace.
Le tre facce del sistema non vanno intese come componenti costitutive del sistema, ma come tre aspetti dell’azienda da considerare nello sviluppo di nuovi sistemi.
Sebbene i primi sistemi informativi nascessero esclusivamente per il supporto delle operazioni, durante la loro evoluzione non fu eseguita una propria separazione delle 3 facce del sistema, ma esse si sono amalgamate nei vari componenti che costituiscono il sistema nella sua interezza; i sistemi venivano creati per utilizzi specifici ed ognuno di essi aveva, al suo interno, aspetti propri ad ognuna delle 3 facce. Ad esempio, l’evoluzione dei sistemi a supporto delle operazioni proseguiva durante la nascita e lo sviluppo dei sistemi per la Business Intelligence.
Questo contribuiva alla realizzazione di sistemi composti da delle componenti separate, ma collaboranti. Ognuna di queste componenti ha una evoluzione separata dalle altre e la crescita del sistema consiste nelle scelte relative all’ottimizzazione dell’integrazione dei sistemi esistenti. Tali scelte d’integrazione però introducono rigidità e condizionano le scelte future: l’innovazione di un software continua per anni (10 o 15 anni) e mette continuamente in discussione i sistemi esistenti. Le scelte fatte nel passato riguardano le relazioni che intercorrono tra le componenti e che hanno condotto alla situazione attuale, non solo a livello di sistema, ma anche a livello di pregiudizi: convinzioni e consuetudini che si sono radicate nell’azienda, specialmente in situazioni di alta stabilità.
Le tre suddivisioni che abbiamo visto sono da considerarsi tre facce di uno stesso problema e non tre componenti distinti.
Supporto alle operazioni
L’informatica entrò nelle imprese dapprima in ambiti di interesse vitale e quantitativo: le informazioni essenziali dell’azienda sono quelle riconducibili ai valori economici e ai prodotti dell’azienda. Pertanto i primi tre ambiti ad essere informatizzati sono stati
gestione del magazzino e pianificazione della produzione;
contabilità, amministrazione;
amministrazione del personale.
La prima informatica nell’organizzazione è quindi legata alla produzione di una identificazione univoca dei fatti dell’azienda riconducibili a dei valori economici. Questo aspetto è ormai divenuto fondamentale perché’ rende trasparente l’attività dell’azienda. Oggigiorno è fondamentale che questa trasparenza sia presente secondo diverse legislature, pertanto all’interno di una organizzazione di dimensioni considerevoli esistono necessità che senza l’ausilio dell’informatica non si possono più soddisfare.
I sistemi che si occupano della gestione di questi dati fondamentali all’attività dell’azienda (magazzino, personale, fatturazione), e cioè che aiutano l’azienda nella sua attività propria, sono chiamati sistemi di supporto alle operazioni.
Prediamo ad esempio un’azienda fittizia che produce giocattoli: ogni oggetto prodotto è descritto dalla sua distinta base, cioè dall’elenco di tutti i suoi componenti, e ogni variazione nella distinta base dà luogo a un oggetto diverso: per esempio tutte le Barbie hanno 2 braccia e 2 gambe, ma alcune hanno capelli rossi, alcune hanno un certo vestito, eccetera. Possiamo identificare un prodotto e tutte le sue variazioni mediante l’uso di codici univoci.
Ogni prodotto ha delle giacenze di magazzino: ci interessa sapere quante Barbie abbiamo e quante ne abbiamo prodotte.
I prodotti devono poi essere venduti: quindi un’azienda deve amministrare le fatture relative alle vendite. A questo punto possiamo correlare denaro e prodotti e vedere quanto denaro entra per ogni prodotto uscito.
Tramite il sistema informativo possiamo quindi avere informazioni sui prodotti e sul denaro.
Parallelamente ai prodotti finali, per poter produrre qualcosa sono necessarie delle materie in ingresso, quindi dovremo registrare i materiali in ingresso e i relativi costi e giacenze.
Infine è necessario amministrare il personale. Le informazioni principali sono:
profili (personali, fiscali);
posizione nell’organizzazione;
indicazioni relative al sistema dei premi di produzione.
Supporto alle decisioni
La conduzione di una organizzazione però va oltre alla gestione dei fatti dell’azienda: per poter crescere, migliorare e sviluppare l’azienda è necessario effettuare delle scelte in base alle situazioni e alle problematiche (ad esempio l’aumento o la diminuzione della domanda di un prodotto) che si pongono sul cammino dell’azienda, ovvero fondamentalmente prendere decisioni basandoci sui fatti e sui valori economici.
Non solo: l’azienda può anche deviare percorso senza accorgersene se, ad esempio, dei canali di vendita sono troppo o troppo poco proficui (o addirittura rappresentano una perdita), l’azienda potrebbe inconsapevolmente dirigersi in direzioni non previste.
E’ quindi necessario porsi domande relative ai fattori che generano il cambiamento, o ai fattori che influenzeranno maggiormente le scelte operative dell’azienda. Per farlo è possibile costruire dei modelli con l’aiuto dei calcolatori per interpretare al meglio i dati noti.
Sono quindi necessari dei sistemi che permettano di avere accesso a tutta la conoscenza utile, ovvero quella relativa all’area di competenza di chi la richiede e utile a svolgere le attività di competenza, per poter dare una risposta, ma lasciando un buon grado di libertà di poter fornire una risposta responsabilmente.
Tali sistemi, che aiutano nella gestione dell’organizzazione, sono detti sistemi per il business management.
Questi sistemi permettono di attuare dei processi interpretativi che aiutino nella pianificazione e nelle scelte per il futuro sulla base di ciò che le dinamiche di produzione-vendita generano.
L’interpretazione di tali dinamiche viene effettuato dalla business intelligence (BI), cioè da quella disciplina, o insieme di tecniche, che va alla ricerca dei dati di cui l’azienda già dispone, ma di cui è (parzialmente) inconsapevole. I sistemi di monitoraggio e dei sistemi di decisione fanno parte della BI.
Col passare del tempo anche i sistemi di BI si sono evoluti: in passato tali sistemi erano orientati verso gli executive information system, ovvero ai sistemi per la raccolta dei dati, ma le esigenze aziendali sono cambiate negli anni e le aziende si pongono domande diverse rispetto al passato. Infatti non solo lavorano per migliorare costantemente l’azienda, l’ambiente di lavoro e il prodotto, ma la condizione del mercato e del settore specifico in cui produce l’azienda influenza il suo modo d’agire a breve e a lungo termine.
L’azienda necessita dunque di:
organizzare se stessa e i suoi impianti in modo da garantire un buon grado di flessibilità al cambiamento;
essere composta da personale capace e flessibile;
gestione di molte informazioni e relazioni con altre entità (persone, altre aziende, …).
La Business Intelligence deve quindi essere adeguata a supportare e facilitare le scelte dell’azienda, seguendone la strategia: i sistemi E.R.P, nati negli anni 60/70, erano rivolti ad aziende molto stabili, ma la condizione attuale è diversa. Non basta più sintetizzare i dati al servizio del manager, ma bisogna riuscire a generare informazioni aggiuntive, effettuare analisi complesse e molte volte costose. Servono quindi sistemi informativi specifici per queste esigenze.
Un esempio di come i sistemi si sono evoluti dalla gestione delle operazioni al supporto delle decisioni, è quello del magazzino.
Una volta la gestione del magazzino consisteva nella raccolta dei dati essenziali per la sua gestione: catalogazione delle giacenze, delle materie prime e dei prodotti finali.
Oggi il sistema è più ampio e gestisce, oltre ai dati, la programmazione e la pianificazione della produzione.
Tale sistema passa per diverse fasi evolutive:
algoritmi di base per l’impianto as a whole: in base alle entrate di materie prime e i
vincoli di produzione si determinano gli standard e ritmi che bisogna tenere (inventory theory)
modellazione più precisa dell’impianto con chiari vincoli temporali: catena di operazioni che devono necessariamente avvenire e loro controllo (logistics+automation)
in impianti molto grandi, la gestione non può essere prettamente automatizzata, e quindi è necessario aprirsi alla Business Intelligence (decision systems)
Anche l’amministrazione, come il magazzino, ha subito un cambiamento nel tempo: una volta i sistemi eseguivano il minimo indispensabile, davano quindi un supporto nella stesura delle fatture e del bilancio, ma oggi l’evoluzione spinge verso la programmazione e la progettazione, il controllo (monitoring) delle operazioni e dei progetti.
Unione di Operazioni e Decisioni nei sistemi ERP
L’integrazione tra i sistemi di supporto alle operazioni e i sistemi per la business intelligence continua ad aumentare fino alla comparsa dei sistemi ERP, Enterprise Resource Planning, che assumono il ruolo di sistema informativo unico per la vita dell’azienda. Questi sistemi, che raggiunsero la massima diffusione negli anni ,90, sono sostanzialmente utilizzati in tutte le imprese medio/grandi e si diffondono sempre più nelle aziende medio/piccole.
Il prodotto leader di questo mercato è SAP.
L’adozione di un ERP (non necessariamente SAP) è un nuovo inizio per l’azienda: il consolidamento dell’informazione e la sua gestione centralizzata, ma modularizzata, permette logiche di ragionamento complesse (studio margini di rendita, scenari di solvibilità/insolvibilità…).
Quindi tradurre la struttura di un’impresa in un modello per un ERP è un buon metodo per capire completamente come sono strutturate e come funzionano le aziende. Con gli ERP però è difficile riuscire a catturare l’essenza delle aziende come “generatrici di conoscenza”, e diviene impossibile rappresentarle in tutti i loro dettagli.
Infatti il problema della rappresentazione dell’azienda nasce dal fatto che i sistemi ERP attualmente presenti si basano su un unico modello di azienda funzionale gerarchica (modello ARIS), mentre nel mondo moderno è comune individuare organizzazioni con struttura matriciale, in cui le persone non hanno una singola dipendenza (dal superiore), ma doppia: una per l’ambito funzionale (conoscenze che le singole persone hanno, ad esempio un designer ha un “capo designer” di riferimento) e una per l’impiego (il progetto in cui stanno lavorando, ad esempio il designer ha un “capo progetto” per il progetto in cui sta attualmente lavorando).
Ci sono quindi più responsabili per un singolo dipendente, con potenziali situazioni conflittuali.
Inoltre, gli ERP presentano delle limitazioni legate alla variabilità dell’azienda: un’azienda non può predire come evolverà e come cambierà. Il sistema informatico deve necessariamente adattarsi ai cambiamenti dell’azienda, ma a volte l’ERP è troppo strutturato per poter star dietro all’evoluzione dell’azienda e questo difetto introduce a sua volta una rigidità che si pone come ostacolo all’evoluzione aziendale.
In ultima analisi, nel momento in cui si decide per un ERP, si deve capire:
integrazione dati: gli ERP non possono ovviamente prescindere dai dati d’azienda, che sono tanti e sono disorganizzati, vi è la necessità di utilizzare i datawarehouse
quali problemi sorgono gestendo l’azienda interamente con l’ERP
quindi, quali sono le caratteristiche distintive dell’azienda che adotta un certo ERP e quali di esse hanno a che fare con questi problemi (es. caratteristiche proprie delle aziende di un certo paese, es. quelle italiane si distinguono per tradizione e gestione familiare, dimensione medio-piccola, resistenza al cambiamento)
Gestione della conoscenza
Quando un’azienda decide di entrare in una determinata fascia di mercato, non può iniziare dal nulla: esistono dei criteri secondo i quali è necessario agire ed esistono parametri che vanno attentamente analizzati. Lo studio dei competitors e del mercato è necessario non solo per districare le possibili strategie da adottare, ma anche per poter confrontare i risultati delle proprie strategie con quelle esistenti.
Le decisioni prese all’interno di un’azienda sono quindi il risultato di un processo, che però non è né formale né ha un iter ben definito. Benché qualcuno abbia provato a formalizzare questi processi e il modo in cui le persone ragionano, il risultato netto è che il comportamento delle persone è raramente quello che ci si aspetta.
In linea generale, il processo di studio del mercato ha due componenti fondamentali:
componente dialogica, ovvero comunicazione tra le persone. Quando esse non hannoabbastanza informazioni, possono chiederle a qualcuno in modo implicito od esplicito.
Nelle aziende il “decisore finale” è chiamato Chief Executive Officer (CEO) che è eventualmente affiancato da un consiglio, a cui fa capo. Il CEO deve comunicare costantemente con tutte le persone coinvolte nel progetto, scambiando informazioni per trovare il modo di portare profitto all’azienda.
componente documentale, ovvero scambio e/o condivisione di documenti. Non solo c’è una comunicazione tra le persone, ma c’è anche uno scambio di documenti necessario per avere una base comune su cui discutere. Si raccolgono informazioni e si fanno studi sul mercato in cui si intende entrare, e nel modo in cui entrare sul mercato.
La gestione della conoscenza e delle informazioni è una componente fondamentale per tutti i settori in cui si rende necessario prendere un certo tipo di decisioni, non legate strettamente ai dati certi dell’azienda, ma spesso legate a dati incerti.
Due settori che hanno conosciuto un’evoluzione in questo senso negli ultimi anni, sono quello di marketing e quello commerciale, specialmente quello di marketing che non solo si basa su dati incerti – al pari del commerciale – ma deve anche interpretare i comportamenti delle persone.
I sistemi informativi per il marketing e il commerciale non nascono nell’area dei sistemi di supporto alle operazioni, ma nell’area di elaborazione delle informazioni e si evolvono verso la gestione dei flussi informativi, perché devono prendere in considerazione molte più fonti di informazione, anche esterne.
L’informatica deve interfacciarsi ad un sistema complicato di comunicazione e di scambio di informazioni. E deve affrontare un problema complesso per integrarle e dare risposte alle esigenze delle aziende.
Il sistema di comunicazione ormai segue un flusso che esce dall’azienda e apre una serie di problemi nuovissimi. Nel settore degli elettrodomestici, ad esempio, le aziende non conoscono i loro clienti finali, perché la realtà attuale è che gli elettrodomestici vengono venduti in negozi multi-marca, dove c’è un intermediario, il gestore del negozio, che stabilisce un rapporto di fiducia col cliente. Anche i tecnici riparatori sono spesso multi-marca, e l’azienda si trova ostacolata nella comunicazione col cliente perché non vi interagisce direttamente. I produttori, quindi devono aprire canali di conversazione con i loro clienti, ma questo compito non è facile da assolvere, poiché spesso l’unico riscontro che hanno le aziende da parte dei clienti avviene solo quando i clienti non sono soddisfatti.
Per una azienda, il flusso di conversazione col cliente vale tanto quanto la vendita di un prodotto, perché implica la sua fidelizzazione. Fino a qualche anno fa, il canale col cliente era organizzato solo mediante call center. Recentemente, invece, l’ICT si sta diffondendo sempre più e non solo occupa una posizione nel backoffice, ma assume un nuovo ruolo nella comunicazione col cliente.
L’interazione con il cliente e la gestione del flusso di conversazione ha portato i vari dipartimenti dell’azienda ad adottare nel tempo un proprio sistema di comunicazione. Tra tali dipartimenti però esiste la necessità di interazione, e questo pone un problema a livello di integrazione degli strumenti che i vari dipartimenti utilizzano. Le politiche di conversazione col cliente, quindi, rompono i confini aziendali e pongono il problema di dove mettere gli strumenti per poter fare questa conversazione; ogni azienda presenta un profilo di integrazione molto peculiare, che dipende dalla storia dell’azienda stessa.
La conversazione che coinvolge la creazione e lo sviluppo di nuovi prodotti ha quindi due sorgenti principali:
una sorgente esterna, data dal comportamento della concorrenza e dei loro prodotti e dal comportamento dei clienti;
una sorgente interna, data dal confronto tra le previsioni di vendita e le vendite effettive.
L’interazione col cliente avviene anche mediante i “sistemi operativi” (ovvero i sistemi di supporto alle operazioni), che man mano si stanno spostando da un ruolo strettamente legato all’azienda e al suo core business, verso un ruolo più vicino all’utente integrando sempre più servizi e offerte per il consumatore.
La tecnologia ci permette di allargare lo span dei sistemi di supporto alle operazioni, cambiando radicalmente l’interazione che abbiamo col cliente.
Ad esempio, le società di telecomunicazioni odierne chiamano “sistemi operativi” i sistemi che gestiscono le reti telefoniche e l’atto di comporre il numero telefonico è una interazione con quel sistema operativo, anche se dall’utente questa comunicazione non è percepita come tale.
Dall’altra parte, i sistemi operativi utilizzati in aziende di e-commerce come Amazon, sono molto visibili agli utenti che instaurano con questo sistema una sorta di dialogo (ad esempio, il sistema di Amazon propone all’utente libri che potrebbe trovare interessanti basandosi sulle scelte degli altri utenti).
L’interazione con l’utente è fondamentale nel momento in cui l’azienda vuole associare il prodotto da vendere con il messaggio trasmesso: quando un’azienda ragiona sulla propria esistenza, sul prodotto che vende e sulla sua relazione col mercato, confronta l’esistente col possibile. Questo si fa lavorando sulla conoscenza che si ha, che deriva dai dati (cioè dai numeri raccolti), ma anche dalla conoscenza non numerica che l’azienda raccoglie da competitors e clienti.
Questo ambito di gestione della conoscenza si fa sempre più significativo all’interno delle organizzazioni moderne, è un aspetto nuovo.
Ed è interessante vedere che alcune aziende hanno forti interazioni con i clienti e sono sempre più sensibili all’opinione pubblica e alla relazione con la clientela. Ad esempio, per la FIAT 500, è stato lanciato un sito web (500 giorni prima del lancio sul mercato) che raccoglieva le indicazioni dei clienti potenziali e futuri e di fatto ha influenzato il prodotto poi presentato al mercato (ad esempio il cruscotto è stato un elemento ridisegnato richiamando quello della 500 originale secondo l’indicazione del pubblico).
L’interpretazione del mercato deve necessariamente passare attraverso l’interazione con i potenziali clienti.
Per farlo, ci interessano quindi gli strumenti per la gestione della conoscenza e della collaborazione (groupware). La comunicazione, sia interna che esterna, è essenziale per il successo di una azienda.
Tutti gli strumenti che si diffondono nelle organizzazioni sono sempre più orientati alla gestione della conoscenza, non solo per interpretare il mercato, ma anche per permettere la condivisione della conoscenza all’interno dell’azienda; ad esempio, un’azienda con delle sedi separate e lontane (e.g. Milano e Roma), potrebbe utilizzare dei sistemi di gestione della conoscenza e della comunicazione per avvicinare le esperienze reciproche, impedendo lo sviluppo di due nuclei separati e fornendo così localizzazione ed integrazione del know-how24.
I sistemi di gestione della conoscenza interessano anche chi deve prendere decisioni più piccole e meno strategiche, per esempio il customer service che deve dare delle risposte ai clienti può avvalersi di FAQ, ovvero un insieme di risposte a domande comuni formalizzate a partire dalle conoscenze condivise. Ma qualunque forma di processo formalizzato, proprio in quanto formalizzato, prevede delle eccezioni. Esse, per loro natura, non possono essere normalizzate e alcune non sono eliminabili. In alcuni ambiti l’eccezione occupa un ruolo importante, come nella pubblica amministrazione, ad esempio, dove si stima che l’eccezione rappresenti circa la metà dei casi.
I processi sono accompagnati da un flusso di informazioni: qualora il processo non sia ben gestito, anche la comunicazione delle informazioni non è efficace.
Esistono altri processi, quelli decisionali o quelli di progettazione, che sono pianificabili, ma il modo in cui si organizza un progetto influenza la sua realizzazione e non è conveniente che il progetto sia troppo rigido. In questi casi si può pensare che il processo sia un flusso di conversazione che contiene al suo interno dei passaggi formali e precisi.
Ci sono processi decisionali e processi di progettazione che non possono essere troppo rigidi, perché’ il flusso di conversazione è importante tanto quanto i vincoli o le specifiche di progetto.
Integrazione dei 3 ambiti
Fino a pochi anni fa, i mondi dei sistemi di supporto alle operazioni e decisioni e i sistemi di gestione della conoscenza erano completamente separati ed inconciliabili; tra questi sistemi, però, non ci sono distanze incolmabili. In primo luogo per accedere ed utilizzare entrambi i sistemi si utilizza il personal computer: prima c’era una macchina dedicata per ogni funzione, ma attualmente il computer è universale e i sistemi sono reperibili nello stesso posto. I computer sono inoltre diffusi e sempre più centrali nella comunicazione: negli anni 80, alla domanda
“quanti computer servono alla mia azienda?”, venne data la risposta “più o meno tanti quanti apparecchi telefonici avete”, questo è un primo segno di come il computer sia diventato uno strumento importante per la gestione della comunicazione.
Quindi nel corso degli anni, oltre ai sistemi informativi per la gestione dei dati dell’azienda, sono stati introdotti dei sistemi per la gestione dell’azienda, della conoscenza e della comunicazione. Si è creato un percorso di dati che va dal sistema informativo di paghe e amministrazione fino ai sistemi di groupware che contiene una serie di informazioni sfumate e via via meno precise.
I flussi di informazioni e l’integrazione del groupware coi sistemi di supporto alle operazioni fanno si che in linea di massima non esistono più sistemi contenenti dati statici. Ad esempio, non esistono più dei sistemi per la gestione dei pagamenti dei dipendenti, perché’ essa viene accorpata ad un sistema più complesso di gestione della carriera. Questo permette di offrire di più ai dipendenti, oltre al rapporto di lavoro, migliorando il legame con l’azienda.
Il cambiamento dei sistemi informativi, che integra sempre più la registrazione dei fatti coi flussi di comunicazione, si adatta inoltre al cambiamento sociale ed in particolare al cambiamento nel modo in cui si vede il rapporto di lavoro: esso è diventato una partnership tra i dipendenti e l’azienda. L’azienda ha interesse a valutare i suoi dipendenti e mantenere un dialogo con essi relativamente alle condizioni lavorative. Per questo il dipendente non è valutato solo dall’alto, ma anche dai colleghi (peer-to-peer evaluation). I sistemi informativi aziendali puntano sempre più a sistemi di gestione del personale aperti al personale stesso, fornendo loro la possibilità di esprimersi sull’ambiente di lavoro, sugli obiettivi posti, eccetera.
Le tecnologie disponibili oggi per le conversazioni e lo scambio di informazioni includono:
e-mail: che è universalmente adottata, nella quale la traccia della comunicazione è generata automaticamente;
skype: molto utile per le comunicazioni verbali;
servizi di videoconferenza tra più persone: migliori di skype per la comunicazione tra più persone;
telefono.
Alle informazioni scambiate sono legati dei documenti, gli attachment, che sono comodi ed utili, ma creano una ridondanza e una certa confusione perché’ legati, ma non integrati, alla discussione e quindi presenti spesso in più versioni, quindi non uniche e non ben organizzate temporalmente.
Per ovviare agli svantaggi in questo senso degli attachment, sono nati dei sistemi specifici: i document management systems. Ne esistono diversi, una delle versioni più celebri è il wiki.
Costi
I costi principali che derivano dall’utilizzo dei calcolatori sono:
acquisto
installazione
mantenimento
training operator (corsi di istruzione per i tecnici che vi operano)
Quando un’azienda si rivolge ad una esterna per ottenere dei servizi. E’ necessario per gestire al meglio ciò che l’azienda realizza (core business), tutto ciò che è esterno viene trattato come costo (outsourcing).
I contratti di outsourcing sono contratti lunghi e complicati dove l’azienda richiede all’esterno delle prestazioni che non sono strettamente correlate al suo “core competence”, cioè l’azienda delega all’esterno tutto ciò che non è puramente legato a ciò che l’azienda deve realizzare. Si cerca di spostare quella che è una competenza dell’azienda all’esterno, rendendolo costo, ma si risparmia nelle risorse impiegate all’interno dell’azienda.
I settori in cui prima s’è fatto l’outsourcing è l’ICT, la logistica e, di recente, anche l’amministrazione stessa. Un vantaggio che si ha è che l’organizzazione è sollevata da alcuni oneri che sono caricati su aziende esterne come servizi (si usa il know-how esterno), una diretta conseguenza è che però si perde il controllo diretto e costante su ciò che viene effettuato in outsourcing.
La stima dei costi è un forte problema per l’informatica, soprattutto se orientati a stimare i possibili risparmi che potrebbe generare l’adottare una tecnologia (Ex: con una posta elettronica è difficile stimare dove si sta risparmiando).
Una figura che assume valore in dipendenza di questo è abile a diminuire i costi dell’informatica
è il CIO (Chief Information Officer), perché dimostra che il suo potere non dipende dal denaro che gestisce, ma da quanto denaro fa risparmiare all’azienda.
La situazione attualmente presente nelle organizzazioni ha varie caratteristiche
la tecnologia si è stratificata e si è riorganizzata generalmente intorno a un ERP aggiungendo dei pezzi. Il livello di eterogeneità è complicato dal fatto che ci sono sia sistemi batch sia sistemi on line (web based, ….)
l’accesso a tutti i servizi erogati dai sistemi avvengono tramite personal computer.
Il problema per chi usa le tecnologie e per chi le produce è quello di valutare quello che è a disposizione e per farlo occorre trovare dei criteri rigorosi.
Caso di studio selezionato: “United Parcel Services (UPS): delivering packages and e-commerce solutions”, ad opera del center for information systems (MIT).
Introduzione
Dall’alto dei suoi 15milioni di colli quotidiani, UPS è il leader mondiale del trasporto pacchi.
La società, nata nel 1907 col nome American Messenger Company, ha accresciuto durante il secolo la sua fama di compagnia di trasporti affidabile ed efficiente, finchè alle soglie del 2000 è risultata essere la più vasta organizzazione di trasporti del pianeta, con circa 13milioni di pacchi trasportati al giorno in più di 200 paesi.
Negli ultimi anni ha esteso il proprio business ben oltre il “semplice” trasporto di oggetti: investendo in ricerca e sfruttando le potenzialità dell’IT, ha introdotto una moltitudine di servizi aggiuntivi.
La tecnologizzazione dell’azienda non è stata una scelta dettata da precise priorità. L’introduzione negli anni ’80, da parte dei competitors, di servizi altamente tecnologici non ha suscitato nel management alcun desiderio di emulazione e v’era anzi riluttanza a spendere più dell’1% del budget annuale in sistemi informatici. Fu solo un cambio dei vertici nel 1986 a portare il benefico cambio di rotta, che condusse a massicci investimenti e alla creazione dell’esteso parco servizi. Tra il 1986 e il 1996 UPS ha riversato più di 11 milioni di dollari nell’IT, portando il proprio parco di professionisti informatici da 100 a più di 4000 unità.
Questa decisione ha avuto ripercussioni sui sistemi, sui servizi offerti ai clienti, l’ottimizzazione delle attività, i rapporti con i partner e la gestione del personale.
Sistemi
Nel bruciante avvio degli investimenti nell’IT, UPS ha subito realizzato una facility nel New Jersey dedicata a storage ed elaborazione dei dati; tale complesso avrebbe dovuto rivestire il ruolo di database centralizzato di tutti i fatti e informazioni riguardanti l’organizzazione, fornendo un punto di accesso unico per tutte le filiali dell’azienda.
Il db centrale era fondamentale innanzitutto per assicurare le capacità di tracking, ovvero la conoscenza in ogni istante della localizzazione di un pacco. Tale innovazione, introdotta dalla concorrenza, era molto gradita dai clienti. UPS ritenne dunque imperativo investire in
una rete capillare che consentisse questo flusso di informazioni: il network, che prese il nome di UPS Net, fu varato nel 1990.
Il database doveva contenere non solo le informazioni sui pacchi (una quantità già enorme, circa 200 gli attributi per ogni oggetto spedito) ma anche sugli altri aspetti: logistici, dati dei clienti e del personale. Questa gestione dei dati ha impattato sul core business di UPS, sulle sue modalità organizzative e sulle modalità di collaborazione.
Una volta assicurata una solida infrastruttura, UPS ha iniziato a calcare la mano sulla tecnologizzazione delle proprie attività. Nel 1993 ha introdotto DIAD, un sistema automatico di riconoscimento dei colli che, in tempo reale, riconosce il pacco e aggiorna i database con le operazioni effettuate su di esso (partenza, trasporto, ritiro, ecc). DIAD consiste in un mini-terminale, attualmente basato su Windows Mobile, dato in gestione a chiunque maneggi i pacchi. Il terminale è dotato dello stato dell’arte della connettività (la quarta release, attualmente in uso, ha Wi-Fi e GPRS, ma anche bluetooth e infrarossi per potersi connettere a computer e stampanti) e naturalmente di un GPS, per aiutare gli autisti nella ottimizzazione dei percorsi e per aggiornare la posizione attuale del pacco. L’analisi delle informazioni trasmesse dai DIAD fa emergere una pletora di dati che la compagnia sfrutta per profilare i clienti, ottimizzare i flussi delle spedizioni e per mettere in pratica un activity based costing. Inoltre, dai dati emergono eventuali “vizi” o peculiarità della progettazione delle spedizioni dei clienti, il che consente a UPS di proporre consulenze e servizi di reingegnerizzazione. L’ottimizzazione delle spedizioni, campo classico della ricerca operativa applicata all’informatica, la fa da padrone nelle attività di UPS.
L’esplosione del worldwide web a metà anni ’90 ha aperto nuove opportunità, sfociate nella introduzione di una vasta gamma di servizi basati su internet (UPS Online Tools). Fu una delle prime compagnie a dotarsi di un proprio sito web e, molto prima della teorizzazione del cosidetto e-commerce, intuì le potenzialità del collocarsi tra produttori e consumatori, tagliando fuori dalla catena rivenditori e distributori.
Tutti i sistemi informatici sono stati sviluppati internamente ad UPS. Molte applicazioni non sono rimaste appannaggio esclusivo della compagnia – ad esempio, il già citato tracking o i sistemi di preventivo dei costi aggiornati in tempo reale in tutto il pianeta – ma son state rese disponibili ai clienti: chi vuole può integrare questi applicativi nei propri software, anche nei sistemi ERP. UPS fornisce le API e la docuementazione, chiedendo solo il mantenimento del brand.
Tenendo a mente questo cambio di target delle applicazioni – dall’uso interno allo sviluppo customer-oriented – i reparti IT han cominciato a sviluppare in maniera quanto più possibile interoperabile e modulare:
l’adozione sistematica di standard aperti ha reso vincente UPS sotto il primo aspetto, e oggigiorno moltissime compagnie incorporano agevolmente le funzionalità di UPS nei propri software;
la modularità ha facilitato il riuso e l’aggiornamento di codice, accelerando i miglioramenti e le nuove implementazioni. Purtroppo, le limitazioni di budget impongono un freno a questa corsa. Tale aspetto sarà visto meglio nel paragrafo organizzazione.
La struttura fortemente centralizzata dei sistemi descritti finora era assai prona a brusche interruzioni in caso di disastri; una compagnia come UPS non può permettersi dei down-time. Per questa ragione, nel 1996 il chief information officer decise di introdurre un data center parallelo ad Atlanta che replicasse tutte le operazioni, assicurando l’auspicabile business continuity. La robustezza e l’efficienza di UPS sono così elevate che l’azienda può
garantire spedizioni in finestre temporali ristrettissime (anche un’ora per i servizi critici).
Tra le innovazioni tecnologiche rilevanti degli ultimi anni, UPS ha introdotto il tagging RFID dei propri colli speciali, scelta che ha velocizzato le procedure di riconoscimento e risolto il problema della lettura dei tag visivi (come i codici a barre) sui pacchi di forma irregolare . Inoltre, è stato realizzato un sistema di riconoscimento vocale (UPS Interactive VoiceResponse) per alleggerire il carico di lavoro umano ai centralini telefonici. Come si evince, UPS tiene in particolare considerazione l’evolutività dei suoi sistemi e abbraccia di buon grado qualunque nuova tecnologia possa aumentare la produttività.
Organizzazione
Le decisioni strategiche in UPS vengono prese sulla base dell’analisi dei dati raccolti dalle due facility di elaborazione dei dati, organizzati nelle data warehouse e proposti tramite un enterprise information system. Per quanto concerne le strategie a lungo termine, UPS svolge continuamente attività di intelligence e sopratutto analisi di mercato. Verificando periodicamente l’offerta della concorrenza può cercare di colmare il gap (emulazione competitiva).
Le decisioni all’interno di UPS all’inizio venivano prese esclusivamente in seguito alle valutazioni del senior management committee. In seguito al processo di informatizzazione, è stato introdotto l’IT steering committee formato da quattro esperti che, ogni quarto trimestre, impongono la direzione tecnologica. Nel corso dell’anno, la commissione raccoglie le idee e le richieste provenienti dai vari settori della compagnia; poiché, come detto, i dipartimenti IT sono tutti radunati nelle due sedi parallele – e non è previsto che sottogruppi si dedichino a necessità di singole filiali – si privilegiano i progetti trasversali. Non essendoci un budget infinito van decisi i progetti da sviluppare, ordinandoli per priorità ; la rilevanza viene calcolata dallo steering committee sulla base dei costi e benefici attesi: un sistema di supporto alla decisione elabora i dati, basandosi su parametri come ritorno di investimento previsto, impatto su altri sistemi/procedure, e così via. I progetti con priorità più alta vengono quindi discussi ed eventualmente ridimensionati; infine viene assegnato un budget e delle risorse umane. Un aspetto significativo di questo meccanismo è che il sistema decisionale privilegia i progetti a breve termine perché se una implementazione richiede più di un anno, UPS ritiene che il mercato sarà già mutato prima della conclusione dello sviluppo.
Lo steering committee impone che tutti gli applicativi riflettano lo stile e l’impianto grafico della compagnia. Per questa ragione decide a tavolino i templates da utilizzare per qualunque pezzo di software sviluppato; l’intera organizzazione ci si deve attenere.
Per quanto concerne gli obiettivi non direttamente correlati all’IT, i vertici di UPS fan largo utilizzo del cosidetto sentiment mining, sfruttando la piattaforma Radian6 che effettua il monitoraggio dei principali social networks (forum, blogs, facebook, linkedin, twitter, youtube, ecc) e fornisce delle dashboard riepilogative della reputazione della compagnia in rete. Tra gli altri aspetti tenuti sotto stretta sorveglianza c’è anche lo sfruttamento del brand.
Al fine di esplorare possibilità radicalmente nuove, UPS ha anche dato il via ad una divisione chiamata e-Ventures, che si occupa di identificare nuove frontiere di business nel campo del web, non riconducibili alle attività della concorrenza e che potrebbero aprire nuove partnership con altre compagnie. Il primo prodotto di e-Ventures, approvato dal
senior management nel 2000, fu UPS e-Logistics, una piattaforma on-line completa di gestione delle spedizioni per le compagnie che adottino UPS come corriere standard. L’idea di e-Logistics è offrire un unico pacchetto integrato che fornisca qualsiasi aiuto possa servire: dalla gestione del magazzino al tracking, passando per la gestione dell’ordine, il supporto telefonico, eccetera. E-Ventures produce in media una trentina di proposte innovative all’anno.
Nel 1997 UPS ha istituito un fondo chiamato UPS Strategic Enterprise Fund, il quale monitora, valuta e investe in compagnie emergenti che esplorino nuovi mercati e tecnologie di potenziale interesse. Proprio tale fondo ha identificato e condotto all’acquisizione nel 2004 di Impinj Inc., ditta produttrice di tag RFID.
Collaborazione
Come si evince dai paragrafi precedenti, UPS ha diverse tipologie di clienti:
i privati che si inviano pacchi;
le aziende che si appoggiano ad essa per recapitare i pacchi ai propri clienti
(commercio on-line senza intermediari di alcun genere);
le aziende che non solo spediscono pacchi ma sfruttano anche le loro applicazioni informatiche.
La comunicazione con i clienti del primo tipo avveniva principalmente tramite dei call center, ma con l’esplosione del web gran parte dell’attività di supporto è stata dirottata sull’e-mail. Ad esempio, è possibile ricevere notifiche via posta elettronica dello stato della spedizione, o controllarlo direttamente dal sito. L’esubero di personale telefonico, cui ha contribuito anche il sistema di riconoscimento vocale, ha consentito ad UPS di creare un nuovo fronte di business: la concessione di tale personale alle aziende partner (UPS Business Communication Services).
Le organizzazioni che sfruttano i servizi informatici possono comunicare con UPS anche tramite una sezione del sito raggiungibile tramite autenticazione. Per evitare di dover soddisfare quantità enormi di richieste ricorrenti, UPS ha predisposto una serie di FAQ in tutte le lingue e una knowledge base in cui tentare di trovare la risposta più velocemente.
C’è un solo tipo collaborativo che avviene senza il coinvolgimento di sistemi ad hoc, ed è quello verso i partner che non mostrano interesse per i servizi aggiuntivi. Tali aziende vengono contattate personalmente da un electronic commerce account manager che propone eventuali funzionalità dal portfolio UPS che, in base ad analisi di spedizioni e carichi, potrebbero risultare vantaggiose.
La collaborazione interna in UPS avviene in differenti maniere:
Gli amministrativi operano tramite telefono e/o e-mail; opportuni servizi di ticketing via web gestiscono il flusso di lavoro per i problemi tecnici; un applicativo ad hoc, sempre basato sul web, si occupa di raccogliere e organizzare le proposte innovative che verranno analizzate alla fine dell’anno all’IT steering committee.
Gli autisti comunicano con le filiali o le sedi centrali tramite il mini-terminale DIAD, in costante collegamento. Gli uffici amministrativi possono trasmettere delle informazioni urgenti (ad esempio sul traffico, variazioni di destinazione, eccetera), facendole apparire sul display.
Fondamenti di Informatica per l’organizzazione
Seconda parte del corso: lezioni 7-12
Dispense redatte da:
Antonio Ceparano,Vincenzo Ferme,Monica Menoncin,Alessandro Re
Verificate dal professor Giorgio De Michelis per assicurare l’assenza di strafalcioni.
DISPENSE AMPLIFICATE DAL DOTTOR STEFANO FANTIN
Per poter introdurre innovazione all’interno dell’azienda, è innanzi tutto necessario conoscere l’infrastruttura tecnologica di cui disponiamo. Essa è importante ed accompagna l’evoluzione dei sistemi informativi e perché tale evoluzione avvenga, bisogna tener conto delle tecnologie.
Innovazione
Anni ‘60/’70
Sistemi adottati: sistemi per la gestione delle operazioni.
Localizzazione: in house1/in services.
Tecnologia: Mainframe2
Le aziende sono nel pieno dello sviluppo industriale, con l’economia mondiale che ha recuperato dalla guerra e le imprese crescono a dismisura. Questo però non succede ovunque, ma in un numero limitato di Paesi industrializzati. L’Italia, nell’adozione delle tecnologie informatiche (non nella loro progettazione, come dimostra Olivetti), era un poco in ritardo rispetto agli altri Paesi.
Anni ‘80/’90
Sistemi adottati: sistemi per la gestione delle imprese.
Localizzazione: in house.
Tecnologia: su workstation in LAN, VPN in rari casi, reti a stella
Aziende in sviluppo, ma si presenta la prima crisi petrolifera: è un campanello d’allarme, ma viene vista come una fase transitoria. La crisi petrolifera è un’ostacolo alla crescita economica e lascia la situazione con elevatissima instabilità: in molti Paesi c’è un’inflazione altissima, la moneta si svaluta e i costi dell’energia e del lavoro aumentano. È in questo periodo che cresce l’idea di sviluppare in regioni ove la manodopera è a basso costo. Questo cambia sensibilmente le cose: in Italia in quegli anni avviene un cambio strategico delle imprese trainanti nello sviluppo, che fino ad ora puntavano sulla produzione di prodotti a basso costo. Emergono quindi aziende che si qualificano per l’eccellenza della qualità del lavoro (tessile, moda, meccanica, chimica). In vari settori il “Made in Italy” diviene sinonimo di qualità. Ma lo sviluppo di giganti come Russia, India, Cina, porta a delle situazioni non previste dai modelli economici conosciuti: il consumo quadruplica e questi Paesi si trovano in situazioni mai sperimentate prima.
Anni ‘90/’00
Sistemi adottati: ERP.
Localizzazione: ln house / Outsource.
Tecnologia: General Purpose (e.g. PC) via internet
In questo periodo l’economia è guidata da due fattori principali: l’instabilità e l’aumento della competizione. Le aziende cercano di riposizionarsi, trovando altri ruoli e altre tecnologie. Le imprese possono pensare di avere un orizzonte certo rispetto alle loro mosse; mentre durante lo sviluppo economico le risorse erano abbondanti e c’era garanzia di averne negli anni successivi, avendo quindi libertà di manovra per cambi strategici anche in breve periodo, ora è necessario pianificare meglio l’uso di risorse per periodi lunghi. In particolare per le tecnologie elettroniche ed informatiche, l’instabilità del mondo moderno fa si che un prodotto vincente in un particolare momento, non è detto che possa durare a lungo sul mercato. Questo vale nel breve termine e, a maggior ragione, nel lungo termine.
Anni ‘00/’10
Siamo ancora in gioco!
Anni ‘10/’20
Cosa accadrà?
La prima tecnologia a disposizione è il mainframe (IBM S/3603 è tra i primi ad entrare in azienda). Nel settore dell’ITC l’innovazione è massiccia e sono molte le aziende che nascono, si sviluppano in modo consistente, ma spariscono in fretta, a volte assorbite (come Netscape, famosa per l’omonimo browser, è ora una divisione di AOL), a volte no.
La struttura del mercato dell’informatica detta regole molto stringenti per l’innovazione.
Con la diffusione delle prime connessioni nascono i terminali per l’accesso remoto ad un calcolatore centrale (topologia stellare). Poi la rete si è sviluppata posizionando server intermedi. Solo in seguito arriva Internet, un’infrastruttura che ci permette di integrare una
moltitudine di architetture differenti (gerarchiche, peer to peer4, client-server5, anello…). In Internet tutto ciò che c’è di intermedio tra due terminali comunicanti è nascosto, le strutture si definiscono dopo che la rete è stata sviluppata. Essa ci fornisce una spaventosa libertà: non abbiamo più bisogno di una struttura che ci permette di mettere ordine.