fbpx

Hale waihona ukana a me ERP | CENTRAL DATA ARCHIVE: MOOLELO A ME NA HUAKAI

PALAPALA ʻIkepili CENTRALE : STORIA ED EVOLUZIONI


I due temi dominanti della corporate technology negli anni 90 sono
stati i hale kūʻaiʻikepili e l’ERP. Per molto tempo queste due potenti
correnti sono state parti della corporate IT senza mai avere
intersezioni. Era quasi come se fossero materia ed anti-materia. Ma
la crescita di entrambi i fenomeni ha portato inevitabilmente a una
loro intersezione. Oggi le aziende stanno affrontando il problema di
che cosa fare con ERP e hale kūʻaiʻikepili. Questo articolo illustrerà
quali sono i problemi e come vengono affrontati dalle aziende .
MA KA HOOMAKA…
I kinohi ka hale kūʻaiʻikepili. Hale ukana ʻikepili è nato per
contrastare il sistema applicativo di elaborazione delle transazioni.
Nei primi tempi la memorizzazione dei dati era pensata per essere
solo un contrappunto alle applicazioni di elaborazione delle
transazioni. Ma al giorno d’oggi ci sono visioni molto più sofisticate
di quello che può fare un hale kūʻaiʻikepili. I kēia ao ka
hale kūʻaiʻikepili è inserito all’interno di una struttura che può essere
chiamata Corporate Information Factory.
KA HALE IKE HUI
(CIF)
La Corporate Information Factory ha dei componenti architetturali
standard: un livello di trasformazione e di integrazione del codice
che integra i dati oiai au dati si muovono dall’ambiente di
applicazione verso l’ambiente del hale kūʻaiʻikepili o ka hui; a
hale kūʻaiʻikepili o ka hui kahi i dati
nā moʻolelo kikoʻī a hui pū ʻia. ʻO ka hale kūʻaiʻikepili dell’azienda serve da
fondamento sul quale possono essere costruite tutte le altre parti
dell’ambiente del hale kūʻaiʻikepili; un operational data store (ODS).
Un ODS è una struttura ibrida che contiene alcuni aspetti del data
warehouse e altri aspetti di un ambiente OLTP; data marts, in cui i
differenti reparti possono avere loro propria versione del data
warehouse; un hale kūʻaiʻikepili di esplorazione in cui i
“filosofi”(thinkers) dell’azienda possono presentare le loro queries di
72 ore senza effetto nocivo sul hale kūʻaiʻikepili; e una memoria
near line, in cui dati kahiko a dati bulk detail possono essere
memorizzati a buon mercato.
MAKAHI E HUI AI O ERP ME LA
HALE IKE HUI
L’ERP si unisce con la Corporate Information Factory in due punti.
Innanzitutto come un’applicazione di base (baseline) che fornisce i
dati o ka palapala noi i hale kūʻaiʻikepili. Ma keia hihia i dati,
generati come sottoprodotto di un processo di transazione,
vengono integrati e caricati nel hale kūʻaiʻikepili dell’azienda. Il
secondo punto di unione tra ERP e CIF e l’ODS. In effetti, in molti
ambienti l’ERP è utilizzato come un ODS classico.
Nel caso in cui ERP è utilizzato come applicazione di base, lo
stesso ERP può essere anche utilizzato nella CIF come ODS. In
ogni caso, se l’ERP deve essere utilizzato in entrambi i ruoli, ci
deve essere una netta distinzione tra le due entità. In altre parole,
quando l’ERP svolge il ruolo di applicazione di base e di ODS, le
due entità architetturali devono essere distinte. Se una singola
implementazione di un ERP prova a svolgere entrambi i ruoli
contemporaneamente ci saranno inevitabilmente dei problemi nella
progettazione e nell’implementazione di tale struttura.
HOOLAHA ODS A ME NA PALAPALA
Ci sono molte ragioni che portano alla divisione dei componenti
architetturali. Forse la questione più eloquente per separare i
diversi componenti di un’architettura è che ogni componente
dell’architettura ha la propria vista. L’applicazione baseline serve
per uno scopo differente di quello dell’ODS. Provare a sovrapporre
una vista di applicazione baseline sul mondo di un ODS o viceversa
non è un modo giusto di lavorare.
Di conseguenza, il primo problema di un ERP nella CIF è quello di
verificare se c’è una distinzione fra le applicazioni baseline ed il
ʻAʻELA.
NA HOIKE IKE I KA HUI
HALE IKE
Per realizzare una coesione fra i differenti componenti
dell’architettura della CIF, ci deve essere un modello di dati. I
modelli di dati servono da legame tra i vari componenti
dell’architettura come ad esempio le applicazioni baseline e l’ODS. I
modelli di dati diventano la “carta stradale intellettuale” per avere il
giusto significato dai differenti componenti architettonici della CIF.
Andando di pari passo con questa nozione, l’idea è che ci dovrebbe
essere un grande e unico modello di dati. Ovviamente ci deve
essere un modello di dati per ciascuno dei componenti e inoltre ci
deve essere un percorso sensato che collega i modelli differenti.
Ogni componente dell’architettura – ODS, applicazioni baseline,
hale kūʻaiʻikepili dell’azienda, e così via.. – necessita del proprio
modello di dati. E quindi ci deve essere una definizione precisa di
come questi modelli di dati pili lākou kekahi i kekahi.
MOVE I ʻIkepili NO ERP I KA Ikepili
WAEWAE
Ina ke kumu o ka dati è un’applicazione baseline e/o un ODS, quando
l’ERP inserisce i dati nel hale kūʻaiʻikepili, tale inserimento deve
avvenire al più basso livello di “granularity”. Ricapitolare o
aggregare semplicemente i dati così come vengono fuori
dall’applicazione baseline dell’ERP o dall’ODS dell’ERP non è la
cosa giusta da fare. I dati dettagliati sono necessari nel data
warehouse per costituire le basi del processo di DSS. Tali dati
saranno rimodellati in molti modi dai data marts e dalle esplorazioni
del hale kūʻaiʻikepili.
ʻO ka hoʻoneʻe ʻana o dati dall’ambiente dell’applicazione baseline
dell’ERP all’ambiente del hale kūʻaiʻikepili dell’azienda è fatto in un
modo ragionevolmente disteso. Tale spostamento accade dopo che
circa 24 ore dall’aggiornamento o dalla creazione nel ERP. Il fatto di
avere un movimento “pigro” dei dati nel hale kūʻaiʻikepili
o ka hui e ae dati provenienti dall’ERP di “depositarsi”.
Una volta che i dati sono depositati nell’applicazione baseline,
allora è possibile spostare in modo sicuro i dati o ka ERP
nell’impresa. Un altro obiettivo raggiungibile grazie al movimento
“pigro” dei dati è la chiara delimitazione fra processi operazionali e
DSS. Con un movimento “veloce” dei dati la linea di demarcazione
tra DSS e operazionale rimane vaga.
ʻO ka neʻe ʻana o dati mai ERP ODS i hale kūʻaiʻikepili
dell’azienda viene fatto periodicamente, solitamente
settimanalmente o mensilmente. In questo caso il movimento dei
dati ma muli o ka pono e "hoʻomaʻemaʻe" i ka mea kahiko dati storici.
Naturalmente, l’ODS contiene i dati che sono molto più recenti
mahalo i dati ʻike ʻia nā mea kākau moʻolelo ma hale kūʻaiʻikepili.
ʻO ka hoʻoneʻe ʻana o dati nel hale kūʻaiʻikepili non è quasi mai fatto
“all’ingrosso” (in a wholesaler manner). Copiare una tabella
dall’ambiente ERP al hale kūʻaiʻikepili non ha senso. Un approccio
molto più realistico è lo spostamento di unità selezionate dei dati.
Solo i dati che sono cambiati dall’ultimo aggiornamento del data
warehouse sono quelli che dovrebbero essere spostati nel data
warehouse. Un modo per sapere quali dati sono stati modificati
dall’ultimo aggiornamento è quello di guardare i timestamp dei dati
trovati nell’ambiente ERP. Il progettista seleziona tutti i cambiamenti
che si sono presentati dall’ultimo aggiornamento. Un altro approccio
è quello di usare tecniche di acquisizione di cambiamento dati. Me
queste tecniche vengono analizzati log e journal tapes in modo da
determinare quali dati devono essere spostati dall’ambiente ERP a
quello del hale kūʻaiʻikepili. Queste tecniche sono le migliori in
quanto i log e i journal tapes possono essere letti dai file dell’ERP
senza ulteriori effetti sulle altre risorse dell’ERP.
NA PILIKIA EE
Uno dei problemi dell’ERP nella CIF è quello che accade ad altre
fonti dell’applicazione o ai dati o ka ODS a lakou e kokua ai
hale kūʻaiʻikepili ma non fanno parte dell’ambiente di ERP. Data la
natura chiusa dell’ERP, specialmente SAP, il tentativo di integrare le
chiavi dalle fonti esterne dei dati me i dati che vengono dall’ERP al
momento di spostare i dati nel hale kūʻaiʻikepili, è una grande sfida.
E quante sono esattamente le probabilità che i dati di applicazioni o
ODS al di fuori dell’ambiente ERP saranno integrati nel data
warehouse? Le probabilità sono effettivamente molto alte.
LOAA ʻIkepili MOOLELO NO ERP
ʻO kekahi pilikia me i dati dell’ERP è quello derivante
dall’esigenza di avere dati poe kakau moolelo iloko o ka hale kūʻaiʻikepili.
Solitamente il hale kūʻaiʻikepili pono dati storici. E
solitamente la tecnologia dell’ERP non memorizza questi dati
storici, almeno non fino al punto in cui è necessario nel data
warehouse. Quando una grande quantità di dati storici comincia ad
aggiungersi nell’ambiente di ERP, tale ambiente deve essere
ripulito. Per esempio si supponga che un hale kūʻaiʻikepili debba
essere caricato con cinque anni di dati storici mentre l’ERP tiene al
massimo sei mesi di questi dati. Finché la società è soddisfatta di
raccogliere una serie di dati storici man mano che passa il tempo,
allora non ci sono problemi nell’utilizzare l’ERP come sorgente per il
hale kūʻaiʻikepili. Akā, i ka wā e hale kūʻaiʻikepili deve andare
indietro nel tempo e prendere dei dati storici che non sono stati
precedentemente raccolti e salvati dall’ERP, allora l’ambiente ERP
diventa inefficiente.
ERP A ME METADATA
ʻO kekahi noʻonoʻo e pili ana iā ERP e hale kūʻaiʻikepili ʻo ia anei
sui metadati esistenti nell’ambiente ERP. Così come i metadati
passano dall’ambiente ERP all’ambiente del hale kūʻaiʻikepili, i
metadati devono essere spostati nello stesso modo. Inoltre, i
metadati devono essere trasformati nel formato e nella struttura
richiesti dall’infrastruttura del hale kūʻaiʻikepili. C’è una grande
differenza tra metadati operazionali e metadati DSS. I metadati
operazionali sono soprattutto per lo sviluppatore e per il
programmatore. I metadato DSS sono principalmente per l’utente
finale. I metadati esistenti nelle applicazioni ERP o negli ODS
devono essere convertiti e questa conversione non è sempre facile
e diretta.
KE KUMU I KA ikepili ERP
Inā hoʻohana ʻia ʻo ERP ma ke ʻano he mea hoʻolako dati per il hale kūʻaiʻikepili ci
deve essere una solida interfaccia che sposta i dati dall’ambiente
ERP all’ambiente hale kūʻaiʻikepili. Pono ka interface:
▪ essere facile da usare
▪ permettere l’accesso ai dati o ka ERP
▪ prelevare il significato dei dati che stanno per essere spostati
nel hale kūʻaiʻikepili
▪ conoscere le limitazioni dell’ERP che potrebbero nascere nel
momento in cui viene effettuato l’accesso ai dati o ka ERP:
▪ integrità referenziale
▪ relazioni gerarchiche
▪ relazioni logiche implicite
▪ convenzione dell’applicazione
▪ tutte le strutture dei dati kākoʻo ʻia e ka ERP, a pēlā aku…
▪ essere efficiente nell’accesso ai dati, ma ka hoʻolako ʻana:
▪ movimento diretto dei dati
▪ acquisizione di cambiamento dati
▪ essere di appoggio all’accesso tempestivo ai dati
▪ capire il formato dei dati, a laila…
HANA ME KA SAP
L’interfaccia può essere di due tipi, homegrown o commerciale.
Alcune delle principali interfacce commerciali includono:
▪ SAS
▪ Prims Solutions
▪ D2k, e così via…
NUI ERP
Trattare l’ambiente ERP come se fosse un’unica tecnologia è un
grosso errore. Ci sono molte tecnologie di ERP, ognuna con i suoi
punti di forza. I vendor più conosciuti nel mercato sono:
▪ SAP
▪ Oracle Financials
▪ PeopleSoft
▪ JD Edwards
▪ Baan
SAP
SAP è il software di ERP più grande e più completo. Le applicazioni
di SAP comprendono molti tipi di applicazioni in molte aree. SAP ha
la reputazione di essere:
▪ molto grande
▪ molto difficile e costoso da implementare
▪ ha bisogno di molte persone e consulenti per essere
implementato
▪ necessita di persone specializzate per l’implementazione
▪ ha bisogno di molto tempo per essere implementato
Inoltre SAP ha la reputazione di memorizzare i suoi dati loa
attentamente, rendendo difficile accedere a questi da parte di una
persona esterna all’area SAP. La forza di SAP è quella di essere
capace di catturare e memorizzare una grande quantità di dati.
Recentemente SAP ha annunciato la sua intenzione di estendere le
sue applicazioni ai hale kūʻaiʻikepili. Ci sono molti pro e contro
nell’utilizzo di SAP come fornitore di hale kūʻaiʻikepili.
Un vantaggio è che SAP è già installato e che la maggior parte dei
consulenti già conosce SAP.
ʻO nā hemahema o ka loaʻa ʻana o SAP i mea hoʻolako hale kūʻaiʻikepili sono
molti: SAP non ha esperienza nel mondo del hale kūʻaiʻikepili
Inā ʻo SAP ka mea hoʻolako hale kūʻaiʻikepili, è necessario “portare fuori”
i dati mai SAP a hale kūʻaiʻikepili. un SAP’s track record of
closed system, è improbabile che sia facile ottenere i da SAP in
esso (???). Ci sono molti legacy environment che alimentano SAP,
come IMS, VSAM, ADABAS, ORACLE, DB2, e così via.
SAP insiste in un approccio “not invented here”. SAP non vuole
collaborare con altri fornitori per usare o creare il hale kūʻaiʻikepili.
Ke koi nei ʻo SAP i ka hana ʻana i kāna lako polokalamu ponoʻī.
Sebbene SAP sia una compagnia grande e potente, il fatto di
tentare di riscrivere la tecnologia di ELT, OLAP, amministrazione del
sistema e persino il codice di base del dbms è semplicemente folle.
Invece di assumere un atteggiamento di cooperazione con i fornitori
di hale kūʻaiʻikepili di vecchia data, SAP ha seguito l’approccio che
loro “ne sanno di più”. Questo atteggiamento frena il successo che
SAP potrebbe avere nell’area dei hale kūʻaiʻikepili.
Il rifiuto di SAP nel permettere ai fornitori esterni di accedere
prontamente e con garbo ai loro dati. L’essenza stessa dell’uso di
un hale kūʻaiʻikepili he maʻalahi ke komo dati. L’intera storia di SAP è
basata sul rendere difficile l’accesso ai dati.
ʻO ka nele o ka ʻike SAP i ka hana ʻana i nā puke nui o dati;
nel campo dei hale kūʻaiʻikepili he mau puke o dati mai visti da
SAP e per gestire queste grandi quantità di dati occorre avere una
tecnologia adatta. SAP apparentemente non è informata di questa
barriera tecnologica che esiste per entrare nel campo dei data
hale ukana.
La corporate culture di SAP: SAP ha creato un business
nell’ottenere i dati dal sistema. Ma per fare questo bisogna avere
una mentalità differente. Traditionally, software companies that were
good at getting data into an environment have not been good at
getting data to go the other way. Se SAP riesce a fare questo tipo di
switch sarà la prima azienda a farlo.
In breve, è lecito chiedersi se un’azienda dovrebbe selezionare
SAP come fornitore di hale kūʻaiʻikepili. Ci sono rischi molto gravi
da una parte e molte poche ricompense dall’altra. Ma c’è un altro
motivo che scoraggia la scelta di SAP come fornitore di data
warehouse. Perché ogni compagnia dovrebbe avere lo stesso data
warehouse di tutte le altre compagnie? Il hale kūʻaiʻikepili è il cuore
del vantaggio competitivo. Se ogni compagnia adottasse lo stesso
hale kūʻaiʻikepili sarebbe difficile, anche se non impossibile,
raggiungere un vantaggio competitivo. SAP sembra pensare che un
hale kūʻaiʻikepili può essere visto come un biscotto e ciò è un
ulteriore segnale della loro mentalità di applicazioni “get the data
in”.
ʻAʻohe mea kūʻai ERP e like me SAP.
Indubbiamente ci saranno aziende che seguiranno la strada di SAP
per i loro hale kūʻaiʻikepili ma presumibilmente questi data
warehouse SAP saranno grandi, costosi e richiederanno molto
tempo per la loro creazione.
Questi ambienti includono tali attività quali “bank teller processing”,
processi per le prenotazioni aeree, processi per le lamentele
assicurative, e così via. Più performante era sistema di transazione,
più ovvio era il bisogno di separazione tra processo operazionale e
DSS (Decision Support System). Tuttavia, con sistemi di risorse
umane e personali, non ci si trova mai di fronte a grossi volumi di
transazioni. E, naturalmente, quando una persona è assunta
oppure lascia la compagnia questo è un record di una transazione.
Ma relativamente ad altri sistemi, i sistemi di risorse umane e
personali semplicemente non hanno molte transazioni. Perciò, nei
sistemi di risorse umane e personali non è del tutto ovvio che ci sia
bisogno di un DataWarehouse. In molti modi questi sistemi
rappresentano l’accorpamento di sistemi DSS.
Ma c’è un altro fattore che deve essere considerato se si ha a che
fare con datawarehouse e con PeopleSoft. In molti ambienti, i dati
delle risorse umane e personali sono secondari rispetto al business
primario della società. La maggior parte delle società svolgono
attività manifatturiere, di vendita, forniscono servizi e così via. I
sistemi di risorse umane e personali sono di solito secondari (o di
supporto) alla linea principale di business della società. Perciò, è
equivoco e poco conveniente un hale kūʻaiʻikepili separato per il
supporto alle risorse umane e personali.
PeopleSoft è molto diverso da SAP a questo riguardo. Con SAP, è
obbligatorio che ci sia un hale kūʻaiʻikepili. Con PeopleSoft, non è
poi così chiaro. Un datawarehouse è opzionale con PeopleSoft.
ʻO ka mea maikaʻi loa e hiki ke ʻōlelo ʻia no i dati PeopleSoft è che il data
warehouse può essere usato al fine di archiviare i dati relativi a
vecchie risorse umane e personali. Una seconda ragione per la
quale una compagnia vorrebbe usare un hale kūʻaiʻikepili a
discapito dell’ambiente PeopleSoft è di permettere l’accesso e
l’accesso libero agli strumenti di analisi, ai dati di PeopleSoft. Ma
oltre a queste ragioni, possono esserci casi in cui è preferibile non
avere un datawarehouse per dati ʻO PeopleSoft.
I ka laiki
Ci sono molti spunti che riguardano la costruzione di un data
warehouse dentro ad un software ERP.
ʻO kekahi o kēia mau mea:
▪ Ha senso avere un hale kūʻaiʻikepili che somiglia a qualsiasi
altro nell’industria?
▪ Quanto è flessibile un ERP hale kūʻaiʻikepili polokalamu?
▪ Un ERP hale kūʻaiʻikepili hiki i ka lako polokalamu ke lawelawe i ka nui o
dati aia ma kahihale kūʻaiʻikepili kahua kahua"?
▪ Qual è la registrazione della traccia che il vendor ERP fa di
fronte a facili e poco costosi, in termini di tempo, ai dati? (what
is the ERP vendors track record on delivery of inexpensive, on
time, easy to access data?)
▪ Qual è la comprensione dell’architettura DSS e della
“corporate information factory” da parte del vendor ERP?
▪ I vendor ERP comprendono come ottenere dati all’interno
dell’ambiente, ma comprendono anche come esportarli?
▪ Quanto aperto è il venditore dell’ERP a strumenti di data
warehousing?
Tutte queste considerazioni devono essere fatte nel determinare
dove mettere il hale kūʻaiʻikepili ka mea e hookipa i dati o ERP a me nā mea ʻē aʻe
dati. In generale, a meno ché non ci sia una ragione irresistibile per
fare altrimenti, è raccomandato costruire hale kūʻaiʻikepili mai
dall’ambiente del vendor dell’ERP.
MOKUNA 1
Overview of the BI Organization
Punti chiave:
I depositi delle informazioni funzionano in modo contrario rispetto
all’architettura di business intelligence (BI):
La corporate culture e l’IT possono limitare il successo nella
costruzione di organizzazioni di BI.
La tecnologia non è più il fattore che limita le organizzazioni di BI. Il
problema per architetti e pianificatori di progetto non è se la
tecnologia esiste, ma se possono implementare efficacemente la
tecnologia disponibile.
No nā hui he nui a hale kūʻaiʻikepili è poco più di un deposito
passivo che distribuisce i dati i nā mea hoʻohana e pono ai. KA dati
sono estratti dai sistemi sorgenti e sono popolati in strutture target
di hale kūʻaiʻikepili. I dati possono anche essere puliti con tutta la
fortuna. Tuttavia nessun valore supplementare è aggiunto o
raccolto dai dati ma keia hana.
Essenzialmente, il Dw passivo, nel migliore dei casi, fornisce
soltanto i dati puliti e operativi agli associazioni di utenti. La
creazione delle informazioni e la comprensione analitica dipendono
interamente dagli utenti. Giudicare se il DW (Hale ukana ʻikepili) sia
un successo è soggettivo. Se giudichiamo il successo sulla
capacità di raccogliere, integrare e pulire efficientemente i dati
corporativi su una base prevedibile, allora sì, il DW è un successo.
D’altra parte, se guardiamo la raccolta, la consolidazione e lo
sfruttamento delle informazioni l’organizzazione nell’insieme, allora
il DW è un fallimento. Un DW fornisce poco o nessun valore delle
informazioni. Di conseguenza gli utenti sono costretti ad arrangiarsi,
creando cosi dei sili delle informazioni. Questo capitolo presenta
una visione completa per ricapitolare l’ architettura di BI(Business
Intelligence) dell’aziende. Cominciamo con una descrizione di BI e
quindi ci muoveremo verso le discussioni sulla progettazione e sullo
sviluppo delle informazioni, in contrasto con il semplice fornire i dati
agli utenti. Le discussioni allora sono focalizzate sul calcolo del
valore dei vostri sforzi di BI. Concludiamo con il definire come l’IBM
richiama i requisiti architettonici di BI della vostra organizzazione.
ʻO ka wehewehe ʻana i ka hoʻolālā ʻana o
hui BI
I potenti sistemi d’informazione transaction-oriented ora sono
all’ordine del giorno in ogni grande impresa , in quanto livellano
efficacemente il campo da giuoco per le società nel mondo.
Rimanere competitivi, tuttavia, ora richiede sistemi analiticamente
orientati a che può rivoluzionare l’abilità dell’azienda riscoprendo ed
utilizzando le informazioni che già possiedono. Questi sistemi
analitici derivano dalla comprensione dalla ricchezza dei dati
disponibili. La BI può migliorare le prestazioni in tutte le informazioni
dell’impresa. Le aziende possono migliorare i rapporti tra cliente e
fornitori, migliorare il profitto dei prodotti e dei servizi, generare
nuove e migliori offerte , controllare il rischio e fra molti altri
guadagni tagliano le spese drasticamente . Con BI la vostra
azienda finalmente incomincia ad usare le informazioni del cliente
come bene competitivo grazie ad applicazioni che hanno obiettivi di
mercato.
Avere i giusti mezzi di Business significa avere risposte definitive a
domande di chiave come:
▪ Quale dei nostri nā mea kūʻai mai ci fanno guadagnare di più, o ci
mandano in perdita?
▪ Dove vivono I nostri migliori nā mea kūʻai mai pili i Shop/
magazzino che loro frequentano?
▪ Quali dei nostri prodotti e servizi possono essere venduti più
efficacemente e a chi?
▪ Quali prodotti può essere venduto più efficacemente e a chi?
▪ Quale campagna di vendita è più riuscita e perchè?
▪ Quali canali di vendite sono più efficaci per quali prodotti?
▪ Come possiamo migliorare i rapporti con nostri migliori nā mea kūʻai mai?
La maggior parte delle aziende hanno dati grezzi per rispondere a
queste domande.
I sistemi operazionali generano ampie quantità di prodotto, di
cliente e di dati di mercato dai punti di vendita, dalle prenotazioni,
dal servizio di cliente e dai sistemi di supporto tecnico. La sfida è
estrarre e sfruttare queste informazioni.
Molte aziende approfittano soltanto di piccole frazioni dei loro dati
no nā kālailai hoʻolālā.
I dati koe, hui pinepine me i dati derivanti fonti esterne come i
“government reports” , e altre informazioni comprate, sono una
miniera d’oro che attende solo di essere esplorata, e i dati pono
essere solo raffinati nel contesto informativo della vostra
organizzazione.
Questa conoscenza può essere applicata in diversi modi, varianti
dal progettare una strategia corporativa generale alla
comunicazione personale con i fornitori, attraverso call center,
fatturazioni, Internet ed altri punti. L’odierno ambiente di affari detta
che il DW e le soluzioni relative della BI si evolvono oltre
l’esecuzione di tradizionali strutture di dati kahi i dati normalizzati a
livello-atomico ed “star/cube farms”.
Ciò che è necessario per rimanere competitivi è una fusione di
tradizionale e tecnologie avanzate in uno sforzo per sostenere un
vasto paesaggio analitico.
Per concludere, l’ambiente generale deve migliorare la conoscenza
dell’impresa nell’insieme, accertandosi che le azioni intraprese
come conseguenza di analisi condotte tornino utili affinchè tutti si
avvantaggino.
No ka laʻana, e ʻōlelo mākou e hoʻokaʻawale ʻoe i kāu nā mea kūʻai mai nelle categorie
di alto o basso rischio.
Se queste informazioni sono generate da un modello estraente o
altri mezzi, deve essere messo nel Dw ed essere reso accessibile a
chiunque, per mezzo di qualsiasi strumento di accesso, quali i
rapporti statici, fogli elettronici, tabelle, o elaborazione analitica in
linea (OLAP).
Tuttavia, attualmente, molte di questo tipo di informazioni
rimangono nei sili di dati degli individui o reparti che generano
l’analisi. L’organizzazione, nell’insieme, ha poca o nessuna visibilità
per la comprensione. Soltanto mescolando questo tipo di contenuto
informativo nel vostro Dw di impresa potete eliminare i sili delle
informazioni ed elevare il vostro ambiente di Dw.
Ci sono due ostacoli importanti per lo sviluppo di un’organizzazione
o ka BI.
In primo luogo, abbiamo il problema dell’organizzazione in se e
della relativa disciplina.
Anche se non possiamo aiutare con cambiamenti di politica
dell’organizzazione, possiamo aiutare a capire i componenti di
un’organizzazione della BI, la relativa architettura e come la
tecnologia dell’IBM facilita il relativo sviluppo.
La seconda barriera da superare è la mancanza di tecnologia
integrata e la conoscenza di un metodo che richiama l’intero spazio
della BI in contrasto con solo un piccolo componente.
L’IBM sta venendo in contro ai cambiamenti di tecnologia
d’integrata. È vostra la responsabilità di fornire una progettazione
cosciente. Questa architettura deve essere sviluppata con
tecnologia scelta per integrazione senza vincoli, o per lo meno, con
tecnologia che aderisce agli standard aperti. Inoltre, la vostra
gestione dell’azienda deve assicurare che l’impresa di Bi è
effettuata secondo il programma e non quello di permettere lo
sviluppo dei sili delle informazioni che derivano da self-serving
ordini del giorno, o obiettivi.
Questo non vuol dire che l’ambiente della BI non è sensibile a
reagire ai diversi bisogni e requisiti di diversi utenti; invece, significa
che l’implementazione di quei bisogni dell’individuo e dei requisiti è
fatto a vantaggio di intera organizzazione della BI.
Una descrizione dell’architettura dell’organizzazione della BI può
essere trovata alla pagina 9 nella figura 1.1.L’architettura dimostra
una miscela ricca delle tecnologie e tecniche.
Dalla vista tradizionale, l’architettura include i seguenti componenti
di warehouse
Lapa ʻAtoma.
Ciò è il fondamento, il cuore dell’intero Dw e quindi della
segnalazione strategica.
I dati e mālama ʻia ma ʻaneʻi ka ʻoiaʻiʻo o ka mōʻaukala, nā pilina o
dati ed includono la metrica derivata, come pure l’essere puliti,
integrati, e memorizzati usando i modelli estraenti.
ʻO ka hoʻohana hope ʻana o kēia mau mea dati e delle relative informazioni è
derivato da questa struttura. Questa è un eccellente fonte per
estrazione di dati a no nā hōʻike me nā nīnau SQL i kūkulu ʻia
Depot hana o dati a i ʻole hōʻike ma muli o
dati(Operational data store (ODS) a i ʻole ka hōʻike ʻana
hōkeoʻikepili.)
He hale keia o dati specificamente progettata per le
segnalazione tecniche.
I dati memorizzati e riportati sopra queste strutture possono infine
propagarsi nel warehouse tramite la zona di organizzazione(staging
area), dove potrebbe essere usata per segnalazione strategica.
Wahi hoʻokūkū.
ʻO ke kū mua no ka hapa nui dati destinati all’ambiente di
warehouse è la zona di organizzazione.
Eia i dati ua hoʻohuiʻia, hoʻomaʻemaʻe a hoʻololiʻia i loko dati utili che
popoleranno la struttura del warehouse
Nā hale kūʻai ʻikepili.
Hōʻike kēia ʻāpana o ka hale hana i ke ʻano o dati hoʻohana ʻia
specificamente per OLAP. La presenza dei datamarts, se i dati sono
memorizzati negli star schema che sovrappongono dati
multidimensionali in un ambiente relazionale, oppure negli schedari
di dati riservati usati vicino la tecnologia specifica di OLAP, quale il
server di DB2 OLAP, non è rilevante.
ʻO ka mea paʻa wale nō ʻo ia ka hoʻomaʻamaʻa ʻana i ka hoʻohana ʻana dati
multidimensional.
L’architettura comprende anche critiche tecnologie e tecniche di Bi
che si distinguono come:
Ka nānā ʻana i ke ākea
Lo spazio è un bene inaspettato delle informazioni per l’analista ed
è fondamentale per la risoluzione completa. Lo spazio può
rappresentare le informazioni delle persone che vivono in una certa
posizione, così come le informazioni circa dove quella posizione è
fisicamente rispetto al resto del mondo.
Per effettuare questa analisi, dovete cominciare legando le vostre
informazioni alle coordinate di latitudine e di longitudine. Ciò è
indicato come “geocoding” e deve fare parte dell’estrazione,
trasformazione, e del processo di caricamento (ETL) al livello
atomico del vostro warehouse.
ʻEli ʻikepili.
ʻO ka unuhi ʻana o dati permette alle nostre aziende di far crescere il
helu o nā mea kūʻai mai, di prevedere le tendenze di vendite e permettere
la gestione dei rapporti con i nā mea kūʻai mai (CRM), tra altre iniziative della
BI.
ʻO ka unuhi ʻana o dati no laila pono e hui pū me nā hale o
dati del Dwhouse e sostenuta da processi di warehouse per
accertare sia l’uso efficace che efficiente del tecnologia e delle
tecniche relative.
Come indicato nell’architettura della BI, il livello atomico del
Dwhouse, così come i datamarts, è una eccellente sorgente di dati
per l’estrazione. Quelle stesse strutture devono anche essere
destinatari di risultati dell’estrazione per accertare la disponibilità ai
più vasti pubblici.(broadest audience).
Na Agena.
Ci sono vari “agents” per esaminare il cliente per ogni punto come, i
sistemi operativi dell’azienda e gli stessi dw. Questi agenti possono
essere reti neurali avanzate addestrate ad apprendere sulle
tendenze di ogni punto, come la richiesta futura del prodotto basata
sulle promozioni di vendite, motori basati su regole per reagire ad
un ua haawiia insieme di circostanze, o persino agenti semplici che
segnalano le eccezioni ai “top executives”. Questi processi si
presentano generalmente in tempo reale e, pertanto, devono
essere accoppiati strettamente con il movimento degli stessi dati.
Tutte queste strutture di dati, tecnologie e tecniche garantiscono
che non passerete la notte a generare un’organizzazione della
vostra BI.
Questa attività sarà sviluppata a passi incrementali, per piccoli
punti.
Ogni passo è uno sforzo indipendente di progetto, ed è riferito
come un iterazionenel vostro dw o iniziativa di BI. Le iterazioni
possono includere l’implementazione di nuove tecnologie, per
iniziare con le nuove tecniche, aggiungendo nuove strutture di dati ,
caricando i dati supplementari , o con l’espansione di analisi del
vostro ambiente. Questo paragrafo è discusso più
approfonditamente nel capitolo 3.
Oltre alle strutture tradizionali di Dw e strumenti di Bi ci sono altre
funzioni della vostra organizzazione della BI per cui dovete
progettare, come:
Nā mea hoʻopā i nā mea kūʻai aku (Customer touch
nā helu).
Come con tutta l’organizzazione moderna esiste un certo numero di
punti di contatto del cliente che indicano come avere un esperienza
positive per i vostri nā mea kūʻai mai. Ci sono i canali tradizionali quali i
commercianti, i centralinisti, la posta diretta, multimedia e stampa
pubblicitaria, così come i canali più attuali come email e web, i dati
prodotti con qualche punto di contatto devono essere acquisiti,
trasportati, puliti, trasformati ed poi popolati a strutture di dati della
BI.
Nā kumu o dati nā hui hana a me nā mea hoʻohana (Operational
ʻikepili a me nā kaiāulu mea hoʻohana).
I ka pau ana o na wahi pili o ka nā mea kūʻai mai ua loaa na kumu o dati
o ka noi a ka hui a me nā kaiāulu mea hoʻohana. KA dati esistenti
sono dati kuʻuna pono e hui pū ʻia a hui pū me ka dati che
fluiscono dai punti di contatto per soddisfare le necessarie
informazioni.
Nā mea kālailai. (Nānā)
Il beneficiario principale dell’ambiente della BI è l’analista. È lui che
trae beneficio dall’estrazione attuale di dati operativi , integrati con
diverse fonti di dati , aumentate con caratteristiche quale analisi
geografiche (geocoding) e presentato in tecnologie di BI che
permettono di estrarre, OLAP, avanzati reporting di SQL e analisi
geografiche. L’interfaccia primaria per l’analista per l’ambiente di
reporting è il portal della BI.
Tuttavia, l’analista non è l’unico a beneficiare dall’architettura della
BI.
Nā luna, nā hui hoʻohana nui, a me nā lālā, nā mea hoʻolako a me
nā mea kūʻai mai pono lākou e loaʻa nā pōmaikaʻi ma ka ʻoihana BI.
Loko hānai hope.
L’architettura della BI è un ambiente di apprendimento. Un principio
caratteristico dello sviluppo è permettere persistenti strutture di dati
da aggiornare mediante tecnologia della BI usata e mediante azioni
intrapese dell’utente. Un esempio è la valutazione del
cliente(customer scoring).
Se il reparto di vendita effettua un modello estraente (mining model)
dello scores del cliente come per usare un nuovo servizio, allora il
reparto di vendita non dovrebbe essere l’unico gruppo beneficiario
del servizio.
Invece, il modello estraente dovrebbe essere effettuato come parte
naturale del data flow dentro l’impresa e lo scores del cliente
dovrebbe diventare una parte integrata del contesto informativo del
magazzino, visibile a tutti gli utenti. La Suite dell’IBM di Bi-bI-centric
compreso DB2 UDB, DB2 OLAP Server comprende la maggior
parte dei componenti importanti di tecnologia, definita nella figura
1.1.
Noi usiamo l’architettura come appare in questa figura del libro per
darci un livello di continuità e dimostrare come ogni prodotto
dell’IBM si adattano allo schema generale della BI.
Hāʻawi i ka ʻike ʻike (Providing
ʻIkepili ʻike)
Progettare, sviluppare ed implementare il vostro ambiente di BI è
un’operazione ardua. La progettazione deve abbracciare tanto gli
attuali che i futuri requisiti di business. Il disegno dell’architettura
deve essere completo per includere tutte le conclusioni trovate
durante la fase di progettazione. L’esecuzione deve rimanere
impegnata per un singolo scopo: sviluppare l’architettura della BI
come presentata formalmente nel disegno e fondata sui requisiti di
hana.
È particolarmente difficile sostenere che la disciplina assicurerà il
relativo successo.
Ciò è semplice perché non si sviluppa un ambiente della BI tutto
d’un tratto, ma si effettua in piccoli passi col tempo.
Tuttavia, identificare i componenti della BI della vostra architettura è
importante per due motivi: Guiderete tutte le successive decisioni
tecniche di architettura.
Potrete progettare coscientemente un uso particolare di tecnologia
anche se potreste non ottenere una ripetizione che ha bisogno della
tecnologia per parecchi mesi.
Il capire sufficientemente i vostri requisiti di business influirà il tipo
di prodotti che acquisirete per la vostra architettura.
La progettazione e lo sviluppo della vostra architettura assicurano
che il vostro warehouse sia
non un evento aleatorio, ma piuttosto un “well-thought-out”,
attentamente costruito ad keaka mele d’arte come un mosaico di
tecnologia mescolata.
E hoʻolālā i ka ʻike ʻike
Tutta la progettazione iniziale deve mettere a fuoco e identificare i
componenti principali della BI che saranno necessari all’ambiente
generale in presente e in futuro.
He mea nui ka ʻike i nā koi ʻoihana.
Anche prima che tutta la progettazione convenzionale cominci, il
pianificatore di progetto può spesso identificare uno o due
componente subito.
L’equilibrio dei componenti che potrebbero essere necessari per la
vostra architettura, tuttavia, non può essere trovato facilmente.
Durante la fase di progettazione, la parte principale dell’architettura
lega la sessione di sviluppo dell’applicazione (JAD) su una ricerca
per identificare i requisiti di business.
A volte questi requisiti possono essere affidati a strumenti di
interrogazioni e di reporting .
Per esempio, gli utenti dichiarano che se desiderano automatizzare
attualmente un report devono generare manualmente integrando
due rapporti attuali ed aggiungendo i calcoli derivati dalla
combinazione dei dati.
Anche se questo requisito è semplice, definisce una certa
funzionalità della caratteristica che voi dovete includere quando
comprate strumenti di reporting per l’organizzazione.
Il progettista deve anche perseguire i requisiti supplementari per
ottenere un’immagine completa. Gli utenti desiderano abbonarsi a
questo report?
I sottoinsiemi del report sono generati e spediti via email ai vari
utenti? Desiderano vedere questo report nel portale aziendale?
Tutti questi requisiti fanno parte della semplice necessità di
sostituire un report manuale come richiesto dagli utenti. Il beneficio
di questi tipi di requisiti è che ognuno, utenti ed i progettisti, hanno
una conoscenza del concetto dei report.
Aia kekahi ʻano ʻoihana ʻē aʻe, akā naʻe, pono mākou e hoʻolālā.
Quando i requisiti di business sono dichiarati sotto forma di
domande strategiche di Business, è facile per il progettista esperto
discernere i requisiti di measure/fact e dimensionali.
Figura 1.2 illustra componenti di misura e dimensionali di un
problema di Business.
Se gli utilizzatori di JAD non sanno come dichiarare i loro requisiti
sotto forma di un problema di business, il progettista fornirà spesso
degli esempi per saltare-avviare la sessione della raccolta dei
olelo.
L’esperto progettista può aiutare gli utenti a capire non soltanto il
commercio strategico, ma anche come formarlo.
L”approccio della raccolta dei requisiti è discussa nel capitolo 3; per
ora desideriamo soltanto indicare la necessità di progettare per tutti
i tipi di requisiti della BI
Una problema strategico di Business è, non soltanto un requisito di
Business, ma anche un indizio progettuale. Se dovete rispondere
ad una domanda multidimensionale, allora dovete memorizzare,
presentare i dati dimensional, a inā pono ʻoe e mālama i ka
dati multidimensionali, dovete decidere che tipo di tecnologia o
tecnica state andando impiegare.
Ke hoʻokō nei ʻoe i kahi hoʻolālā hōkū cube i mālama ʻia, a i ʻole ʻelua?
Come potete vedere, persino un semplice problema di business
può influenzare in modo considerevole la progettazione. Però
questi tipi di requisiti di business sono ordinari e beninteso, almeno
dai progettisti e dai pianificatori con esperienza di progetto.
C’è stato dibattito sufficiente sulle tecnologie e sul supporto di
OLAP, ed è disponibile una vasta gamma di soluzioni. Finora
abbiamo accennato la necessità di riunire semplici reporting con i
requisiti dimensionali di busineness, e come questi requisiti
influenzano decisioni tecniche di architettura.
Ma che cosa sono i requisiti che non sono prontamente compresi
dagli utenti o dal team di Dw ? Avrete mai bisogno dell’analisi
spaziale(analysisi spatial)?
ʻO nā hiʻohiʻona unuhi o dati saranno una parte necessaria del vostro
futuro? Chi sa?
È importante notare che queste tipo di tecnologie non sono molto
conosciute dalle comunità di utenti generali e membri del team di
Dw, in parte, questo potrebbe accadere perché loro tipicamente
sono trattate da alcuni tecnici esperti interni o di terze parti. È un
caso limite dei problemi che questi tipi di tecnologie generano. Se
gli utenti non possono descrivere i requisiti di business o inquadrarli
in modo da fornire le linee guida ai progettisti, queste possono
passare inosservate o,peggio, ignorate semplicemente.
Più problematico diventa quando il progettista e lo sviluppatore non
possono riconoscere l’applicazione di una di queste avanzate ma
critiche tecnologie.
Come spesso abbiamo sentito i Progettisti dicono, “bene, perchè
non lo mettiamo da parte fino a che non otteniamo qust’altra cosa?
“Sono realmente interessati alle priorità, o semplicemente evitano i
requisiti che non capiscono? È molto probabilmente l’ultima ipotesi.
Diciamo che il vostro gruppo di vendita ha comunicato un requisito
di affari ,come dichiarato nella figura 1.3, come potete vedere, il
requisito è inquadrato sottoforma di un problema di business. La
differenza fra questo problema e il tipico problema dimensionale è
la distanza. In questo caso, il gruppo di vendita desidera conoscere,
su una base mensile, le vendite totali dai prodotti, i magazzini e i
nā mea kūʻai mai che vivono entro 5 miglia dal magazzino dove loro
acquistano.
Tristemente, i progettisti o gli architetti possono semplicemente
ignorare la componente spaziale dicendo, “abbiamo il cliente, il
prodotto ed i dati del deposito. Teniamo fuori la distanza fino ad
un’altra iterazione.
“Risposta sbagliata. Questo tipo di problema di business riguarda
interamente la BI. Rappresenta una comprensione più profonda del
nostro business e di un spazio analitico robusto per i nostri analisti.
La BI è oltre l’interrogazione semplice o la segnalazione standard, o
persino OLAP. Questo non vuol dire che queste tecnologie non
sono importanti per la vostra BI,ma da solenon rappresentano
l’ambiente della BI.
Hoʻolālā no ka pōʻaiapili ʻike
(Hoʻolālā no ka ʻike ʻike)
Ora che abbiamo identificato i requisiti di Business che distinguono
vari componenti fondamentali, si devono includere in un disegno
architettonico generale. Alcuni dei componenti della BI fanno parte
dei nostri sforzi iniziali, mentre alcuni non saranno implementati per
parecchi mesi.
Tuttavia, tutti i requisiti conosciuti sono riflessi nel progetto cosi che
quando dobbiamo implementare una tecnologia particolare, siamo
preparati a farlo. Qualcosa del progetto rifletterà il pensiero
kuʻuna.
Per esempio, la figura 1.1, all’inizio del capitolo, mostra un data
mart che mantiene i dati dimensionali.
ʻO kēia pūʻulu o dati hoʻohana ʻia e kākoʻo i nā hoʻohana hope o
dati dimensionali guidati dalle problematiche di Business che
abbiamo identificato. Poichè i documenti supplementari sono
generati, come ad esempio lo sviluppo progettuale dei dati, noi
inizieremo a formalizzare come i dati si propagano nell’ambiente.
Abbiamo accertato la necessità di rappresentare i dati a pela
dimensionale, suddividendoli (secondo delle esigenze specifiche
determinate) in data marts.
La prossima domanda a cui rispondere è: come saranno costruiti
questi data marts?
Costruite le stelle per sostenere i cubi, o solo cubi, o solo le stelle?
(o cubi giusti, o stelle giuste). Generate l’architettura per i data
marts dipendenti che richiedono uno strato atomico per tutti i dati
loaa? E ʻae i nā hale kūʻai ʻikepili kūʻokoʻa e loaʻa iā i dati
pololei mai nā ʻōnaehana hana?
He aha ka ʻenehana Cube āu e hoʻāʻo ai e hoʻohālikelike?
Loaʻa iā ʻoe ka nui o ka nui dati richiesti per analisi dimensionale
o avete bisogno dei cubi della vostra forza vendite nazionale su una
base settimanale o su entrambe? Costruite un oggetto potente
come DB2 OLAP Server per la finanza o i cubi di Cognos
PowerPlay per la vostra organizzazione di vendite o entrambe?
Queste sono le grandi decisioni architettoniche di disegno che
avranno effetto sul vostro ambiente della BI da qui in avanti. Sì,
avete accertato una necessità di OLAP. Ora come effettuerete quel
tipo di tecnica e tecnologia?
Come alcune delle tecnologie più avanzate interessano i vostri
disegni? Presupponiamo che avete accertato una necessità
spaziale nella vostra organizzazione. Ora dovete richiamare le
edizioni architettoniche di disegno anche se non pianificate di
effettuare componenti spaziali per parecchi mesi. L’architetto deve
progettare oggi basandosi su ciò che serve. Prevedere l’esigenza di
analisi spaziale che genera, memorizza, effettua e fornisce
l’accesso ai dati spaziali. Ciò a sua volta dovrebbe servire da
vincolo per quanto riguarda il tipo di specifiche di tecnologia e di
piattaforma del software potete attualmente considerare. Per
esempio, il sistema di amministrazione della waihona ʻikepili relational
(RDBMS) che effettuate per il vostro strato atomico deve avere
un’estensione spaziale robusta disponibile. Ciò accerterebbe le
prestazioni massime quando usate la geometria e gli oggetti
spaziali nelle vostre applicazioni analitiche. Se il vostro RDBMS non
può maneggiare i dati (spazial-centric) internamente, quindi dovrete
stabilire una waihona ʻikepili (spaziale-centric) esterna. Ciò complica la
gestione delle edizioni e compromette le vostre prestazioni generali,
per non accennare i problemi supplementari generati per il vostro
DBAs, poiché probabilmente hanno una minima comprensione
delle basi di dati spaziali pure. D’altra parte, se il vostro motore di
RDMBS maneggia tutti i componenti spaziali ed il relativo
ottimizzatore è informato dei bisogni speciali (per esempio,
indexing) degli oggetti spaziali, allora il vostro DBAs può trattare
prontamente la gestione delle edizioni e potete elevare le
hana ana.
Inoltre, dovete regolare la staging area (area di scena) e lo strato
d’ambiente atomico per includere la pulizia degli indirizzi (un
elemento chiave ad analisi spaziale), così come il successivo
salvataggio degli oggetti spaziali. Il susseguirsi delle edizioni di
disegno continua ora che abbiamo introdotto la nozione di pulizia di
indirizzo. Per una cosa, questa applicazione detterà il tipo di
software necessario per il vostro sforzo di ETL.
Avete bisogno dei prodotti come Trillium per fornirgli un indirizzo
pulito, o di un fornitore di ETL da voi prescelto per fornire quella
funzionalità?
Per ora esso è importante che apprezzate il livello del disegno che
deve essere completato prima che cominciate ad effettuare il vostro
ambiente (warehouse). Gli esempi precedenti dovrebbero
dimostrare la moltitudine di decisioni di disegno che devono seguire
l’identificazione di tutto il requisito particolare di affari. Se fatte
correttamente, queste decisioni di disegno promuovono
l’interdipendenza fra le strutture fisiche del vostro ambiente, la
selezione di tecnologia usata ed il flusso di propagazione del
soddisfare di informazioni. Senza questa architettura convenzionale
della BI, la vostra organizzazione sarà soggetta ad una miscela
caotica di tecnologie esistenti, nel migliore dei casi, unite in modo
non preciso per fornire una stabilità apparente.
E mālama i ka ʻike ʻike
Portando il valore delle informazioni alla vostra organizzazione è
un’operazione molto difficile. Senza una sufficiente comprensione
ed esperienza, o progettazione e disegno adeguati, persino le
squadre migliori fallirebbero. D’altra parte, se avete una grande
intuizione e una progettazione dettagliata ma nessuna disciplina per
l’esecuzione, avete appena sprecato i vostri soldi e il vostro tempo
perché il vostro sforzo è destinato a fallire. Il messaggio dovrebbe
essere chiaro: Se state mancando di una o più di queste
competenze, comprensione/esperienza o progettazione/disegno o
disciplina di implementazione,questo porterà a paralizzare o
distruggere la costruzione dell’organizzazione della BI.
La vostra squadra sufficiente preparata? C’è qualcuno sulla vostra
squadra della BI che capisce il vasto paesaggio analitico disponibile
negli ambienti della BI, nelle tecniche e nelle tecnologie necessarie
per effettuare quel paesaggio? C’è qualcuno sulla vostra squadra
che può riconoscere la differenza di applicazione fra advanced
static reporting e OLAP,o le differenze fra ROLAP e OLAP? Uno dei
membri della vostra squadra riconosce chiaramente il modo di
estrarre e come esso potrebbe avere effetto sul warehouse o come
il warehouse può sostenere le prestazioni estraenti? Un membro
della squadra capisce il valore dei dati spaziali o la tecnologia
basata su agenti? Avete qualcuno che apprezzi l’applicazione unica
degli attrezzi di ETL contro tecnologia del mediatore del
messaggio? Se non l’avete, ottenetene uno. La BI è molto più
grande di uno strato atomico normalizzato, di OLAP, degli schemi a
stella e di un ODS.
Avere la comprensione e l’esperienza per riconoscere i requisiti
della BI e le loro soluzioni è essenziale alla vostra capacità di
formalizzare correttamente le esigenze degli utenti e di progettare
ed effettuare le loro soluzioni. Se la vostra comunità di utenza ha
difficoltà a descrivere i requisiti, è compito della squadra di
warehouse fornire quella comprensione. Ma se la squadra di
hale ukana
non riconoscel’applicazione specifica della BI -per l’esempio, data
mining- allora non è la cosa migliore che gli ambienti della BI si
limitino spesso ad essere depositi passivi. Tuttavia, ignorare queste
tecnologie non diminuisce la loro importanza e l’ effetto che hanno
sulla nascita di possibilità di business intelligence della vostra
organizzazione, come pure l’assetto informativo che progettate
promuovere.
La progettazione deve comprendere la nozione del disegno, ed
entrambi richiedono un individuo competente. In più, il progettare
richiede una filosofia di werehouse di squadra e l’osservazione
degli standards. Per esempio, se la vostra azienda ha stabilito una
piattaforma standard o ha identificato un RDBMS particolare che si
desidera standardizzare per tutta la piattaforma, è incombente che
sulla squadra tutti aderiscano a quegli standard. Generalmente una
squadra espone l’esigenza della normalizzazione (to user
communites), ma la squadra in se è poco disposta a aderire agli
standard stabiliti anche in altre aree nell’azienda o forse anche nelle
società simili. Non solo questo è iporcrita, ma accerta l’impresa non
è capace di sfruttare le risorse e investimenti esistenti. Non significa
che non esistono situazioni che garantiscono una piattaforma o una
tecnologia non standardizzata; tuttavia, gli sforzi del warehouse
dovrebbero proteggere gelosamente gli standard dell’impresa fino a
che i requisiti di business non dettino il contrario.
Il terzo componente chiave necessario per costruire una BI
organization è la disciplina.
Dipende in totale, in uguale misura dagli individui e dall’ambiente.
Project planners, sponsor, architetti, e utenti devono apprezzare la
disciplina necessaria a costruire l’assetto informativo della società.
I progettisti devono dirigere i loro sforzi di progetto in modo tale da
completare altri sforzi necessari nella società.
Per esempio, supponiamo che la vostra società costruisca un
applicazione ERP che ha un componente warehouse.
Quindi è la responsabilità dei progettisti ERP di collaborare con il
team dell’ambiente di warehouse in modo da non competere o
duplicare i lavori gia in iniziati.
La disciplina è anche un argomento che deve essere occupato
dall’intera organizzazione ed è di solito stabilita e affidata a un
livello esecutivo.
I dirigenti sono disposti ad aderire ad un approccio progettato? Un
approccio che promette di creare contenuti di informazioni che alla
fine porterà valore a tutte le aree dell’impresa, ma forse
compromette singoli o departmental agendas? Ricordati il detto
“Pensare a tutto è più importante di pensare a un’unica cosa”.
He ʻoiaʻiʻo kēia ʻōlelo no nā hui BI.
Sfortunatamente molte warehouse concentrano i loro sforzi
cercando di indirizzare e portare valore a un particolare reparto o a
utenti specifici, con un piccolo riguardo all’organizzazione in
generale. Supponete che il dirigente richieda assistenza al team di
werehouse. Il team risponde con un lavoro durato 90 giorni che
include non solo la consegna dei requisiti di notifica definiti dal
dirigente ma assicura che tutti i dati base siano mischiati nel livello
atomico prima di essere introdotto nella tecnologia di cubo
proposta.
Questa aggiunta ingegneristica assicura che l’impresa di
werehouse trarrà benefici dai dati pono no ka luna.
Tuttavia, il dirigente ha parlato con ditte di consulenza esterne che
hanno proposto una simile applicazione con consegna in meno di 4
settimane.
Assumendo che il team interno di werehouse sia competente, lo il
dirigente ha una scelta. Chi può supportare la disciplina di
ingegneria supplementare necessaria per coltivare il bene
informativo impresa o può scegliere di realizzare la propria
soluzione velocemente. L’ultimo sembra essere scelto veramente
troppo spesso e serve solo per creare contenitori di informazioni di
cui ne beneficiano in pochi o il singolo.
Nā pahuhopu pōkole a lōʻihi
Gli architetti e i progettisti di progetto devono formalizzare una
visione a lunga scadenza dell’architettura generale e piani per
crescere in un’organizzazione BI. Questa combinazione di
guadagno a breve scadenza e pianificazione a lunga scadenza
rappresentano le due facce di sforzi BI. Il guadagno a breve
scadenza è la sfaccettatura di BI che è associata a iterazioni del
vostro warehouse.
È qui dove progettisti, architetti e sponsor si concentrano su
soddisfare requisiti commerciali specifici. È a questo livello dove le
strutture fisiche sono costruite, la tecnologia è acquistata e le
tecniche sono implementate. Sono affatto fatte per affrontare
requisiti specifici come definiti da particolare utente le comunità.
Tutto è svolto in con lo scopo di affrontare requisiti specifici definiti
da una particolare comunità.
La pianificazione a lunga scadenza, tuttavia, è l’altra sfaccettatura
di BI. È qui in cui i piani e i progetti hanno assicurato che fosse
costruita una qualsiasi struttura fisica, le tecnologie selezionate e le
tecniche realizzate fatte con un occhio verso l’impresa. È la
pianificazione a lunga scadenza che fornisce la coesione
necessaria per assicurare che i vantaggi di impresa derivino da tutti
i guadagni a breve scadenza trovati.
E hōʻoia i kāu hana BI
Un hale kūʻaiʻikepili da solo non ha nessun valore inerente. In altre
parole, non c’è nessun valore inerente tra le tecnologie di
warehouse e le tecniche implementative.
Il valore di qualsiasi sforzo di warehouse è trovato nelle azioni
eseguite a seguito dell’ambiente di warehouse e del contenuto
informativo coltivato nel tempo. Questo è un punto critico da capire
prima che tentiate mai di stimare il valore di qualsiasi iniziativa di
wherehouse.
Troppo spesso, architetti e progettisti tentano di applicare valore ai
componenti fisici e tecnici di warehouse quando infatti il valore si
fonda con i processi commerciali che sono incisi positivamente dal
warehouse e dalle informazioni bene acquisite.
Eia ka paʻakikī o ka hoʻokumu ʻana i ka BI: Pehea ʻoe e hōʻoia ai i ke kālā?
Se la stessa wherehouse non ha un valore intrinseco, i progettisti di
progetto devono indagare, definire e formalizzare i vantaggi
conseguiti da quegli individui che utilizzeranno il warehouse per
migliorare processi commerciali specifici o il valore delle
informazioni protette o entrambi.
Per complicare argomenti, qualsiasi processo commerciale
interessato da sforzi di magazzino potrebbe fornire vantaggi
“considerevoli” o “lievi”. I vantaggi considerevoli forniscono una
metrica tangibile per misurare il ritorno dell’investimento (ROI) – ad
esempio, girare l’inventario un tempo aggiuntivo durante un periodo
specifico o per costo minore di trasporto per spedizione. È più
difficile definire i lievi vantaggi, come l’ accesso migliorato alle
informazioni , in termini di valore tangibile.
Hoʻohui i kāu papahana e aʻo e pili ana i ka
Nā noi pāʻoihana
Troppo spesso, i progettisti di progetto tentano di collegare il valore
della warehouse con obiettivi amorfi dell’impresa. Dichiarando che
“il valore dei una warehouse è basato sulla nostra capacità di
soddisfare richieste strategiche” apriamo in modo gradevole il
discorso. Ma da solo non è sufficiente per determinare se
l’investimento nel magazzino ha senso. È miglio collegare ripetizioni
di warehouse con richieste commerciali specifiche e note.
Ana ROI
Calcolare ROI in un’impostazione di warehouse può essere
particolarmente difficile. È particolarmente difficile se il vantaggio
principale di una particolare ripetizione è qualcosa di non tangibile o
facile da misurare. Uno studio ha trovato che gli utenti percepiscono
i due principali vantaggi delle iniziative della BI:
▪ Creare l’abilità per creare decisioni
▪ Creare l’acceso alle informazioni
Questi vantaggi sono vantaggi morbidi (o lievi). È facile vedere
come possiamo calcolare un ROI basato su un vantaggio duro (o
maggiore) tipo la riduzione del costo del trasporto, ma come
misuriamo la capacità di prendere decisioni migliori?
Questa è sicuramente una sfida per progettisti di progetto quando
stanno tentando di convincere la società a investire in un particolare
sforzo di warehouse. Le vendite crescenti o i costi che diminuiscono
non sono più i temi centrali che guidano l’ambiente BI.
Invece, state cercando nelle richieste di business un accesso
migliore alle informazioni in modo che un particolare reparto possa
prendere decisioni più veloci. Questi sono conducenti strategici a
cui capita di essere ugualmente importante per l’impresa ma sono
più ambigui e più difficili da caratterizzare in una metrica tangibile.
In questo caso, calcolare ROI può ingannare, se non irrilevante.
I progettisti di progetto devono essere in grado di dimostrare valore
tangibile perché i dirigenti possano decidere se l’investimento in
una particolare ripetizione vale. Tuttavia, non proporremo un nuovo
metodo per il calcolo di ROI, né faremo qualche argomento pro o
contro esso.
Sono disponibili molti articoli e libri che discutono i fondamenti per
calcolare ROI. Ci sono delle special value propositions come valore
sull’investimento (VOI), offerto da gruppi come Gartner, che potete
ricercare. Invece, ci concentreremo su aspetti di nucleo di qualsiasi
ROI o altre proposizioni di valore che dovete considerare.
Ke noi nei i ka ROI
Oltre all’argomento sui benefici “duri” contro i benefici “leggeri”
associati agli sforzi di BI là ci sono altri problemi da considerare
quando applichiamo ROI. Per esempio:
Attribuire troppi risparmi agli sforzi del DW che verrebbero
i kekahi hihia
Diciamo che la vostra società passava da un’architettura di
mainframe a un ambiente distribuito UNIX. Quindi qualsiasi
risparmio che può (o non può) essere realizzato da quello sforzo
non dovrebbe essere attribuito esclusivamente, se a tutto (?), al
hale ukana.
Non rendere conto di tutto costa. E ce ne sono molte di cose da
tener conto. Considerate la seguente lista:
▪ Costo dell’avvio, tra cui la fattibilità.
▪ Costo di hardware dedicato con relativo storage e
kamaʻilio
▪ Costo del software, tra cui gestione dei dati ed estensioni
client/server, software ETL, tecnologie DSS, strumenti di
visualizzazione, applicazioni di programmazione e di flusso di
lavoro e software di monitoraggio, .
▪ Costo di progettazione di struttura dati, con la realizzazione, e
l’ottimizzazione di
▪ Costo di sviluppo software direttamente associato allo sforzo
BI
▪ Costo di supporto a domicilio, compreso ottimizzazione di
prestazioni, compreso controllo di versione software e
operazioni di help
E noi i ka ROI "Big-Bang".
La realizzazione della warehouse come sforzo singolo e gigantesco
è destinato a non riuscire, così anche calcola il ROI per un’iniziativa
di larga impresa L’offerta è sorprendere, e che i progettisti
continuino a fare tentativi deboli per stimare il valore dell’intero
sforzo.
Perché i progettisti cercano di dare un valore monetario
sull’iniziativa di impresa se è ampiamente saputo e accettato che
stimare ripetizioni specifiche è difficile? Come è possibile? Non è
possibile con poche eccezzioni. Non fatelo.
Ora che abbiamo stabilito che cosa non fare quando calcoliamo
ROI, ci sono qui alcuni punti che ci aiuteranno nella definizione di
un processo affidabile per stimare il valore dei vostri sforzi BI.
Ottenimento del consenso di ROI. Indipendentemente dalla vostra
scelta di tecnica per stimare il valore dei vostri sforzi BI, deve
essere concordata da tutte le parti, incluso i progettisti di progetto,
gli sponsor e i dirigenti aziendali.
Riducete ROI in parti identificabili. Un passo necessario verso in
ragionevole calcolo di un ROI è concentrare quel calcolo su un
progetto specifico. Questo quindi vi permette di stimare un valore
basato su requisiti commerciali specifici che vengono soddisfatti
Definite i costi. Come citati, numerosi costi devono essere
considerati. Inoltre, i costi devono includere non solo quelli associati
alla singola iterazione ma anche ai costi di associati
all’assicurazione di conformità agli standard di impresa..
Definite vantaggi. Collegando chiaramente il ROI a requisiti
commerciali specifici, dovremmo essere in grado di identificare i
vantaggi che porteranno a soddisfare i requisiti.
Riducete i costi e i vantaggi in guadagni imminenti. È il modo
migliore per basare le vostre valutazioni sul valore attuale netto
(NPV) diversamente dal tentativo di predire valore futuro in
guadagni futuri.
Tenete al minimo la tempistica di suddivisione del vostro ROI. E’
ben documentato nel lungo periodo in cui è stato usato nel vostro
ROI
Utilizzate più di una formula ROI. Ci sono numerosi metodi per la
previsione del ROI e voi dovreste pianificare se utilizzarne uno o
più, compreso il valore attuale netto, la velocità interna del ritorno
(IRR) e il recupero.
Definire il processo ripetibile. Questo è determinante per calcolare
ogni valore a lunga scadenza. Dovrebbe essere documentato un
singolo processo ripetibile per tutte le sottosequenze di progetto a
seguire.
I problemi elencati sono quelli più comuni definiti da esperti
dell’ambiente di werehouse. L’insistenza da parte della gestione di
far fornire un “Big-Bang” ROI disorienta parecchio. Se avviate tutti i
vostri calcoli ROI riducendoli in parti identificabili e tangibili, avete
una buona possibilità stimare una valutazione precisa ROI.
Nā nīnau e pili ana i nā pono ROI
Qualunque sono i vostri benefici, morbidi o duri, voi potete utilizzare
alcune domande fondamentali per determinare il loro valore. Ad
esempio utilizzando un sistema di scala semplice, da 1 a 10, voi
potete rilevare l’impatto di qualsiasi sforzo utilizzando le seguenti
nā nīnau:
▪ Come valutereste la comprensione dei dati a seguito di questo
progetto della vostra società?
▪ Come stimereste i miglioramenti di processo a seguito di
questo progetto?
▪ Come misurereste l’impatto di nuove intuizioni e inferenze ora
rese disponibili da questa iterazione
▪ Quale è stato l’impatto di ambienti di computer nuovi e
performanti a seguito di quello che si era imparato?
Se le risposte a queste domande sono poche, è possibile che
l’impresa non valga l’investimento fatto. Le domande con un alto
punteggio puntano a guadagni di valore significativi e dovrebbero
servire come guide per ulteriore indagine.
Ad esempio, un alto punteggio per miglioramenti di processo
dovrebbe portare i progettisti a esaminare come i processi sono
stati migliorati. Potete trovare che alcuni o tutti i guadagni ottenuti
sono tangibili e quindi un valore monetario può essere prontamente
applicato.
Loaʻa i ka ʻoi loa o ka hoʻomaka mua o ka
hale ukana
Il risultato più grande del vostro sforzo di impresa è spesso nelle
prime poche iterazioni. Questi primi sforzi tradizionalmente
stabiliscono il più utile contenuto informativo per il pubblico e
stabilisce l’aiuto alla fondazione di tecnologia per le successive
applicazioni della BI.
Di solito ogni successiva sottosequenza di dati di progetto di
warehouse portano sempre meno valore aggiuntivo all’impresa in
generale. Questo è particolarmente vero se l’iterazione non
aggiunge nuovi argomenti o non soddisfa le necessità di una nuova
comunità di utenti.
Questa caratteristica di immagazzinare si applica anche alle pile
crescenti di dati poe kakau moolelo. E like me ka mea e pono ai ka hana hou aku
dati a pehea hou aku dati ua ninini ʻia i loko o ka hale kūʻai i ka manawa, ka hapa nui o nā
dati liʻiliʻi ka pili ʻana i ka loiloi i hoʻohana ʻia. ʻO kēia mau mea dati sono
spesso chiamati dati assopiti ed è sempre costoso tenerli perché
non vengono quasi mai utilizzati.
Cosa significa questo per gli sponsor di progetto? Essenzialmente, i
primi sponsor condividono di più di quanto costa l’investimento.
Questo è primario perché essi sono l’impeto per fondare lo strato di
largo ambiente tecnologico e delle risorse del warehouse,
compreso organico.
Ma questi primi passi portano il valore più alto e quindi i progettisti
di progetto devono spesso giustificare l’investimento.
I progetti fatti dopo la vostra iniziativa BI possono avere costi
inferiori ( comparati con la prima) e diretti, ma portano meno valore
all’impresa.
E proprietari dell’organizzazione devono iniziare a considerare
buttare l’accumulo di dati a me nā ʻenehana pili ʻole.
ʻImi ʻIkepili: Wehe Dati
Numerosi componenti architettonici richiedono variazioni di
tecnologie e tecniche di data mining—
no ka laʻana, nā "ʻokoʻa" like ʻole no ka nānā ʻana i nā wahi hoihoi o ka
nā mea kūʻai mai, i sistemi operativi dell’azienda e per lo stesso dw. Questi
agenti possono essere reti neurali avanzate addestrate alle
tendenze del POT, quale la richiesta futura del prodotto basata sulle
promozioni di vendite; motori basati sulle regole (rules-based) per
reagire a un insieme ua haawiia di circostanze, ad esempio, diagnosi
medica e raccomandazioni di trattamento; o persino agenti semplici
col ruolo di riportare le eccezioni ai dirigenti superiori (top
executives). Generalmente questi processi di estrazione dati si
verificano in tempo reale; quindi, essi devono essere uniti
completamente con il movimento dei dati stessi
Ka Hoʻoponopono Analytical Processing Online
ʻIkepili pūnaewele
La capacità di affettare, spezzettare, arrotolare, trapanare giù (drilldown)
ed effettuare l’analisi
cosa-se, è all’interno dell’ambito, dell’obiettivo della suite
tecnologica IBM. Ad esempio, le funzioni di trattamento analitico
online (OLAP) esistono per DB2 che porta l’analisi dimensionale nel
motore del hōkeoʻikepili like .
Le funzioni aggiungono l’utilità dimensionale a SQL mentre
sfruttano tutti i benefici di essere una parte naturale di DB2. Un altro
esempio di integrazione di OLAP è lo strumento di estrazione, DB2
OLAP Analizzatore Server. Questa tecnologia permette ai cubi del
Server DB2 OLAP di essere rapidamente e automaticamente
analizzati per individuare e riferire su valori dei dati insoliti o inattesi
per tutto il cubo all’analista commerciale. E, infine, le funzioni del
Centro di DW forniscono mezzi perché architetti controllino, tra le
altre cose, il profilo di un cubo server DB2 OLAP come una parte
naturale dei processi ETL.
Hoʻolāʻau Wāhi Kūʻē
Lo spazio rappresenta la metà delle ancore (conduzioni) analitiche
necessarie per un panorama
analitico largo (il tempo rappresenta l’altra metà). Il livello atomico
(atomic-level ) del magazzino, rappresentato nella Figura 1.1,
include i fondamenti sia per tempo che per spazio. Le registrazioni
dell’ora ancorano analisi per tempo e informazioni di indirizzo
ancorano analisi da spazio. Le marcatura orarie (Timestamps)
conducono l’analisi per tempo, e l’informazione di indirizzo conduce
l’analisi per spazio. Il diagramma mostra geocoding–processo di
conversione indirizzi a punti in una mappa o punti nello spazio
cosicché i concetti come distanza e interno/esterno possano essere
utilizzati nell’analisi–condotto a livello atomico e l’analisi spaziale
che è messa a disposizione dell’analista. IBM fornisce estensioni
spaziali, sviluppati con l’Istituto Ricerca Sistema Ambientale (ESRI),
al hōkeoʻikepili DB2 in modo che gli oggetti spaziali possano essere
conservati come una parte normale del hōkeoʻikepili pili pili. DB2
Spatial Extenders, forniscono anche tutte le estensioni SQL per
sfruttare l’analisi spaziale. Ad esempio, le estensioni SQL da
interrogare sulla
distanza fra indirizzi o se un punto è interno o esterno ad un’area
poligonale definita, sono uno standard analitico con il Spatial
Extender. Consultate il capitolo 16 per ulteriori informazioni.
hōkeoʻikepili- Mea Hana Mea Noho Noho hōkeoʻikepili-
Noho noho
DB2 ha molte caratteristiche SQL BI-resident che assistono
nell’azione di analisi. Questi includono:
▪ Le funzioni di ricorsione per eseguire analisi, come “trovare
tutti i possibili percorsi di volo da Kapalakiko a New York".
▪ Le funzioni analitiche per il ranking, funzioni cumulative, cubo
e rollup per agevolare i compiti che normalmente si verificano
solo con la tecnologia OLAP, sono ora una parte naturale del
motore del hōkeoʻikepili
▪ La capacità di creare tabelle che contengano risultati
ʻO nā mea kūʻai aku o hōkeoʻikepili leader mischiano di più delle funzionalità BI
nel hōkeoʻikepili like.
ʻO nā mea hoʻolako nui o waihona ʻikepili stanno mescolando più delle
funzionalità della BI nel hōkeoʻikepili like.
Ciò fornisce le prestazioni migliori e più opzioni di esecuzione per le
soluzioni della BI.
Le caratteristiche e le funzioni di DB2 V8 sono discusse
dettagliatamente nei seguenti capitoli:
Technical Architecture and Data Management Foundations
(Mokuna 5)
▪ DB2 Fondamenti della BI (BI Fundamentals) (Chapter 6)
▪ DB2 Tabelle di query materializzate (Materialized Query
Tables) (Chapter 7)
▪ DB2 Funzioni OLAP (OLAP Functions) (Chapter 13)
▪ DB2 Caratteristiche e funzioni potenziate di BI (Enhanced BI
Features and Functions) (Chapter 15)
Pūnaehana hoʻouna ʻikepili maʻalahi
Pūnaehana hoʻouna o dati maalahi
L’architettura rappresentata nella figura 1.1 include numerose
strutture dati kino. ʻO kekahi ka hale kūʻai o dati hana.
Generalmente, un ODS è un oggetto orientato (subject oriented),
integrato e corrente. Costruireste un ODS per sostenere, ad
esempio, l’ufficio vendite. Le vendite ODS integrerebbero dati
provenienti da numerosi sistemi diversi ma manterrebbe solo, ad
esempio, le transazioni di oggi. L’ODS può essere aggiornato
anche molte volte al giorno. Contemporaneamente, i processi
spingono i dati integrati in altre applicazioni. Questa struttura è
progettata specificatamente per integrare dati correnti e dinamici e
sarebbe un candidato probabile a sostenere analisi in tempo reale,
come fornire ad agenti di servizio nā mea kūʻai mai le informazioni di vendite
correnti di un cliente estraendo informazioni di tendenza di vendite
dal magazzino stesso. Un’altra struttura mostrata nella figura 1.1 è
uno stato formale per il dw. Non solo questo è il luogo per
l’esecuzione della necessaria integrazione, della qualità di dati, e
della trasformazione dei dati di magazzino in arrivo, ma è anche
un’area di deposito affidabile e provvisoria per dati replicati che
potrebbero essere utilizzati in analisi in tempo reale. Se decidete di
utilizzare un ODS o una zona di organizzazione (staging area), uno
dei migliori strumenti per popolare queste strutture dati hoʻohana ʻana
diverse sorgenti operative è la query distribuita eterogenea di DB2.
Questa capacità è consegnata dalla caratteristica opzionale di DB2
chiamata DB2 Relational Connect (solo query) e attraverso DB2
DataJoiner (un prodotto separato che consegna la domanda,
l’inserto, l’aggiornamento e la possibilità di cancellazione a
RDBMSs distribuito eterogeneo).
Hiki i kēia ʻenehana ke hiki i nā mea kākau dati e nakii dati di
produzione con processi analitici. Non solo può la tecnologia
adattarsi virtualmente a una qualunque delle richieste di replica che
potrebbero presentarsi con l’analisi in tempo reale, ma esso
possono anche collegare ad un’ampia varietà delle basi di dati hou aku
popolari, compreso DB2, Oracle, Sybase, assistente di SQL,
Informix ed altri. DB2 DataJoiner può essere utilizzato per popolare
kahi kūkulu dati formale come un ODS o anche una tabella
permanente rappresentata nel magazzino progettata per ripristino
rapido di aggiornamenti istantanei o per vendita. Naturalmente,
queste stesse strutture dati hiki ke hoʻohana ʻia
kekahi ʻenehana koʻikoʻi i hoʻolālā ʻia no ka hana hou ʻana o dati, IBM
DataPropagator Relational. (DataPropagator è un prodotto separato
per sistemi centrali. DB2 UNIX, Linux, Windows e OS/2 includono
servizi di replica di dati ma ke ʻano he hiʻohiʻona maʻamau).
ʻO kekahi ala no ka neʻe ʻana dati operativi intorno
all’impresa è un integratore di applicazione di impresa altrimenti
noto come message broker(mediatore del messaggio).Questa
tecnologia unica permette controllo impareggiabile per centrare
(targeting) e spostare dati intorno all’impresa. IBM ha il mediatore
del messaggio più ampiamente usato, MQSeries, o una variazione
del prodotto che comprende i requisiti di e-kalepa, IBM
WebSphere MQ.
Per più discussione su come sfruttare MQ per sostenere un
magazzino e un ambiente BI, visitare pūnaewele puni honua del libro. Per ora, è
sufficiente dire che questa tecnologia è un mezzo eccellente per
catturare e trasformare (utilizzando MQSeries Integrator) dati
operativi centrati (targeted) reclutati per soluzioni della BI. La
tecnologia MQ è stata integrata e impacchettata in UDB V8, il che
significa che le code dei messaggi possono ora essere gestite
come se esse fossero tabelle DB2. Il concetto di saldatura dei
messaggi in coda e dell’universo di hōkeoʻikepili relazionale si dirige
verso un ambiente potente di consegna di dati.
Zero-Latency Zero latency
L’obiettivo strategico finale per IBM è analisi di latenza nulla (zerolatency).
Come definito da
Gartner, un sistema BI deve essere in grado di dedurre, assimilare
e fornire informazioni per analisti su richiesta. La sfida,
naturalmente, sta nel come mescolare dati correnti e in tempo reale
con informazioni storiche necessarie, quali i dati relativi modello/di
tendenza, o la comprensione estratta, come delineamento del
ka mea kūʻai
Aia i loko o ia mau ʻike, no ka laʻana, ka ʻike ʻana o nā mea kūʻai mai ad
alto o basso rischio o quali prodotti i nā mea kūʻai mai acquisteranno molto
probabilmente se essi hanno già del formaggio nei loro carrelli di
acquisti.
Ottenere latenza nulla è effettivamente dipendente da due
meccanismi fondamentali:
▪ Unione completa dei dati che vengono analizzati con le
tecniche stabilite e con gli strumenti realizzati dalla BI
▪ Un sistema di consegna di dati efficiente per assicurare che
l’analisi in tempo reale sia realmente disponibile
Questi prerequisiti per latenza nulla non sono differenti dai due
obiettivi stabiliti da IBM e descritti precedentemente.
L’accoppiamento stretto dei dati fa parte del programma di
integrazione senza cuciture disposto dalla IBM. E creare un sistema
di consegna di dati efficiente è completamente dipendente dalla
tecnologia disponibile che semplifica il processo di consegna di
dati. Di conseguenza, due dei tre obiettivi di IBM sono fondamentali
a realizzare il terzo. IBM sta sviluppando coscientemente la sua
tecnologia per assicurare che la latenza nulla sia una realtà per gli
sforzi del magazzino.
Hōʻuluʻulu / Synthesis
L’organizzazione della BI fornisce una mappa di strada per
realizzare il vostro ambiente
iterativamente. Deve essere regolato per riflettere le necessità dei
vostri affari, sia attuali che futuri. Senza una visione architettonica
larga, le ripetizioni di magazzino sono poco più che delle
implementazioni casuali del magazzino centrale che fanno poco per
creare un’impresa larga, informativa.
Il primo ostacolo per i responsabili di progetto è come giustificare gli
investimenti necessari per lo sviluppo dell’organizzazione della BI.
Benché il calcolo del ROI sia rimasto un sostegno principale per
realizzazioni di magazzino, esso sta diventando più difficile da
predire esattamente. Questo ha condotto ad altri metodi per la
determinazione se state ottenendo il valore del vostro denaro. Il
valore sull’ investmento2 (VOI), ad esempio, viene procacciato
come una soluzione.
È incombente sugli architetti di dati e sui pianificatori di progetto
generare e fornire deliberatamente informazioni alle associazioni di
utenti e non dare semplicemente un servizio sui dati. C’è una
differenza enorme fra i due. L’informazione è qualcosa che fa una
differenza nei processi decisionali e nell’efficacia; relativamente, i
dati ke kūkulu nei lākou i mau poloka no ka loaʻa ʻana o ia ʻike.
ʻOiai ke koʻikoʻi au i ke kumu dati per indirizzare richieste
commerciali, l’ambiente BI dovrebbero servire un ruolo più grande
nella creazione di contenuto delle informazioni. Dobbiamo prendere
le misure supplementari per pulire, integrare, trasformare o
diversamente creare un contenuto di informazioni secondo cui gli
utenti possano agire, e quindi dobbiamo assicurarci che quelle
azioni e quelle decisioni, dove ragionevole, abbiano un riscontro
nell’ambiente BI. Se releghiamo il magazzino a servire solo su dati,
è assicurato che le associazioni di utenti creeranno il contenuto
delle informazioni necessarie per agire. Questo assicura che la loro
comunità sarà in grado di prendere decisioni migliori, ma l’impresa
soffre della mancanza di conoscenza che essi hanno utilizzato.
che gli architetti e i pianificatori di progetto iniziano i progetti
specifici nell’ambiente BI, essi rimangono responsabili all’impresa
nell’insieme. Un esempio semplice di questa caratteristica a due
facce delle iterazioni della BI è trovato nella sorgente dati. ʻO nā
dati ricevuti per richieste commerciali specifiche devono essere
popolati nel primo strato atomico. Questo garantisce lo sviluppo del
bene di informazioni aziendale, così come gestire, indirizzare le
richieste specifiche di utente definite nella iterazione.

W h a t i s a D a t a W a r e h o u s e ?
Hale ukana ʻikepili è il cuore dell’architettura dei sistemi informative
dal 1990 e supporta i processi informativi offrendo una solida
piattaforma integrata di dati storici presi come base per successive
analisi. I hale kūʻaiʻikepili offrono la facilità di integrazione in un
mondo di sistemi applicativi non compatibili tra loro. Data
warehouse si è evoluto fino a diventare una moda. Hale ukana ʻikepili
hoʻonohonoho a mālama i dati necessari per processi informativi e
analitici sulla base di una lunga prospettiva storica temporale. Tutto
ciò comporta un notevole e costante impegno nella costruzione e
nel mantenimento del hale kūʻaiʻikepili.
No laila he aha ka a hale kūʻaiʻikepili? Ala akula ka p? A hale kūʻaiʻikepili a:
▪ orientato ai soggetti
▪ sistema integrato
▪ tempo variante
▪ non volatile ( non si cancella )
he ohi o dati usati in supporto a decisioni manageriali nella
realizzazione dei processi.
I dati hookomoia iloko hale kūʻaiʻikepili derivano nella maggior parte dei
casi da ambienti operazionali. Il hale kūʻaiʻikepili è realizzato da una
unità di memorizzazione, fisicamente separata dal resto del
sistema, che contiene dati precedentemente trasformati dalle
applicazioni che operano sulle informazioni derivanti dall’ambiente
hana.
ʻO ka wehewehe pono ʻana o a hale kūʻaiʻikepili merita un’approfondita
spiegazione poichè esistono importanti motivazioni e significati di
fondo che descrivono le caratteristiche di una warehouse.
KUMU KUMU ORIENTATION
HOOLAHA
ʻO ke ʻano mua o a hale kūʻaiʻikepili è che è orientato ai
maggior soggetti di un’impresa. La giuda dei processi attraverso i
dati è in contrasto con il più classico metodo che prevede
l’orientamento delle applicazioni verso i processi e le funzioni,
metodo per la maggior parte condiviso dalla maggior parte dei
meno recenti sistemi direzionali.
Il mondo operativo è progettato intorno ad applicazioni e a funzioni
quali prestiti, risparmi, bankcard e la fiducia per un’istituzione
finanziaria. Il mondo del dw è organizzato intorno a soggetti
principali quali il cliente, il venditore, il prodotto e l’attività.
L’allineamento intorno ad argomenti influisce sulla progettazione e
sulla realizzazione dei dati trovati nel dw. In modo più rilevante,
l’argomento principale influisce sulla parte più importante della
struttura chiave.
Il mondo del applicazione è influenzato sia dal disegno del data
base che dal disegno del processo (Process design). Il mondo del
dw è concentrato esclusivamente sulla modellazione dei dati Aia ia
disegno del hōkeoʻikepili. Il disegno del processo (nella sua forma
classica) non fa parte dell’ambiente del dw.
Le differenze fra la scelta di applicazione processo/funzione e
scelta per subject si rivelano anche come differenze nel contenuto
dei dati ma kahi pae kikoʻī. KA dati o ka dw aole i komo i dati che
non saranno usati per il processo di DSS, mentre applicazioni
hoʻolālā hana dati komo i dati per soddisfare
immediatamente i requisiti funzionale/elaborazione che possono o
meno avere qualsiasi uso per l’analista di DSS.
Un altro modo importante in cui applicazioni operazionali orientate
ai dati ʻokoʻa mai dati o dw aia ma dei hoike dati. I dati
operativi mantengono un rapporto continuo tra due o più tabelle
basato su una regola commerciale che è attiva. I dati di dw
attraversano uno spettro di tempo e i rapporti trovati nel dw sono
molti. Molte regole commerciali ( e corrispondentemente, molti
rapporti di dati ) ua hōʻike ʻia ma ka hale kūʻai o dati tra due o
più tabelle.
(No ka wehewehe kikoʻī i ke ʻano o ka pilina ma waena o ka dati sono
gestiti nel DW, facciamo riferimento al Tech Topic su quella
questione.)
Da nessuna altra prospettiva che quella della differenza
fondamentale tra una scelta di applicazione functional/process e
una scelta subject, c’è una maggiore differenza tra i sistemi
operativi e i dati a me ka DW.
HOOLAHA HOOKO
ʻO ka ʻaoʻao koʻikoʻi o ke kaiapuni dw ʻo ia ka i dati trovati
all’interno del dw sono integrati facilmente. SEMPRE. SENZA
ECCEZIONI. L’essenza stessa dell’ambiente del dw è che i dati
i loko o nā palena hale kūʻai ua hoʻohui ʻia.
L’integrazione si rivela in molti modi differenti – nelle convenzioni
identificate consistenti, nella misura di variabili consistenti, nelle
strutture codificate consistenti, negli attributi fisici dei dati
kūlike, a pēlā aku.
Nel corso degli anni i progettisti di diverse applicazioni hanno fatto
possesso di molte decisioni su come un’applicazione dovrebbe
essere sviluppata. Lo stile e le decisioni progettuali individualizzate
delle applicazioni dei progettisti si rivelano in cento modi: nelle
differenze di codifica, struttura chiave, caratteristiche fisiche,
identificazione convenzioni, e così via. La capacità collettiva di molti
progettisti di applicazione di generare le applicazioni contradditorie
è leggendaria. La figura 3 espone alcune delle differenze più
importanti nei modi in cui le applicazioni sono progettate.
Hoʻopaʻa ʻana: Hoʻopaʻa ʻana:
I progettisti di applicazioni hanno scelto la codifica del campo –
sesso- in diversi modi. Un progettista rappresenta il sesso come
una “m” e “f”. Un altro progettista rappresenta il sesso come un “1”
e uno “0”. Un altro progettista rappresenta il sesso come una “x” e
“y”. Un altro progettista rappresenta il sesso come “maschio” e
“femmina”. Non importa molto come il sesso arriva nel DW. La “M”
e la “F” sono probabilmente buone quanto tutta la
rappresentazione.
Cosa importa è che da qualunque origine derivi il campo sesso,
quel campo arriva nel DW in uno stato integrato consistente. Di
conseguenza quando il campo è caricato nel DW da
un’applicazione dove esso è stato rappresentato fuori nel formato
“M” e “F”, i dati pono e hoʻololi i ka palapala DW.
Ana o na 'ano: Ana o
Nā ʻano:
I progettisti di applicazione hanno scelto di misurare la conduttura in
una varietà di modi nel corso
degli anni. Un progettista memorizza i dati della conduttura in
centimetri. Un altro progettista di applicazione memorizza i dati
della conduttura in termini di pollici. Un altro progettista di
applicazione memorizza i dati della conduttura in milione piedi cubi
al secondo. E un altro progettista memorizza le informazioni della
conduttura in termini di iarde. Qualunque sia la fonte, quando le
informazioni della conduttura arrivano nel DW esse devono essere
misurate nello stesso modo.
Secondo le indicazioni di figura 3 le questioni di integrazione
interessano quasi ogni aspetto del progetto – le caratteristiche
fisiche dei dati, ka pilikia o ka loaʻa ʻana o nā kumu hoʻokahi o dati,ʻia
questione di campioni identificati inconsistenti, formati dei dati
kulike ole, a pela aku.
Qualunque sia l’argomento di progettazione, il risultato è lo stesso –
i dati devono essere memorizzati nel DW in una singolare e
globalmente accettabile maniera anche quando i sistemi operativi di
fondo memorizzano diversamente i dati.
Quando l’analista DSS guarda il DW, l’obbiettivo dell’analista
dovrebbe essere lo sfruttamento dei dati aia i loko o ka hale kūʻai,
ma mua o ka noʻonoʻo e pili ana i ka hilinaʻi a i ʻole ke kūpaʻa o
dati.
HOOLAHA MANAWA
All i dati nel DW sono precisi in qualche momento in tempo.
Questa caratteristica base dei dati i ka DW he okoa loa ia mai na mea dati
loaʻa i loko o ke kaiapuni hana. KA dati dell’ambiente operativo sono
precisi come nel momento dell’accesso. In altre parole,
nell’ambiente operativo quando si accede ad una unità dati, ci si
attendete che rifletterà valori precisi come nel momento di accesso.
Perché i dati nel DW siano precisi come in qualche momento nel
tempo (cioè, non “proprio adesso”), si dice che i dati trovati nel DW
sono “time variancy”.
ʻO ka ʻokoʻa manawa o dati ʻōlelo ʻia e DW ma nā ʻano he nui.
ʻO ke ala maʻalahi loa i dati o kahi DW hōʻike dati a
lungo orizzonte di tempo – da cinque a dieci anni. L’orizzonte
temporale rappresentato per l’ambiente operativo è molto più breve
▪ dai valori correnti di oggi da fino a sessanta novanta
Le applicazioni che devono funzionare bene e devono essere
disponibili per l’elaborazione delle transazioni devono portare la
quantità minima di dati se esse ammettono qualsiasi grado di
flessibilità. Quindi le applicazioni operative hanno un orizzonte
temporale breve, come un argomento di progettazione di
applicazioni audio.
Il secondo modo in cui ‘time variancy’ compare nel DW è nella
struttura chiave. Ogni struttura chiave nel DW contiene,
implicitamente o esplicitamente, un elemento di tempo, come
giorno, settimana, mese, ecc. L’elemento di tempo è quasi sempre
in fondo alla chiave concatenata trovata nel DW. In queste
occasioni, l’elemento di tempo esisterà implicitamente, come il caso
dove un intero file è duplicato alla fine del mese o del quarto.
ʻO ke kolu o ke ala e hōʻike ʻia ai ka ʻokoʻa manawa i dati del
DW, appena correttamente registrati, non possono essere
aggiornati. I dati del DW sono, per tutti gli scopi pratici, una lunga
serie di snapshots(istantanea). Naturalmente se la snapshots è
stata presa non correttamente, allora le snapshots possono essere
modificate. Ma assumendo che le snapshots siano fatte
correttamente, esse non vengono modificate appena fatte. In alcuni
casi può essere immorale o anche non valido che le snapshots nel
DW siano modificate. I dati operativi, essendo precisi come nel
momento di accesso, possono essere aggiornati come si presenta
la necessità.
OLE-VOLATILE
ʻO ka hā o nā hiʻohiʻona koʻikoʻi o DW ʻo ia ka mea ʻole-volatile.
Gli aggiornamenti, inserimenti, cancellazioni e modifiche, sono fatte
regolarmente per gli ambienti operazionali record per record. Ma la
manipolazione di base dei dati che occorrono nel DW è molto più
semplice. Ci sono solo due generi di operazioni che si verificano nel
DW – il caricamento iniziale dei dati a hiki i dati. Non c’è
alcun aggiornamento dei dati (nel senso generale di
aggiornamento) nel DW come normale operazione di elaborazione.
Ci sono alcune conseguenze molto potenti di questa differenza di
base fra elaborazione operativa ed elaborazione del DW. Al livello
di progettazione, la necessità di essere cauti sull’aggiornamento
anomalo non è fattore nel DW, poiché l’aggiornamento di dati ʻaʻole ia
effettuato. Questo significa che a livello fisico di progettazione,
possono essere prese delle libertà per ottimizzare l’accesso ai dati,
in particolare nell’occuparsi degli argomenti di normalizzazione e di
denormalizzazione fisica. Un’altra conseguenza della semplicità
delle operazioni di DW è nella tecnologia sottostante utilizzata per
eseguire l’ambiente di DW. Dovendo supportare aggiornamenti
record per record in linea (così come è spesso il caso con
elaborazione operativa) si richiede che la tecnologia abbia delle
fondamenta molto complesse sotto una apparente semplicità.
La tecnologia che supporta copie di riserva e recupero, transazioni
e integrità dei dati e la scoperta e il rimedio di condizione di stallo è
abbastanza complessa e non necessaria per elaborazione di DW.
Le caratteristiche di un DW, orientamento di progettazione,
integrazione di dati all’interno del DW, time variancy e la semplicità
di gestione dei dati, tutto induce ad un ambiente che è molto, molto
diverso dall’ambiente operativo classico. La sorgente di quasi tutti i
dati di DW sono l’ambiente operativo. È una tentazione pensare
che ci sia una ridondanza massiccia di dati ma waena o nā kaiapuni ʻelua.
Infatti la prima impressione che molte persone hanno è quella di
grande ridondanza di dati ma waena o ke kaiapuni hana a me ke kaiapuni o
DW. Una tale interpretazione è superficiale e dimostra una
mancanza nel capire che cosa accade nel DW.
ʻOiaʻiʻo aia ka liʻiliʻi o ka redundancy dati tra l’ambiente operativo
a o ka dati del DW. Consideriamo quanto segue:
▪ I dati ua kānana ʻia lākou ua haawiia che si passa dall’ambiente operativo
all’ambiente DW. Molti dati non passano mai fuori
dall’ambiente operativo. Solo che i dati che sono necessari per
l’elaborazione DSS trovano la loro direzione nell’ambiente
▪ l’orizzonte temporale dei dati è molto diverso da un ambiente
all’altro. I dati i loko o ke kaiapuni hana hou loa lākou. KA dati
nel DW sono molto più vecchi. Solo dalla prospettiva
dell’orizzonte temporale, c’è la sovrapposizione molto piccola
tra l’ambiente operativo e il DW.
▪ Il DW contiene dati di riepilogo che non si trovano mai
nell’ambiente
▪ I dati subiscono una trasformazione fondamentale dal
momento che passano al La figura 3 illustra che la maggior
parte dei dati sono significativamente modificati a condizione
di essere selezionati e spostati nel DW. Detto in altro modo, la
maggior parte dei dati viene modificata fisicamente e
radicalmente come viene spostata nel DW. Dal punto di vista
dell’integrazione non sono gli stessi dati che risiedono
nell’ambiente operativo.
Alla luce di questi fattori, la ridondanza di dati tra i due ambienti è
un evento raro, che porta a meno dell’ 1% di ridondanza tra i due
ambienti.
KA HANA O KA WAEWAE
I DWs hanno una struttura distinta. Ci sono vari livelli riassuntivi e di
dettaglio che demarcano i DWs.
ʻO nā ʻāpana like ʻole o kahi DW:
▪ Metadata
Dati nā kikoʻī o kēia manawa
Dati o na kikoo kahiko
Dati hōʻuluʻulu iki
Dati hōʻuluʻulu loa
ʻO ka manaʻo nui no ka dati di dettaglio
correnti. È la preoccupazione principale perché:
▪ I dati di dettaglio correnti riflettono gli avvenimenti più recenti,
che sono sempre di grande interesse e
▪ i dati di dettaglio correnti sono voluminosi perché è
memorizzato al livello più basso di granularità e
▪ i dati di dettaglio correnti sono memorizzati quasi sempre su
memoria su disco, il quale è veloce ad accedere, ma caro e
complesso da
I dati kikoʻī i ko lākou ʻelemakule dati che sono memorizzati su
qualche memoria di ka nui. Ha accesso sporadicamente ed è
memorizzato a un livello di dettaglio compatibile con dati dettagliati
correnti. Mentre non è obbligatorio memorizzare su un supporto di
memoria alternativo, a causa del grande volume di dati uniti con
l’accesso sporadico dei dati, ke kākoʻo hoʻomanaʻo no dati di
dettaglio più vecchi non è di solito memorizzato su disco.
I dati hōʻuluʻulu iki ʻia dati che sono distillati dal basso
livello di dettaglio trovato al corrente livello di dettaglio. Questo
livello del DW è memorizzato quasi sempre su memoria su disco. I
problemi della progettazione che si presentano all’architetto dei dati
i ke kūkulu ʻana i kēia pae o ka DW:
▪ Quale unità di tempo è la summarization fatta sopra
▪ Quali contenuti, attributi riassumeranno leggermente il
contenuto dei dati
ʻO ka pae aʻe o dati loaʻa i ka DW ʻo ia o dati mahalo loa
riassunti. I dati altamente riassunti sono compatti e facilmente
accessibili. I dati altamente riassunti sono talvolta trovati
nell’ambiente DW e in altri casi i dati altamente riassunti sono
trovati fuori dalle pareti immediate della tecnologia che ospita il DW.
(in ogni caso, i dati altamente riassunti fanno parte del DW
indipendentemente da dove i dati sono alloggiati fisicamente).
Il componente finale del DW è quello dei metadata. Per molti aspetti
i metadata siedono in una dimensione diversa rispetto ad altri dati
o ka DW, no ka mea, ʻaʻohe o ka metadata ua haawiia pono
preso dall’ambiente operativo. I metadata hanno un ruolo speciale e
molto importante nel DW. I metadata sono utilizzati come:
▪ una directory per aiutare l’analista DSS ad individuare il
contenuto del DW,
▪ una guida alla mappatura dei dati o pehea i dati ʻO lākou nō
trasformati dall’ambiente operativo all’ambiente di DW,
▪ una guida agli algoritmi usati per la summarization tra i dati di
dettaglio correnti e i dati hōʻuluʻulu iki, i dati mahalo loa
riassunti,
I metadata giocano un ruolo molto più importante nell’ambiente DW
rispetto a quello che hanno mai avuto nell’ambiente operativo
MEDIUM WAIWAI KAHIKO
Hiki ke hoʻohana ʻia ka lipine magnetic e mālama i kēlā ʻano
dati. Infatti c’è una larga varietà di strumenti di memorizzazione che
dovrebbero essere considerati per la conservazione di vecchi dati di
dettaglio.
A seconda del volume dei dati, la frequenza di accesso, il costo
degli strumenti e il tipo di accesso, esso è completamente probabile
che altri strumenti avranno bisogno del vecchio livello di dettaglio
nel DW.
KE KAHELE O KA IKE
Aia kahi kahe maʻamau a wānana o dati i loko o ka DW.
I dati entrano nel DW dall’ambiente operativo. (NOTA: ci sono
alcune eccezioni molto interessanti a questa regola. Tuttavia, quasi
pau ka dati komo i ka DW mai ke kaiapuni hana). i i dati
entrano nel DW dall’ambiente operativo, è trasformato come è stato
descritto prima. A condizione di entrare nel DW, i dati entrano nel
corrente livello di dettaglio, come mostrato. Risiede là ed è utilizzato
finché uno dei tre eventi si verifica:
▪ è purificato,
▪ è riassunto, e/o
▪ è
Il processo obsoleto dentro un DW sposta i dati nā kikoʻī o kēia manawa
a dati nā kikoʻī kahiko, e pili ana i ka makahiki o dati. ʻO ke kaʻina hana
hoʻohana ka summary i ka kikoʻī o dati e helu i dati
hōʻuluʻulu iki a me nā pae hōʻuluʻulu nui o dati. Aia
alcune eccezioni al flusso mostrato (sarà discusso più tardi).
Tuttavia, di solito, per la vasta maggioranza dei dati trovati
all’interno di un DW, il flusso di dati e like me ka mea i hoikeia.
E hoʻohana ana i ka DATAWAREHOUSE
ʻAʻole kāhāhā nā pae like ʻole o dati all’interno del DW non
ricevono differenti livelli di utilizzo. Di regola, più è alto livello di
summarization, più i dati hoʻohana ʻia lākou.
Nui ka hoʻohana ʻana i loko dati i hōʻuluʻulu ʻia, ʻoiai nā mea kahiko
dati di dettaglio sono utilizzati quasi mai. C’è una buona ragione nel
spostare l’organizzazione al paradigma in utilizzo di risorsa. Più ha
riassunto i dati, ʻoi aku ka wikiwiki a ʻoi aku ka maikaʻi o ka hele ʻana i ka dati. nana
un Shop trova che fa molti processi a livello di dettaglio dei DW,
allora una grande quantità corrispondente di risorse di macchina
viene consumato. È nei migliori interessi di ognuno processare
come in un alto livello di summarization appena possibile.
No nā hale kūʻai he nui, ua hoʻohana ka DSS analyst ma kahi pre-DW environment
dati ma ka pae kiko'ī. Ma na ano he nui ka hoea ana mai i dati dettagliati
somiglia a una coperta di sicurezza, anche quando sono disponibili
altri livelli di summarization. Una delle attività dell’architetto di dati è
disabituare l’utente DSS da un utilizzo costante di dati al livello più
basso di dettaglio. Ci sono due motivazioni a disposizione
dell’architetto di dati:
▪ installando un sistema chargeback, dove l’utente finale paga le
risorse consumate e
▪ che indicano che il tempo di risposta molto buono può essere
ottenuto quando il comportamento con i dati è ad un alto livello
di summarization, mentre il tempo di risposta povero deriva dal
comportamento dei dati ma kahi haʻahaʻa
ʻOIHANA HANA
Ci sono alcune altre considerazioni di costruzione e gestione del
DW.
ʻO ka noʻonoʻo mua, ʻo ia ka mea o nā kuhikuhi. KA dati ai livelli più alti di
summarization possono essere liberamente indicizzati, mentre i dati
ai livelli inferiori di dettaglio sono così voluminosi che può essere
indicizzato frugalmente. Dallo stesso token, i dati agli alti livelli di
dettaglio possono essere relativamente ristrutturati facilmente,
mentre il volume di dati ma nā pae haʻahaʻa he nui loa i dati ai '
possono essere ristrutturati facilmente. Di conseguenza, il modello
dei dati e il lavoro formale fatto dalla progettazione pongono la
fondazione per il DW applicata quasi esclusivamente al livello
corrente di dettaglio. In altre parole, le attività di modellazione dei
dati non si applicano ai livelli di summarization, in quasi ogni caso.
Un’altra considerazione strutturale è quella della suddivisione dei
dati na DW.
Hiki ke hoʻokaʻawale ʻia ma nā pae ʻelua - ma ka pae o dbms a me na al
livello di applicazione. Nella divisione al livello dbmsʻO ia dbms è
informato delle divisioni e le controlla di conseguenza. Nel caso di
divisione a livello applicazione, soltanto il programmatore è
informato delle divisioni e la responsabilità della loro
amministrazione è lasciata a lui
Ma lalo o ka pae dbms, molto lavoro è fatto automaticamente. C’è
molta inflessibilità connessa con l’amministrazione automatica delle
divisioni. Nel caso delle divisione a livello applicazione dei dati del
hale kūʻaiʻikepili, molto lavoro grava sul programmatore, ma il
risultato finale è la flessibilità nell’amministrazione dei dati nel data
hale ukana
HE MAU ANOMALIA
ʻOiai nā māhele o ka hale kūʻaiʻikepili funzionano come descritto
per quasi tutti i dati, ci sono alcune eccezioni utili che devono
essere discusse. Un’eccezione è quella dei dati sommari pubblici
(public summary data). Questi sono dati sommari che sono stati
calcolati fuori dal hale kūʻaiʻikepili akā hoʻohana ʻia lākou e ka hui. KA dati
Mālama ʻia a mālama ʻia nā hōʻuluʻulu lehulehu ma ka hale kūʻaiʻikepili,
anche se come detto precedentemente sono calcolati fuori. I
ragionieri lavorano per produrre trimestralmente tali dati e like me
reddito, le spese trimestrali, profitto trimestrale, e così via. Il lavoro
fatto dai ragionieri è esterno al hale kūʻaiʻikepili. Eia naʻe, i dati sono
usati “internamente” alla società – dal ke kūʻai akuʻana, dalle vendite, ecc.
Un’altra anomalia, di cui non si parlerà, è quella dei dati kūwaho.
ʻO kekahi ʻano ʻokoʻa dati che si possono trovare in un data
warehouse è quello dei permanent detail data. Questi provocano la
necessità di memorizzare in modo permanente i dati ad un livello
dettagliato per i motivi etici o legali. Se una società sta esponendo i
relativi operai a sostanze pericolose c’ è un’esigenza di dati
dettagliati e permanenti . Se una società produce un prodotto che
coinvolge la sicurezza pubblica, quali parti di un aeroplano, c’è
l’esigenza di dati dettagliati permanenti, così come se una società
stipula contratti pericolosi.
La società non può permettersi di trascurare i particolari perché
durante i prossimi anni, nel caso di una causa, di un richiamo, di un
difetto di costruzione disputato, ecc. l’esposizione dell’azienda
potrebbe essere grande. Di conseguenza c’è un tipo unico di dati
ʻike ʻia he ʻikepili kikoʻī mau.
KUMUKU
Un hale kūʻaiʻikepili è un oggetto orientato, integrato, variante di
tempo, una raccolta di dati non volatile a sostegno dei bisogni di
decisione dell’amministrazione. Ciascuna delle funzioni salienti di
un hale kūʻaiʻikepili ha le relative implicazioni. In più ci sono quattro
livelli di dati del hale kūʻaiʻikepili:
▪ Old detail
▪ Current detail
Dati hōʻano hou ʻia
Dati altamente ricapitolati
I metadati sono inoltre una parte importante del hale kūʻaiʻikepili.
OLELO HOOLAHA
ʻO ka manaʻo o ka mālama ʻana o dati recentemente ha ricevuto
molte attenzioni ed è diventato una tendenza degli anni 90. Ciò è
dovuto alla capacità di un hale kūʻaiʻikepili di sormontare le
limitazioni dei sistemi di supporto dell’amministrazione quali i
sistemi di ausilio decisionale (DSS) ed i sistemi d’informazione
esecutivi (EIS).
Anche se il concetto del hale kūʻaiʻikepili sembra promettente,
implementare i hale kūʻaiʻikepili può essere problematico a causa
dei processi d’immagazzinamento su larga scala. Malgrado la
complessità dei progetti d’immagazzinamento di dati, molti fornitori
e consulenti che immagazzinano dati koi lākou i kēlā
l’immagazzinamento di dati attuali non comporta problemi.
Tuttavia, all’inizio di questo progetto di ricerca, quasi nessuna
ricerca indipendente, rigorosa e sistematica era stata effettuata. Di
conseguenza è difficile dire, che cosa realmente accade
nell’industria quando si costruiscono hale kūʻaiʻikepili.
Questo studio ha esplorato la pratica d’immagazzinamento di dati
contemporanei che punta a sviluppare una comprensione più ricca
della pratica australiana. L’analisi della letteratura ha fornito il
contesto ed il fondamento per lo studio empirico.
Ci sono un certo numero di risultati da questa ricerca. In primo
luogo, questo studio ha rivelato le attività che si sono presentate
durante lo sviluppo del hale kūʻaiʻikepili. Ma na wahi he nui, i dati ʻākoakoa
hanno confermato la pratica segnalata nella letteratura. In secondo
luogo, le edizioni ed i problemi che possono avere effetto sullo
sviluppo del hale kūʻaiʻikepili sono stati identificati da questo studio.
Infine, benefici tratti dalle organizzazioni australiane connesse con
l’uso dei hale kūʻaiʻikepili ua hōʻike ʻia.
Mokuna 1
Ka pōʻaiapili noiʻi
Il concetto del data warehousing ha ricevuto una diffusa
esposizione e si è trasformato in una tendenza emergente negli
anni 90 (McFadden 1996, TDWI 1996, Shah e Milstein 1997,
Shanks ed altri. 1997, Eckerson 1998, Adelman e Oates 2000). Ciò
può essere visto dal numero crescente di articoli sul data
warehousing nelle pubblicazioni commerciali (Little e Gibson 1999).
Molti articoli (vedere, per esempio, Fisher 1995, Hackathorn 1995,
Morris 1995a, Bramblett e re 1996, Graham ed altri. 1996,
Sakaguchi e Frolick 1996, Alvarez 1997, Brousell 1997, Clarke
1997, McCarthy 1997, O’ Donnell 1997, Edwards 1998, TDWI
1999) hanno segnalato notevoli benefici tratti dalle organizzazioni
che implementano i hale kūʻaiʻikepili. Hanno sostenuto la loro teoria
con la prova aneddotale delle implementazioni riuscite, l’alto ritorno
sulle figure di investimento (ROI) e, anche, fornendo la guida di
riferimento o le metodologie per lo sviluppo dei hale kūʻaiʻikepili
(Shanks ed altri. 1997, Seddon e Benjamin 1998, poco e Gibson
1999). In un caso estremo, Graham ed altri. (1996) hanno
segnalato un ritorno medio su un investimento triennale del 401%.
Gran parte della letteratura attuale, tuttavia, ha trascurato le
complessità coinvolte nell’intraprendere tali progetti. I progetti di
hale kūʻaiʻikepili sono normalmente complesso e su grande scala e
quindi implicano un’alta probabilità di non riuscire se non sono
controllati con attenzione (Shah e Milstein 1997, Eckerson 1997,
Foley 1997b, Zimmer 1997, Bort 1998, Gibbs e Clymer 1998, Rao
1998). Essi richiedono i vasti importi sia di risorse umane che
finanziarie e, tempo e sforzo per costruirli (Hill 1998, Crofts 1998). Il
tempo tipico ed i mezzi finanziari necessari sono rispettivamente di
circa due anni e di due o tre milioni di dollari (Braly 1995, Foley
1997b, Bort 1998, Humphries ed altri. 1999). Questi tempi e mezzi
finanziari sono richiesti per controllare e consolidare molti aspetti
differenti del data warehousing (Cafasso 1995, Hill 1998). A lato
delle considerazioni hardware e software, altre funzioni, che variano
dall’estrazione di dati i nā kaʻina hoʻouka ʻana o dati, mai ka
capacità di memoria per gestire gli aggiornamenti e dai meta dati
no ka hoʻonaʻauao mea hoʻohana, pono e noʻonoʻo.
Ai tempi dell’inizio di questo progetto di ricerca, c’era pochissima
ricerca accademica condotta nel campo del data warehousing,
specialmente in Australia. Ciò era evidente dalla penuria di articoli
pubblicati sul data warehousing da giornali o altre scritture
accademiche del tempo. Molte delle scritture accademiche
disponibili descrivevano l’esperienza statunitense. La mancanza di
ricerca accademica nella zona sl data warehousing ha causato la
richiesta di ricerca rigorosa e studi empirici (McFadden 1996,
Shanks ed altri. 1997, Little e Gibson 1999). In particolare, gli studi
di ricerca sul processo di implementazione dei hale kūʻaiʻikepili
necessitano di essere effettuati per estendere la conoscenza
generale riguardo l’implementazione dei hale kūʻaiʻikepili e
serviranno come base per un futuro studio di ricerca (Shanks ed
altri. 1997, Little e Gibson 1999).
Lo scopo di questo studio, quindi, è studiare che cosa realmente
accade quando le organizzazioni effettuano ed usano i data
warehouse in Australia. Specificamente, questo studio coinvolgerà
un’analisi di un intero processo di sviluppo di un hale kūʻaiʻikepili,
iniziando dall’iniziazione e progettazione attraverso il design e
l’inplementazione e il successivo uso all’interno delle organizzazioni
australiane. In più, lo studio inoltre contribuirà al la pratica attuale
identificando le aree in cui la pratica può essere ulteriormente
migliorata e le inefficienze e i rischi possono essere minimizzati o
evitati. Inoltre, servirà da base per altri studi sui hale kūʻaiʻikepili in
Australia e colmerà il gap attualmente esistente in letteratura.
Nā nīnau noiʻi
L’obiettivo di questa ricerca è studiare le attività coinvolte
nell’implementazione dei hale kūʻaiʻikepili e il loro uso da parte delle
organizzazioni australiane. In particolare, sono studiati gli elementi
riguardo alla pianificazione di progetto, allo sviluppo, al
funzionamento, all’uso ed ai rischi in questione. Quindi la domanda
di questa ricerca è:
"He aha ka hana o kēia manawa hale kūʻaiʻikepili ma Australia?"
Per rispondere efficacemente a questo problema, sono richieste un
certo numero di domande sussidarie di ricerca. In particolare, tre
sotto-domande sono state identificate dalla letteratura, che è
presentata nel capitolo 2, per guidare questo progetto di ricerca:
Come sono implementati i hale kūʻaiʻikepili dalle organizzazioni
australiane? Quali sono i problemi incontrati?
He aha nā pōmaikaʻi i loaʻa?
Nel rispondere a queste domande, è stato usato un disegno
esplorativo di ricerca che impiega un’indagine. Come studio
esplorativo, le risposte alle suddette domande non sono complete
(Shanks ed altri. 1993, Denscombe 1998). In questo caso, è
richiesta una triangolazione per migliorare le risposte a queste
domande. Tuttavia, l’indagine fornirà un solido fondamento per
futuri lavori che esaminano queste domande. Una dettagliata
discussione sulla giustificazione del metodo di ricerca e sul design
è presentata nel capitolo 3.
ʻO ke ʻano o ka papahana noiʻi
Questo progetto di ricerca è diviso in due parti: lo studio contestuale
del concetto di datawarehousing e la ricerca empirica (si veda
figura 1.1), ciascuno dei quali è discusso qui di seguito.
Mahele I: Haʻawina ʻatikala
La prima parte della ricerca è consistita nella riesaminazione della
letteratura attuale sui vari tipi di data warehousing compresi i
sistemi di ausilio decisionale (DSS), i sistemi d’informazione
esecutivi (EIS), i case study di hale kūʻaiʻikepili ed i concetti di data
warehouse. Inoltre, i risultati dei foum sui hale kūʻaiʻikepili a me nā akua
gruppi di incontro per esperti e professionisti condotti dal gruppo di
ricerca Monash DSS, hanno contribuito a questa fase dello studio
che è stato inteso per ottenere le informazioni sulla pratica dei data
warehouse e per identificare i rischi coinvolti nella loro adozione.
Durante questo periodo di studio contestuale, la comprensione
dell’area del problema è stata stabilita per fornire la conoscenza di
base per le successive investigazioni empiriche. Tuttavia, questo
era un processo continuo durante lo svolgimento dello studio di
ʻImi noiʻi.
Mahele II: Ka noiʻi ʻana
Il concetto relativamente nuovo del data warehousing, specialmente
in Australia, ha creato la necessità di eseguire un’indagine per
ottenere una vasta immagine dell’esperienza di utilizzo. Questa
parte è stata effettuata una volta che il dominio del problema fosse
stato stabilito attraverso vasta revisione della letteratura. Il concetto
di data-warehousing formato durante la fase di studio contestuale è
stato usato come input per il questionario iniziale di questo studio.
Dopo questo, il questionario è stato esaminato. Sei esperti di data
warehouse hanno partecipato al test. Lo scopo del test del
questionario iniziale era controllare la completezza e la precisione
delle domande. Sulla base dei risultati del test, il questionario è
stato modificato e la versione modificata è stata spedita ai
partecipanti all’indagine. I questionari restituiti allora sono stati
analizzati per i dati ma nā papa, nā kiʻi a me nā ʻano like ʻole. KA
nā hualoaʻa kālailai o dati formano una fotografia istantanea della
pratica del data warehousing in Australia.
KAHIKI WAREHOUSE KAHIKI
Il concetto di data warehousing si è evoluto con i miglioramenti
della tecnologia dei computer.
Esso è finalizzato a superare i problemi incontrati dai gruppi di
supporto delle applicazioni come Decision Support System (DSS) e
Executive Information System (EIS).
Nel passato il maggiore ostacolo di queste applicazioni è stata
l’incapacità di queste applicazioni di fornire una waihona ʻikepili
pono no ka hooponopono ana.
Questo è principalmente causato dalla natura del lavoro della
dirigenza. Gli interessi della dirigenza di una società variano
costantemente a seconda dell’area trattata. Perciò i dati
fondamentali per queste applicazioni devono essere in grado di
cambiare rapidamente a seconda della parte da trattare.
ʻO ke ʻano kēia i dati devono essere disponibili nella forma
adeguata per le analisi richieste. Infatti i gruppi di supporto delle
applicazioni trovarono molte difficoltà in passato a raccogliere ed
hoʻohui dati mai nā kumu paʻakikī a like ʻole.
Il resto di questa sezione presenta una panoramica del concetto di
data warehousing e tratta di come il hale kūʻaiʻikepili può superare i
problemi dei gruppi di supporto delle applicazioni.
ʻO ka huaʻōlelo “Hale kūʻai ʻikepili” fu diffuso da William Inmon nel 1990.
La sua spesso citata definizione vede il Hale kūʻai ʻikepili hele mai
collezione di dati orientati al soggetto,integrati,non volatili,e variabili
col tempo,in supporto alle decisioni dirigenziali.
Ke hoʻohana nei i kēia wehewehe ʻo Inmon e hōʻike i ka i dati residenti
i ka a hale kūʻaiʻikepili devono possedere le seguenti 4
hiʻona:
▪ Orientati al soggetto
▪ Integrati
▪ Non volatili
▪ Variabili col tempo
Per Orientati al soggetto Inmon intende che i dati nel data
warehouse nelle più grandi aree organizzative che sono state
i ho'ākāka 'ia ma ke kŘkohu dati. No ka laʻana a pau dati pili ana i nā mea kūʻai mai
aia i loko o ke kumuhana nā mea kūʻai mai. Pela no na mea a pau
dati relativi ai prodotti sono contenuti nell’area soggetto
PRODOTTI.
ʻO ka Integrated Inmon, ʻo ia ka i dati provenienti da differenti
piattaforme,sistemi e locazioni sono combinate e immagazzinate in
unico posto. Di conseguenza dati similari devono essere trasformati
in formati consistenti in modo da essere aggiunti e comparati
maʻalahi
Per esempio il genere maschile e femminile sono rappresentati
dalle lettere M e F in un sistema,e con 1 e 0 in un altro. Per
integrarli nella maniera giusta,uno o tutti e due i formati devono
essere trasformati in modo che i due formati siano uguali. In questo
caso potremmo cambiare M in 1 e F in 0 o viceversa. Orientati al
soggetto e Integrati indicano che il hale kūʻaiʻikepili è progettato per
fornire una funzionale e trasversale visione dei dati ʻaoʻao aʻe
o ka hui.
By Non-volatile ʻo ia ke ʻano i dati nel hale kūʻaiʻikepili rimangono
consistenti e l’aggiornamento dei dati non occorre. Invece,ogni
cambiamento nei dati hoʻohui ʻia nā kumu kumu i ka hōkeoʻikepili del data
warehouse. Questo significa che lo storico dei dati aia i loko
hale kūʻaiʻikepili.
No nā mea hoʻololi me ka manawa hōʻike ʻo Inmon i dati nel hale kūʻaiʻikepili
loaʻa mau nā hōʻailona manawa dati maʻamau
attraversano un certo orizzonte temporale. Per esempio un
hale kūʻaiʻikepili hiki ke loaʻa i nā makahiki 5 o nā waiwai mōʻaukala o nā mea kūʻai mai dal
1993 al 1997. La disponibilità dello storico e di una serie temporale
dei dati hiki iā ʻoe ke kālailai i nā ʻano.
Un hale kūʻaiʻikepili hiki iā ia ke hōʻiliʻili i kāna iho dati da dei sistemi
OLTP;da origini dati esterne all’organizzazione e/o da altri speciali
progetti di sistema di cattura dati.
I dati estratti possono passare attraverso un processo di pulizia,in
questo caso i dati vengono trasformati ed integrati prima di essere
immagazzinati nel hōkeoʻikepili del hale kūʻaiʻikepili. A laila, i dati
kamaaina maloko o ka hōkeoʻikepili del hale kūʻaiʻikepili sono resi disponibili
agli accessi degli utenti finali e agli strumenti di recupero. Usando
questi strumenti l’utente finale può accedere alla vista integrata
dell’organizzazione dei dati.
I dati kamaaina maloko o ka hōkeoʻikepili del hale kūʻaiʻikepili sono
immagazzinati sia dettagliatamente che in formati riassuntivi.
Aia paha ka pae o ka hōʻuluʻulu manaʻo ma ke ʻano o ka dati. I dati
kiko'ī hiki ke komo i dati kēia manawa e dati poe kakau moolelo
I dati ʻaʻole i hoʻokomo ʻia nā royalties i loko o ka hale kūʻaiʻikepili a hiki i ka i dati
nel hale kūʻaiʻikepili hōʻano hou ʻia.
Ma waho aʻe o ka mālama ʻana i dati lakou iho, a hale kūʻaiʻikepili puō anche
immagazzinare un differente tipo di ua haawiia chiamato METADATI che
descrivono i dati kamaaina ma kona hōkeoʻikepili.
Ci sono due tipi di metadati: metadati di sviluppo e metadati di
analisi.
I metadati di sviluppo sono utilizzati per gestire ed automatizzare i
processi di estrazione,pulizia,mappatura e caricamento dei dati nel
hale kūʻaiʻikepili.
L’informazione contenuta nei metadati di sviluppo può contenere
dettagli di sistemi operativi,dettagli degli elementi da estrarre,il
anakuhi dati del hale kūʻaiʻikepili e le regole aziendali per la
conversione dei dati.
Il secondo tipo di metadati,conosciuti come metadati di analisi
rende in grado l’utente finale di esplorare il contenuto del data
warehouse per trovare i dati disponibili e il loro significato in termini
chiari e non tecnici.
Perciò i metadati di analisi funzionano come un ponte tra il data
warehouse e le applicazioni degli utenti finali. Questo metadata può
contenere il modello aziendale, le descrizioni dei dati corrispondenti
al modello aziendale,interrogazioni (queries) pre-definite e report,
informazioni per gli accessi degli utenti e l’indice.
I metadati di analisi e sviluppo devono essere combinati in un unico
integrato metadata di contenimento per funzionare correttamente.
Sfortunatamente molti degli strumenti esistenti hanno il proprio
metadata e attualmente non ci sono degli standard esistenti che
permettono agli strumenti di data warehousing di integrare questi
metadati. Per rimediare a questa situazione molti commercianti dei
principali strumenti di data warehousing hanno formato il Meta Data
Council divenuto poi Meta Data Coalition.
Lo scopo di questa coalizione è di costruire un set di metadati
standard che permette a differenti strumenti di data warehousing di
convertire i metadati
I loro sforzi hanno avuto come esito quello della nascita del Meta
Data Interchange Specification (MDIS) che permetterà lo scambio
di informazioni tra gli archivi Microsoft e i relativi MDIS files.
Ka noho ana o dati sia riassunti/indicizzati che dettagliati dà
all’utente la possibilità di effettuare un DRILL DROWN
(trapanamento) dai dati indicizzati a quelli dettagliati e viceversa.
Ka noho ana o dati storici dettagliati permette la realizzazione di
analisi di trend nel tempo. In aggiunta i metadati di analisi possono
essere usati come directory del hōkeoʻikepili del hale kūʻaiʻikepili no ka
aiutare gli utenti finali a localizzare i dati pono.
In confronto ai sistemi OLTP,con la loro capacità di supportare
analisi di dati a me ka hoike ana, ka hale kūʻaiʻikepili è visto come un sistema
più appropriato per processi di informazione come effettuare e
rispondere a queries e produrre report. La prossima sezione
evidenzierà le differenze dei due sistemi dettagliatamente.
HALE WAE IKE KUE I NA PUNA OLTP
Molti dei sistemi di informazione all’interno delle organizzazioni
hanno lo scopo di supportare le operazioni giornaliere. Questi
sistemi conosciuti come SISTEMI OLTP, catturano le transazioni
giornaliere continuamente aggiornate.
I dati all’interno di questi sistemi sono spesso modificati,aggiunti o
cancellati. Per esempio un indirizzo di un cliente cambia appena
egli si sposta da un luogo all’altro. In questo caso il nuovo indirizzo
sarà registrato modificando il campo indirizzo del hōkeoʻikepili.
L’obiettivo principale di questi sistemi è quello di ridurre i costi delle
transazioni e allo stesso tempo di ridurre in tempi di elaborazione.
Esempi di Sistemi OLTP includono azioni critiche come scritture
contabili di ordini,libri paga,fatture,fabbricazione,servizi ai nā mea kūʻai mai.
A differenza dei sistemi OLTP,che sono stati creati per processi
basati su transazioni ed eventi, i hale kūʻaiʻikepili sono stati creati
per fornire supporto ai processi basati su analisi di dati f e oe
processi di decisione.
Loaʻa maʻamau kēia ma ka hoʻohui ʻana i i dati da vari sistemi
OLTP ed esterni in un unico “contenitore” di dati,come discusso
nella sezione precedente.
Monash Data Warehousing Process Model
ʻO ke kumu hoʻohālike kaʻina hana no hale kūʻaiʻikepili Monashè stato sviluppato dai
ricercatori del Monash DSS Research Group, è basato sulla
letterature dei hale kūʻaiʻikepili, sull’esperienza nel supporto allo
sviluppo di campi di sistemi, su discussioni con vendors di
applicazioni per l’uso su hale kūʻaiʻikepili, su di un gruppo di esperti
nell’uso di hale kūʻaiʻikepili.
Le fasi sono: Inizio, Pianificazione, Sviluppo, Operazioni e
Spiegazioni. Il diagramma spiega la natura iterativa o
evoluzionistica dello sviluppo di un hale kūʻaiʻikepili process usando
frecce a doppio senso collocate tra le diverse fasi. In questo
contesto “iterativo” e “evoluzionistico” significano che, ad ogni
passo del processo, le attività di implementazione si possono
sempre propagare all’indietro verso la fase precedente. Questo è
dovuto alla natura del progetto di un hale kūʻaiʻikepili i loko o
subentrano in ogni momento richieste addizionali da parte
dell’utente finale. Per sempio, durante la fase di sviluppo di un
processo di hale kūʻaiʻikepili, viene richiesta dall’utente finale una
nuova dimensione o area di soggetto, che non faceva perte del
piano originale, questa deve essere aggiunta al sistema. Questo
causa un cambiamento nel progetto. Il risultato è che il team di
progettazione deve cambiare i requisiti dei documenti creati finora
durante la fase di progettazione. In molti casi, il corrente stato del
progetto deve tornare indietro fino alla fase di progettazione dove
deve essere aggiunta la nuova richiesta e documentarla. L’utente
finale deve poter vedere la documentazione specifica revisionata e i
cambiamenti che sono stati fatti nella fase di sviluppo. Alla fine di
questo ciclo di sviluppo il progetto deve ottenere ottimi feedback da
entrambi i team, quello di sviluppo e quello degli utilizzatori. I
feedback sono poi riutilizzati per migliorare un progetto futuro.
Hoʻolālā hiki
I dw tendono a essere molto grandi in dimensione e a crescere
molto velocemente (Best 1995, Rudin 1997a) a seguito della
ka nui o dati storici che essi conservano dalla loro durata. La
crescita può essere causata anche da dati aggiuntivi richiesti dagli
utenti per aumentare il valore dei dati che essi hanno già. Di
conseguenza, i requisiti di immagazzinamento per dati hiki
essere significativamente potenziati (Eckerson 1997). Così, è
essenziale assicurare, conducendo una pianificazione della
capacità, che il sistema per essere costruito può crescere con la
crescita delle necessità(Best 1995, LaPlante 1996, Lang 1997,
Eckerson 1997, Rudin 1997a, Foley 1997a).
Nella pianificazione per scalabilità del dw, uno deve conoscere la
crescita attesa della dimensione del magazzino, i tipi di domande
probabili da effettuare, e il numero di utenti finali sostenuti(Best
1995, Rudin 1997b, Foley 1997a). Costruire applicazioni scalabili
richiede una combinazione di tecnologie server scalabili e tecniche
di progettazione di applicazioni scalabili (Best 1995, Rudin 1997b.
Entrambe sono necessarie nella creazione di un’applicazione
estremamente scalabile. Le tecnologie server scalabili possono
renderlo facile e vantaggioso per aggiungere deposito, memoria e
CPU senza degradare le prestazioni (Lang 1997, Telephony 1997).
Ci sono due tecnologie server scalabili principali: elaborazione
multipla simmetrica (SMP) ed elaborazione in maniera massiccia
parallela (MPP) ) (IDC 1997, Humphries et al. 1999). Un server
SMP normalmente ha più processori che condividono una memoria,
sistema bus e altre risorse (IDC 1997, Humphries et al. 1999).
Processori supplementari possono essere aggiunti per aumentare
ʻo ia mana helu helu. ʻO kekahi ala e hoʻonui ai i ka
mana computazionale del server SMP, è combinare numerose
macchine SMP. Questa tecnica è nota come clustering (Humphries
et al. 1999). Un server MPP, d’altra parte, ha più processori ognuno
con una propria memoria, sistema bus e altre risorse (IDC 1997,
Humphries et al. 1999). Ogni processore è chiamato nodo. Un
hoʻonui i mana hiki ke hoʻokō i ka helu helu
aggiungendo nodi supplementari ai server MPP (Humphries et al.
1999).
Una debolezza dei server SMP è che troppe operazioni input-output
(I/O) possono congestionare il sistema bus (IDC 1997). Questo
problema non si verifica all’interno dei server MPP poiché ogni
processore ha il proprio sistema di bus. Tuttavia, le interconnessioni
fra ogni nodo generalmente sono molto più lente del sistema bus
dei SMP. Inoltre, i server MPP possono aggiungere un livello
supplementare di complessità agli sviluppatori di applicazioni (IDC
1997). Così, la scelta tra server SMP e MPP può essere influenzata
da molti fattori, tra cui la complessità delle domande, il rapporto
prezzo/prestazioni, la capacità di trattamento richiesta, le
applicazioni dw prevenute e l’aumento in dimensione dei hōkeoʻikepili
o dw a i ka helu o nā mea hoʻohana hope.
Numerose tecniche di progettazione di applicazione scalabile
possono essere impiegate nella pianificazione della capacità. Uno
utilizza vari periodi di notifica come giorni, settimane, mesi e anni.
Avendo vari periodi di notifica, il hōkeoʻikepili può essere diviso in
pezzi raggruppati maneggevolmente (Inmon et al. 1997). Un’altra
tecnica è utilizzare tabelle riepilogative che sono costruite
riassumendo dati da dati kikoʻī. No laila, i dati riassunti sono più
compatti del dettagliato, il quale richiede meno spazio di memoria.
Quindi i dati di dettaglio possono essere archiviati in un’unità di
memorizzazione meno cara, la quale salva ancora più deposito.
Benché utilizzare tabelle riepilogative possa salvare spazio di
memoria, essi richiedono molto sforzo per mantenerli aggiornati e in
linea con le necessità commerciali. Tuttavia, questa tecnica è
ampiamente utilizzata e spesso utilizzata insieme alla tecnica
precedente(Best 1995, Inmon 1996a, Chauduri and Dayal
1997).
Ke wehewehe Hale kūʻai ʻikepili kōmike
Architectures Definizione delle tecniche di
architetture di dw
Iniziali adottanti di data warehousing concepivano principalmente
un’implementazione centralizzata del dw in cui tutti i dati, me nā
i dati waho, ua hoʻohui ʻia i hoʻokahi,
mālama kino (Inmon 1996a, Bresnahan 1996, Peacock 1998).
Il vantaggio principale di questo approccio è che gli utenti finali
sono in grado di accedere alla vista su scala imprenditoriale
(enterprise-wide view) dei dati organizzativi (Ovum 1998). Un altro
vantaggio è che offre standardizzazione di dati hai
l’organizzazione, che significa che c’è solo una versione o
definizione per ogni terminologia utilizzata nel dw deposito
(reposity) metadata (Flanagan and Safdie 1997, Ovum 1998). Lo
svantaggio di questo approccio, d’altra parte, è che è caro e difficile
da costruire (Flanagan and Safdie 1997, Ovum 1998, Inmon et al.
1998). Non molto dopo che l’architettura d’immagazzinamento dati
centralizzata divenne popolare, si evolse il concetto di estrazione
dei sottoinsiemi più piccoli dei dati per sostenere i bisogni di
applicazioni specifiche (Varney 1996, IDC 1997, Berson e Smith
1997, peacock 1998). Questi piccoli sistemi sono derivati dal più
nui hale kūʻaiʻikepili centralizzato. Sono denominati data
warehouse dipartimentali dipendenti o data marts dipendenti.
L’architettura del data mart dipendente è conosciuta come
architettura tre-tiered in cui la prima fila consiste del data
warehouse centralizzato, la seconda consiste dei depositi di dati
'Oihana a me ke kolu o ke komo 'ana i dati e dai tools di
analisi (Demarest 1994, Inmon ed altri. 1997).
Kūkulu ʻia nā hale kūʻai ʻikepili ma hope o ka hale kūʻaiʻikepili
centralizzato è stato costruito per rispondere alle esigenze delle
specifiche unità(White 1995, Varney 1996).
Hale kūʻai ʻikepili i ka dati molto rilevanti relativi a particolari
unità (Inmon ed altri. 1997, Inmon ed altri. 1998, IA 1998).
ʻO ka pōmaikaʻi o kēia ʻano hana ʻaʻole e loaʻa ua haawiia ai '
integrato e che i dati saranno meno ridondanti all’interno dei data
marts poiché tutti i dati hele mai lākou mai kahi hale kūʻai dati integrato.
Un altro vantaggio è che ci saranno pochi collegamenti fra ogni
data mart e le relative fonti di dati perché ogni data mart ha soltanto
una fonte di dati. In più con questa architettura sul posto, gli utenti
finali possono ancora accedere alla panoramica dei dati
organizzativi aziendali. Questo metodo è conosciuto come il
metodo top-down, in cui i data marts sono costruiti dopo il data
warehouse (peacock 1998, Goff 1998).
Aumentando la necessità di mostrare presto i risultati, alcune
organizzazioni hanno cominciato costruire data marts indipendenti
(Flanagan e Safdie 1997, White 2000). In questo caso, i data marts
prendono i loro dati pololei mai ke kumu o dati OLTP e non dal
deposito centralizzato e integrato, eliminando così l’esigenza di
avere il deposito centrale sul posto.
Ogni data mart richiede almeno un collegamento alle relative fonti
di dati. Uno svantaggio di avere collegamenti multipli per ogni data
mart è che, confrontato alle due architetture precedenti, la
sovrabbondanza di dati piʻi nui.
Pono kēlā me kēia hale kūʻai data e mālama i nā mea āpau dati richiesti localmente per
non avere effetto sui sistemi di OLTP. Questo provoca che i dati
sono immagazzinati in differenti data marts (Inmon ed altri. 1997).
Un altro svantaggio di questa architettura è che conduce alla
creazione di complesse interconnessioni fra i data marts e le loro
fonti di dati che sono difficili da effettuare e controllare (Inmon ed
altri. 1997).
Un altro svantaggio è che gli utenti finali non possono potere
accedere alla panoramica delle informazioni aziendali poiché i dati
ʻAʻole hoʻohui ʻia nā hale kūʻai ʻikepili like ʻole (Ovum 1998).
Ancora un altro svantaggio è che potrebbe esistere più di una
definizione per ogni terminologia usata nei data marts che genera
inconsistenze di dati i ka hui (Ovum 1998).
Malgrado gli svantaggi discussi sopra, i data marts indipendenti
attraggono ancora l’interesse di molte organizzazioni (IDC 1997).
Un fattore che li rende attraenti è che sono più rapidi da sviluppare
e richiedono meno tempo e risorse (Bresnahan 1996, Berson e
Smith 1997, Ovum 1998). Di conseguenza, servono principalmente
come progetti-prova che possono essere usati per identificare
rapidamente i benefici e/o le imperfezioni nel progetto (Parsaye
1995, Braly 1995, Newing 1996). In questo caso, la parte da
implementare nel progetto pilota deve essere piccola ma importante
per l’organizzazione (Newing 1996, Mansell-Lewis 1996).
Esaminando il prototipo, gli utenti finali e l’amministrazione possono
decidere se continuare o fermare il progetto (Flanagan e Safdie
1997).
Se la decisione è di continuare, i data marts per altri settori
dovrebbero essere costruiti una alla volta. Ci sono due opzioni per
gli utenti finali basate sui loro bisogni nella costruzione dei data
matrs indipendenti: integrated/federated ed unintegrated (Ovum
1998)
Nel primo metodo, ogni nuovo data mart dovrebbe essere costruito
basandosi sui data marts attuali e sul modello dati utilizzato
dall’impresa (Varney 1996, Berson e Smith 1997, Peacock 1998).
La necessità di usare il modello dati dell’impresa fa si che bisogna
accertarsi che esista soltanto una definizione per ogni terminologia
usata attraverso i data marts, questo anche per accertarsi che data
marts differenti possano essere uniti per dare una panoramica delle
informazioni aziendali (Bresnahan 1996). Questo metodo è
denominato il bottom-up ed è il migliore quando c’è un vincolo sui
mezzi finanziari e sul tempo (Flanagan e Safdie 1997, Ovum 1998,
peacock 1998, Goff 1998). Nel secondo metodo, i data marts
costruiti possono soddisfare soltanto i bisogni di un’unità specifica.
Una variante del federated data mart è il hale kūʻaiʻikepili distribuito
i ka mea a ka hōkeoʻikepili middleware hub server è utilizzato per unire molti
data marts in un singolo deposito di dati distribuito (White 1995). In
questo caso, i dati aziendali sono distribuiti in parecchi data marts.
Le richieste dell’utente finale sono trasmesse al hōkeoʻikepili
server hub middleware, nāna e unuhi i nā mea a pau dati richiesti dai data
marts e ritorna i risultati alle applicazioni dell’utente finale. Questo
metodo fornisce le informazioni aziendali agli utenti finali. Tuttavia,
ancora non vengono eliminati i problemi dei data marts
indipendenti. C’è un’altra architettura che può essere usata che è
chiamata il hale kūʻaiʻikepili virtuale (White 1995). Tuttavia, questa
architettura, che è descritta nella figura 2.9, non è un’architettura
d’immagazzinamento di dati reali poiché non sposta il caricamento
dai sistemi OLTP al hale kūʻaiʻikepili (Demarest 1994).
ʻOiaʻiʻo, nā noi o dati dagli utenti finali sono passate sopra ai
sistemi di OLTP che restituiscono i risultati dopo l’elaborazione delle
richieste di utente. Anche se questa architettura permette agli utenti
finali di generare i rapporti e formulare le richieste, non può fornire i
dati mōʻaukala a me ka ʻike nui o ka ʻike ʻoihana e like me i dati
dai differenti sistemi di OLTP non sono integrati. Quindi, questa
architettura non può soddisfare l’analisi di dati complessa quale ad
esempio previsioni.
Selezione dell’applicativi di accesso e di
recupero dei dati
ʻO ke kumu o ke kūkulu ʻana a hale kūʻaiʻikepili è di trasmettere
informazioni agli utenti finali (Inmon ed altri 1997, Poe 1996,
McFadden 1996, Shanks ed altri 1997, Hammergren 1998); uno o
più applicativi di accesso e recupero dati devono essere forniti. Ad
oggi, esiste un’ampia varietà di questi applicativi tra cui l’utente può
scegliere (Hammergren 1998, Humphries ed altri 1999). Gli
applicativi selezionati determinano il successo dello sforzo
d’immagazzinamento di dati in un’organizzazione perché gli
applicativi sono la parte più visibile del hale kūʻaiʻikepili all’utente
finale (Inmon ed altri 1997, Poe 1996). Per aver successo un data
warehouse, deve potere sostenere le attività di analisi dei dati
dell’utente finale (Poe 1996, Seddon e Benjamin 1998, Eckerson
1999). Quindi il “livello” di ciò che l’utente finale vuole deve essere
identificato (Poe 1996, Mattison 1996, Inmon ed altri 1997,
Humphries ed altri 1999).
In generale, gli utenti finali possono essere raggruppati in tre
categorie: executive users, business analysts e power user (Poe
1996, Humphries ed altri 1999). Gli executive users necessitano di
un facile accesso ad insiemi predefiniti di rapporti (Humphries ed
altri 1999). Questi rapporti possono essere raggiunti facilmente con
la navigazione dei menu (Poe 1996). In più, i rapporti dovrebbero
presentare le informazioni usando la rappresentazione grafica
come le tabelle ed i modelli per trasportare rapidamente le
informazioni (Humphries ed altri 1999). I business analyst, che non
possono avere le possibilità tecniche per sviluppare i rapporti da
zero da soli, necessitano di potere modificare i rapporti attuali per
soddisfare i loro bisogni specifici (Poe 1996, Humphries ed altri
1999). I power user, d’altra parte, sono il tipo di utilizzatori finali che
hanno la capacità di generare e scrivere le richieste ed i rapporti da
zero (Poe 1996, Humphries ed altri 1999). Sono quelli che
sviluppano i rapporti per gli altri tipi di utenti (Poe 1996, Humphries
ed altri 1999).
Una volta determinati i requisiti dell’utente finale deve essere fatta
una selezione degli applicativi di accesso e recupero dati tra tutti
quelli disponibili (Poe 1996, Inmon ed altri 1997).
Komo i dati e gli strumenti di retrieval possono essere
classificati in 4 tipi: OLAP tool, EIS/DSS tool, tool di query e
reporting e tool di data mining.
I tool OLAP permettono agli utenti di creare query ad hoc così come
quelle fatte sul hōkeoʻikepili del hale kūʻaiʻikepili. Inoltre questi prodotti
consentono agli utenti di fare drill-down dai dati generali a quelli
dettagliati.
I tool EIS/DSS forniscono reporting esecutivi come analisi “what if”
e accessi ai reports organizzati a menu. I report devono essere
predefiniti e uniti ai menu per una navigazione più facile.
I tool di query e reporting permettono agli utenti di produrre report
predefiniti e specifici.
I tool di data mining sono usati per identificare relazioni che
potrebbero fare nuova luce sulle operazioni dimenticate nei dati del
datawarehouse.
Accanto all’ottimizzazione dei requisiti di ogni tipologia di utenti, i
tool selezionati devono essere intuitivi, efficienti e di facile utilizzo.
Inoltre devono essere compatibili con le altre parti dell’architettura e
in grado di lavorare con i sistemi esistenti. È inoltre suggerito di
scegliere data access e tool di retrieval con prezzi e performance
ragionevoli. Altri criteri da considerare includono l’impegno del
venditore del tool nel sostenere il loro prodotto e gli sviluppi che lo
stesso avrà nelle future release. Per garantire l’impegno degli utenti
nell’utilizzo del datawarehouse, il team di sviluppo coinvolge gli
utenti nel processo della selezione del tool. In questo caso
dovrebbe essere effettuata una valutazione pratica dell’utente.
Per migliorare il valore del datawarehouse il team di sviluppo può
fornire anche un accesso web ai loro datawarehouse. Un
datawarehouse web-enabled permette agli utenti di accedere ai dati
mai nā wahi mamao a i ʻole e hele ana. Hiki ke ʻike hou aku
essere fornite a costi più bassi mediante una diminuzione dei costi
o ke aʻo ʻana.
2.4.3 Hale kūʻai ʻikepili Hana Hana
Questa fase consiste di tre attività: definizione di strategie di data
refresh, controllo delle attività del datawarehouse e gestione della
sicurezza del datawarehouse.
Wehewehe ʻana o nā hoʻolālā hōʻano hou ʻikepili
Ma hope o ka hoʻouka mua ʻana, i dati nel hōkeoʻikepili del datawarehouse
devono essere refreshati periodicamente per riprodurre i
cambiamenti effettuati sui dati originali. Bisogna quindi decidere
quando fare il refresh, ogni quanto tempo deve essere schedulato il
refresh e come eseguire il refresh dei dati. Viene suggerito di fare il
refresh dei dati quando il sistema può essere messo off- line. La
frequenza del refresh è determinata dal team di sviluppo basandosi
sui requisiti degli utenti. Ci sono due approcci per fare il refresh del
datawarehouse: il refresh completo e il caricamento continuo dei
nā hoʻololi.
Il primo approccio, il refresh completo, richiede il ricaricamento di
pau ka dati mai ka wā kahiko. ʻO kēia keʻano o nā mea a pau dati richiesti devono
essere estratti, puliti, trasformati ed integrati in ogni refresh. Questo
approccio dovrebbe essere, per quanto possibile, evitato perché
richiede molto tempo e risorse.
Un approccio alternativo è quello di caricare continuamente i
cambiamenti. Questo aggiunge i dati che sono stati cambiati
dall’ultimo ciclo di refresh del datawarehouse. L’identificazione di
records nuovi o modificati riduce significativamente la quantità di
dati che devono essere propagati al datawarehouse in ogni
aggiornamento poiché solo questi dati e hoʻohui ʻia i hōkeoʻikepili
o ka hale waihona ikepili.
Ci sono almeno 5 approcci che possono essere usati per prelevare
i dati nuovi o modificati. Per ottenere un’efficiente strategia di
refresh dei dati può essere utile un misto di questi approcci che
preleva tutti i cambiamenti nel sistema.
Il primo approccio, che usa i timestamp, suppone che viene
assegnato a tutti i dati modificati e aggiornati un timestamp in modo
da potere identificare facilmente tutti i dati modificati e nuovi.
Questo approccio, però, non è stato molto usato nella maggior
parte degli odierni sistemi operativi.
Il secondo approccio è quello di usare un delta file generato da
un’applicazione che contiene soltanto i cambiamenti fatti ai dati.
ʻO ka hoʻohana ʻana i kēia faila e hoʻonui i ka pōʻaiapili hou.
Tuttavia, anche questo metodo, non è stato usato in molte
applicazioni.
Il terzo approccio è quello di fare uno scan su un file di log, che
fondamentalmente contiene informazioni simili al delta file. L’unica
differenza è che un log file è creato per il processo di recovery e
può essere difficile da capire.
Il quarto approccio è quello di modificare il codice dell’applicazione.
Tuttavia la maggior parte del codice delle applicazioni è vecchio e
fragile; perciò questa tecnica dovrebbe essere evitata.
ʻO ke ala hope e hoʻohālikelike i ka dati sorgenti con il file
principale dei dati.
Ka hoomalu ana i na hana hale waihona ikepili
Una volta che il datawarehouse è stato rilasciato agli utenti, è
necessario monitorarlo nel tempo. In questo caso, l’amministratore
del datawarehouse può impiegare uno o più tool di gestione e
controllo per monitorare l’uso del datawarehouse. In particolare
possono essere raccolte informazioni sulle persone e sul tempo in
cui accedono al datawarehouse. Dai dati raccolti può essere creato
un profilo del lavoro effettuato che può essere usato come input
nell’implementazione del chargeback dell’utente. Il Chargeback
permette agli utenti di essere informati sul costo di elaborazione del
datawarehouse.
Inoltre, il controllo del datawarehouse può anche essere usato per
identificare i tipi di query, la loro grandezza, il numero di query al
giorno, i tempi di reazione alla query, i settori raggiunti e la quantità
di dati processati. Un altro scopo di fare il controllo del
datawarehouse è identificare i dati i hoohana ole ia. ʻO kēia mau mea dati
hiki ke hoʻoneʻe ʻia mai ka waihona ʻikepili e hoʻomaikaʻi i ka manawa
o ka pane hoʻokō nīnau a nānā i ka ulu ʻana o
dati e noho ana iloko o ka waihona ʻikepili o ka hale waihona ikepili.
Hoʻomalu palekana hale waihonaʻikepili
Aia i loko o kahi waihona ʻikepili dati integrati, critici, sensibili che
possono essere raggiunti facilmente. Per questo motivo dovrebbe
essere protetto dagli utenti non autorizzati. Un modo per
implementare la sicurezza è quello di usare la funzione del DBMS
per assegnare i diversi privilegi ai diversi tipi di utenti. In questo
modo, deve essere mantenuto per ogni tipo di utenti un profilo di
accesso. Un altro modo per assicurare il datawarehouse è cifrarlo
come è scritto nella waihona ʻikepili o ka hale waihona ikepili. Komo i
dati a me nā mea hana kiʻi e hoʻokaʻawale i ka dati prima di presentare i
risultati agli utenti.
2.4.4 Hale kūʻai ʻikepili Māhele Hoʻolaha
È l’ultima fase nel ciclo di implementazione del datawarehouse. Le
attività da effettuare in questa fase includono l’addestramento degli
utenti per utilizzare il datawarehouse e la realizzazione di reviews
o ka hale waihona ikepili.
Hoʻomaʻamaʻa mea hoʻohana
L’addestramento degli utenti dovrebbe essere fatto prima
dell’accesso ai dati del datawarehouse e dell’uso dei tool di
retrieval. Generalmente, le sessioni dovrebbero iniziare con
l’introduzione al concetto dell’immagazzinamento di datii ka
contenuto del datawarehouse, ai meta dati ed alle features di base
dei tool. Poi, gli utenti più avanzati potrebbero inoltre studiare le
tabelle fisiche e le features degli utenti dei data access e dei tool di
retrieval.
Ci sono molti approcci per fare l’addestramento degli utenti. Uno di
questi prevede una selezione di molti utenti o analisti scelti da un
insieme di utenti, basandosi sulla loro leadership e abilità di
comunicazione. Questi vengono addestrati a titolo personale su
tutto quello che devono sapere per prendere confidenza con il
sistema. Finito l’addestramento, questi ritornano al loro lavoro e
iniziano a insegnare agli altri utenti come utilizzare il sistema. Sulla
base di quanto hanno imparato, gli altri utenti possono iniziare ad
esplorare il datawarehouse.
Un altro approccio è quello di addestrare molti utenti nello stesso
tempo, come se si stesse facendo un corso in aula. Questo metodo
è adatto quando ci sono molti utenti che devono essere addestrati
allo stesso tempo. Un altro metodo ancora è quello di addestrare
individualmente ogni utente, ad uno ad uno. Questo metodo è
adatto quando ci sono pochi utenti.
Lo scopo dell’addestramento degli utenti è quello di familiarizzare
con l’accesso ai dati e i tool di retrieval così come i contenuti del
datawarehouse. Tuttavia, alcuni utenti possono essere sopraffatti
dalla quantità di informazioni fornita durante la sessione di
addestramento. Quindi devono essere fatte un certo numero di
sessioni di aggiornamento l’assistenza continua e per rispondere
alle domande specifiche. In alcuni casi viene formato un gruppo di
utenti per fornire questo tipo di supporto.
Ka hōʻiliʻili manaʻo
Una volta che il datawarehouse è stato rolled out, gli utenti possono
usare i dati che risiedono nel datawarehouse per vari scopi.
Principalmente, gli analisti o gli utenti utilizzano i dati nel
datawarehouse per:
1 Identificare le tendenze dell’azienda
2 Analizzare i profili d’acquisto dei nā mea kūʻai mai
3 Suddividere i nā mea kūʻai mai a o ka
4 Fornire i servizi migliori ai nā mea kūʻai mai - hana i nā lawelawe
5 Formulare strategie di ke kūʻai akuʻana
6 Effettuare preventivi competitivi per cost analyses e help
hooponopono
7 Supportare decision-making strategiche
8 Identificare occasioni per emergere
9 Migliorare la qualità degli attuali business process
10 Controllare il profitto
Seguendo la direzione di sviluppo del datawarehouse, si potrebbero
condurre una serie di revisioni al sistema per ottenere dei feddback
sia da parte del team di sviluppo che da parte della comunità degli
utenti finali.
I risultati ottenuti possono essere presi in considerazione per il
prossimo ciclo di sviluppo.
Dal momento che il datawarehouse ha un approccio incrementale,
è fondamentale imparare dai successi e dagli errori dei precedenti
sviluppi.
2.5 Hōʻuluʻulu manaʻo
In questo capitolo sono stati discussi gli approcci presenti in
letteratura. Nella sezione 1 è stato discusso il concetto di
datawarehouse e il suo ruolo nella scienza delle decisioni. Nella
sezione 2 sono state descritte le principali differenze tra
datawarehouse e sistemi OLTP. Nella sezione 3 si è discusso il
modello di datawarehouse secondo Monash che è stato utilizzato
nella sezione 4 per descrivere le attività coinvolte nel processo di
sviluppo di un datawarehouse, queste tesi non sono state basate su
una ricerca rigorosa. Quello che succede nella realtà può essere
molto diverso da quello che riporta la letteratura, tuttavia questi
risultati possono essere utilizzati per creare un bagaglio di base che
sottolinei il concetto di datawarehouse per questa ricerca.
Mokuna 3
Nāʻano noiʻi a me ka hoʻolālā
Questo capitolo si occupa dei metodi di ricerca e progettazione per
questo studio. La prima parte mostra una vista generica dei metodi
di ricerca disponibili per il reperimento dell’informazione, inoltre
vengono discussi i criteri per selezionare il miglior metodo per uno
studio particolare. Nella sezione 2 vengono poi discussi due metodi
selezionati con i criteri appena esposti; di questi ne verrà scelto ed
adottato uno con le motivazioni esposte nella sezione 3 dove sono
anche esposte le motivazioni per l’esclusione dell’altro criterio. La
sezione 4 presenta il progetto della ricerca e la sezione 5 le
conclusioni.
3.1 E noiʻi i nā ʻōnaehana ʻike
La ricerca nei sistemi informativi non si limita semplicemente
all’ambito tecnologico ma deve essere anche estesa per includere
fini riguardanti il comportamento e l’organizzazione.
Questo lo dobbiamo alle tesi di varie discipline che vanno dalle
scienze sociali a quelle naturali; questo porta alla necessità di un
certo spettro di metodi di ricerca che coinvolgono metodi quantitativi
e qualitativi da utilizzare per i sistemi informativi.
Tutti i metodi di ricerca disponibili sono importanti, infatti svariati
ricercatori come Jenkins (1985), Nunamaker et al. (1991), e Galliers
(1992) sostengono che non esista un metodo specifico universale
per condurre ricerche nei vari campi dei sistemi informativi; infatti
un metodo può essere adatto per una particolare ricerca ma non
per altre. Questo ci porta la necessità di selezionare un metodo che
sia adatto alla nostro particolare progetto di ricerca: per questa
scelta Benbasat et al. (1987) affermano che si debbano considerare
la natura e il fine della ricerca.
3.1.1 Ke ʻano o ka noiʻi
I vari metodi basati sulla natura della ricerca possono essere
classificati in tre tradizioni ampiamente conosciuti nella scienza
dell’informazione: positivista, interpretativa e ricerca critica.
3.1.1.1 Ka noiʻi positivist
La ricerca positivista è anche conosciuta come studio scientifico o
empirico. Essa cerca di: “spiegare e prevedere cosa succederà nel
mondo sociale guardando alle regolarità e alle relazioni causaeffetto
tra gli elementi che lo costituiscono” (Shanks et al 1993).
La ricerca positivista è inoltre caratterizzata da ripetibilità ,
semplificazioni e confutazioni. Inoltre la ricerca positivista ammette
l’esistenza di relazioni a priori tra i fenomeni studiati.
Secondo Galliers(1992) la tassonomia è un metodo di ricerca
incluso nel paradigma positivista, che però non è limitato a questa,
infatti sussistono esperimenti di laboratorio, esperimenti sul campo,
casi di studio, dimostrazioni di teoremi, previsioni e simulazioni.
Utilizzando questi metodi i ricercatori ammettono che i fenomeni
studiati possano essere osservati oggettivamente e rigorosamente.
3.1.1.2 Ka noiʻi wehewehe
La ricerca interpretativa, che è spesso chiamata fenomenologia o
anti-positivismo viene descritta da Neuman (1994) come “l’analisi
sistematica del significato sociale dell’azione attraverso la diretta e
dettagliata osservazione delle persone in situazioni naturali, al fine
di arrivare alla comprensione e all’interpretazione di come le
persone creano e mantengono il loro mondo sociale”. Gli studi
interpretative rifiutano l’assunzione che i fenomeni osservati
possano essere osservati oggettivamente. Infatti essi sono basati
su interpretazioni soggettive. Inoltre i ricercatori interpretativi non
impongono significati a priori ai fenomeni che studiano.
Questo metodo comprende studi soggettivo/argomentativi, azioni di
ricerca, studi descrittivo/interpretativi, ricerche future e giochi di
ruolo. In aggiunta a questi indagini e casi di studio possono essere
inclusi in questo approccio in quanto essi concernono gli studi degli
individui o delle organizzazioni all’interno di complesse situazioni
o ka honua maoli.
3.1.1.3 Ka noiʻi koʻikoʻi
La ricerca critica è l’approccio meno conosciuto nelle scienze
sociali ma di recente ha ricevuto l’attenzione dei ricercatori
nell’ambito dei sistemi informativi. L’assunzione filosofica che la
realtà sociale è storicamente prodotta e riprodotta dalle persone,
così come i sistemi sociali con le loro azioni ed interazioni. La loro
abilità, comunque, è mediata da un certo numero di considerazione
sociali, culturali e politiche.
Cosi come la ricerca interpretativa, quella critica sostiene che la
ricerca positivista non c’entra con il contesto sociale ed ignora la
sua influenza sulle azioni umane.
La ricerca critica, d’altra parte, critica la ricerca interpretativa per
essere troppo soggettiva e perché non si propone di aiutare le
persone a migliorare le proprie vite. La più grossa differenza tra la
ricerca critica e gli altri due approcci è la sua dimensione valutativa.
Mentre l’oggettività delle tradizioni positivista ed interpretativa, è per
predire o spiegare lo status quo o la realtà sociale, la ricerca critica
punta a valutare criticamente e trasformare la realtà sociale sotto
kula.
I ricercatori critici solitamente si oppongono allo status quo al fine di
rimuovere le differenze sociali e migliorare le condizioni sociali. La
ricerca critica ha un impegno ad una vista processuale dei
fenomeni di interesse e, pertanto, è normalmente longitudinale.
Esempi di metodi di ricerca sono gli studi storici a lungo termine e
gli studi etnografici. La ricerca critica, tuttavia, non è stata
ampiamente usata nella ricerca dei sistemi d’informazione
3.1.2 Ke kumu o ka noiʻi
Assieme alla natura della ricerca, il suo scopo può essere utilizzato
per guidare il ricercatore nella selezione di un particolare metodo di
ricerca. Lo scopo di un progetto di ricerca è strettamente correlato
alla posizione della ricerca rispetto al ciclo di ricerca che consiste di
tre fasi: costruzione della teoria, test della teoria e affinamento della
teoria. Così, basandosi sul momento rispetto al ciclo di ricerca, un
progetto di ricerca può avere un fine di spiegazione, descrittivo, di
esplorazione oppure predittivo.
3.1.2.1 Ka noiʻi ʻimi
La ricerca esplorativa è finalizzata nell’investigare un argomento
totalmente nuovo e formulare domande e ipotesi per la ricerca
futura. Questo tipo di ricerca è utilizzato nella costruzione della
teoria per ottenere dei riferimenti iniziali in una nuova area.
Normalmente si utilizzano metodi di ricerca qualitativa, come i casi
di studio o gli studi fenomenonologici.
Tuttavia è anche possibile impiegare tecniche quantitative come
indagini esplorative od esperimenti.
3.1.3.3 Ka noiʻi wehewehe
La ricerca descrittiva è finalizzata ad analizzare e descrivere in gran
dettaglio una particolare situazione o pratica organizzativa. Questa
è appropriata per costruire teorie e può essere anche usata per
confermare o contestare ipotesi. La ricerca descrittiva solitamente
comprende l’uso di misure e campioni. I metodi di ricerca più adatti
comprendono indagini e analisi di antecedenti.
3.1.2.3 Ka noiʻi wehewehe
La ricerca esplicativa cerca di spiegare perché succedono le cose.
Essa è costruita su fatti che sono già stati studiati e cerca di trovare
i perché di tali fatti.
Quindi la ricerca esplicativa è normalmente costruita sulla ricerca
esplorativa o descrittiva ed è accessoria al fine di testare ed affinare
le teorie. La ricerca esplicativa normalmente impiega casi di studio
o metodi di ricerca basati sulle indagini.
3.1.2.4 Ka noiʻi pale
La ricerca preventiva punta a predire gli eventi e i comportamenti
sotto osservazione che si stanno studiando (Marshall and Rossman
1995). La previsione è il test scientifico standard della verità.
Questo tipo di ricerca generalmente impiega indagini o analisi dei
dati poe kakau moolelo. (Yin 1989)
La suddetta discussione dimostra che c’è un certo numero di
possibili metodi di ricerca che possono essere usati in uno studio
particolare. Tuttavia, ci deve essere un metodo specifico più adatto
degli altri per un tipo particolare di progetto di ricerca. (Galliers
1987, Yin 1989, De Vaus 1991). Ogni ricercatore, quindi, ha
bisogno di valutare con attenzione i punti di forza e le debolezze di
vari metodi, per arrivare ad adottare il metodo di ricerca più adatto e
compatibile col progetto di ricerca. (Jenkins 1985, Pervan e Klass
1992, Bonomia 1985, Yin 1989, Himilton and Ives 1992).
3.2. Nā ʻano noiʻi hiki
L’obiettivo di questo progetto era studiare l’esperienza nelle
organizzazioni australiane con i dati immagazzinati con uno
hoʻomohala o hale kūʻaiʻikepili. che, attualmente, c’è una
mancanza di ricerca nell’area di data warehousing in Australia,
questo progetto di ricerca è ancora nella fase teorica del ciclo di
ricerca ed ha uno scopo esplorativo. Esplorando l’esperienza nelle
organizzazioni australiane che adottano il data warehousing
richiede l’interpretazione della società reale. Di conseguenza, il
l’assunzione filosofica alla base del progetto di ricerca segue
l’interpretazione tradizionale.
Dopo un rigoroso esame dei metodi disponibili, sono stati identificati
due possibili metodi di ricerca: indagini (surveys) e casi di studio
(case studies), che possono essere usati per una ricerca
esplorativa (Shanks et al. 1993). Galliers (1992) sostiene che
l’idoneità di questi due metodi per questo particolare studio nella
sua tassonomia rivisitata dicendo che sono adatti per la costruzione
teorica. Le seguenti due sottosezioni discutono ogni metodo in
dettaglio.
3.2.1 Hana noiʻi noiʻi
Il metodo di ricerca d’indagine proviene dall’antico metodo del
censimento. Un censimento consta nel collezionare informazioni da
un’intera popolazione. Questo metodo è costoso e poco pratico, in
particolare se la popolazione è elevata. Quindi, rispetto al
censimento, una indagine normalmente è concentrata sul
collezionare informazioni per un piccolo numero, o campione, dei
rappresentanti della popolazione (Fowler 1988, Neuman 1994). Un
campione riflette la popolazione da cui è disegnato, con differenti
livelli di accuratezza, secondo la struttura del campione, la
dimensione e il metodo di selezione utilizzato (Fowler 1988, Babbie
1982, Neuman 1994).
Il metodo d’indagine è definito come “snapshots of practices,
situations or views at a particular point in time, undertaken using
questionnaires or interviews, from which inferences may be
made” (Galliers 1992:153) [fotografia istentanea delle pratiche,
situazioni o viste in particolare punto temporale, intrapreso usando
questionari o interviste, da cui possono essere fatte inferenze]. Le
indagini si occupano della raccolta di informazioni su alcuni aspetti
dello studio, da un certo numero di partecipanti, facendo delle
domande (Fowler 1988). Anche questi questionari e interviste, che
includono le interviste faccia a faccia al telefono e quelle strutturate,
sono le tecniche di collezione di dati più comuni impiegate nelle
indagini (Blalock 1970, Nachmias and Nachmias 1976, Fowler
1988), possono essere utilizzate osservazioni ed analisi (Gable
1994). Di tutti questi metodi di collezione dei dati, l’uso del
questionario è la tecnica più popolare, poiché assicura che i dati
collezionati siano strutturati e formattati, e quindi facilita la
classificazione delle informazioni (Hwang 1987, de Vaus 1991).
I ka nānā 'ana i dati, una strategia d’indagine impiega spesso le
tecniche quantitative, come l’analisi statistica, ma possono essere
impiegate anche tecniche qualitative (Galliers 1992, Pervan
a me Klass 1992, Gable 1994). ʻO ka mea maʻamau, i dati raccolti sono
usati per analizzare le distribuzioni e i modelli delle associazioni
(Fowler 1988).
Anche se le indagini sono generalmente appropriate per ricerche
che si occupano della domanda ‘che cosa?’ (what) o da essa
derivanti, quali ‘quanto’(how much) e ‘quant’è’ (how many), esse
possono essere poste tramite la domanda ‘perché’ (Sonquist and
Dunkelberg 1977, Yin 1989). Secondo Sonquist e Dunkelberg
(1977), l’indagine di ricerca punta ad ipotesi difficili, programme di
valutazione, descrivendo la popolazione e sviluppando modelli del
comportamento umano. Inoltre, le indagini possono essere usate
per studiare un’opinione certa della popolazione, condizioni,
opinioni, caratteristiche, aspettative e anche comportamenti passati
o presenti(Neuman 1994).
Le indagini permettono al ricercatore di scoprire i rapporti tra la
popolazione ed i risultato sono normalmente più generici rispetto ad
altri metodi (Sonquist and Dunkelberg 1977, Gable 1994). Le
indagini permettono ai ricercatori di riguardare una zona geografica
più larga e di raggiungere tantissimi dichiaranti (Blalock 1970,
Sonquist and Dunkelberg 1977, Hwang and Lin 1987, Gable 1994,
Neuman 1994). Infine, le indagini possono fornire le informazioni
che non sono disponibili altrove o nella forma richiesta per le analisi
(Fowler 1988).
Ci sono, tuttavia, alcune limitazioni nell’eseguire un’indagine. Uno
svantaggio è che il ricercatore non può ottenere molte informazioni
a riguardo dell’oggetto studiato. Questo è dovuto al fatto che le
indagini sono eseguite soltanto in un momento particolare e, quindi,
c’è un numero limitato di variabili e di persone che il ricercatore può
studiare (Yin 1989, de Vaus 1991, Gable 1994, Denscombe 1998).
Un altro svantaggio è quello che esegue un’indagine può essere
molto costoso in termini di tempo e risorse, particolarmente se
coinvolge le interviste faccia a faccia (Fowler 1988).
3.2.2. Nīnau Noiʻi
Il metodo di ricerca di inchiesta coinvolge lo studio approfondito su
una particolare situazione all’interno del relativo contesto reale in un
periodo di tempo definito, senza alcun intervento da parte del
ricercatore (Shanks & C. 1993, Eisenhardt 1989, Jenkins 1985).
Principalmente questo metodo è usato per descrivere i rapporti fra
le variabili che si stanno studiando in una situazione particolare
(Galliers 1992). Le inchieste possono coinvolgere singoli casi o
multipli, a seconda del fenomeno analizzato (Franz e Robey 1987,
Eisenhardt 1989, Yin 1989).
Il metodo di ricerca di inchiesta è definito come “un’inchiesta
empirica che studia un fenomeno contemporaneo all’interno del
relativo contesto reale, usando le fonti multiple raccolte da una o
più entità quali la gente, i gruppi, o le organizzazioni” (Yin 1989).
Non c’è netta separazione fra il fenomeno ed il relativo contesto e
non c’è controllo o manipolazione sperimentale delle variabili (Yin
1989, Benbasat ed altri 1987).
Aia nā ʻano hana like ʻole no ka ʻohi ʻana i ka dati hiki iā lākou
essere impiegate nel metodo di inchiesta, che includono le
osservazioni dirette, revisioni di record di archivi, questionari,
revisione della documentazione ed interviste strutturate. Avendo
una gamma varia di tecniche della raccolta di dati, le inchieste
permettono ai ricercatori di occuparsi sia dei dati qualitativi che
quantitativi allo stesso tempo (Bonoma 1985, Eisenhardt 1989, Yin
1989, Gable 1994). Com’è il caso con il metodo di indagine, un
ricercatore di inchiesta funge da osservatore o ricercatore e non
come partecipante attivo all’organizzazione allo studio.
Benbasat ed altri (1987) asseriscono che il metodo di inchiesta è
particolarmente adatto per la costruzione della teoria di ricerca, che
comincia con una domanda di ricerca e continua con la formazione
o ka manaʻo i ka wā o ka ʻohi ʻana dati. Ke noho nei
adatto anche per la fase
della costruzione di teoria, Franz e Robey (1987) suggeriscono che
il metodo di inchiesta può anche essere utilizzato per la complessa
fase di teoria. In questo caso, basandosi sulle prove raccolte, una
data teoria o ipotesi viene verificata o confutata. In più, l’inchiesta è
anche adatta per ricerca che si occupa delle domande ‘come’ o
‘perché’ (Yin 1989).
Rispetto ad altri metodi, le inchieste permettono al ricercatore di
catturare le informazioni essenziali più nel particolare (Galliers
1992, Shanks ed altri 1993). Inoltre, le inchieste permettono al
ricercatore di capire la natura e la complessità dei processi studiati
(Benbasat ed altri 1987).
Ci sono quattro svantaggi principali connessi con il metodo di
inchiesta. Il primo è la mancanza di deduzioni controllate. La
soggettività del ricercatore può alterare i risultati e le conclusioni
dello studio (Yin 1989). Il secondo svantaggio è la mancanza di
osservazione controllata. A differenza dei metodi sperimentali, il
ricercatore di inchiesta non può controllare i fenomeni studiati
poiché sono esaminati nel loro contesto naturale (Gable 1994). Il
terzo svantaggio è la mancanza di replicabilità. Ciò è dovuto al fatto
che il ricercatore ha poca probabilità di osservare gli stessi eventi, e
non può verificare i risultati di un particolare studio (Lee 1989).
Infine, come conseguenza della non replicabilità, è difficile
generalizzare i risultati ottenuti da una o più inchieste (Galliers
1992, Shanks ed altri 1993). Tutti questi problemi, tuttavia, non
sono insormontabili e possono, infatti, essere minimizzati dal
ricercatore applicando azioni appropriate (Lee 1989).
3.3. E hōʻoia i ke ʻano noiʻi
hapaiia
Dai due metodi di ricerca possibili per questo studio, il metodo di
indagine è considerato come il più adatto. Quello di inchiesta è
stato scartato in seguito ad un attenta considerazione dei relativi
meriti e debolezze. La convenienza o l’inappropriatezza di ogni
metodo per questo studio è discussa in seguito.
3.3.1. Ke kūpono ʻole o ke ʻano noiʻi
o ka hookolokolo ana
Il metodo di inchiesta richiede lo studio approfondito circa una
situazione particolare all’interno di una o più organizzazioni per un
periodo di tempo (Eisenhardt 1989). In questo caso, il periodo può
eccedere la struttura di tempo data per questo studio. Un altro
motivo per non adottare il metodo di inchiesta è che i risultati
possono soffrire da mancanza di rigore (Yin 1989). La soggettività
del ricercatore può influenzare i risultati e le conclusioni. Un altro
motivo è che questo metodo è più adatto a ricerche su domande
del tipo ‘come’ o ‘perché’ (Yin 1989), mentre la domanda di ricerca
per questo studio è del tipo ‘che cosa’. Infine, ma non meno
importante, è difficile generalizzare i risultati da appena una o
poche inchieste (Galliers 1992, Shanks ed altri 1993). Sulla base di
questa spiegazione razionale, il metodo di ricerca di inchiesta non è
stato scelto poiché inadatto per questo studio.
3.3.2. ʻO ka maʻalahi o ke ʻano ʻimi o
hoʻokolokolo
Quando questa ricerca è stata condotta, la pratica di datawarehousing
non era stata ampiamente adottata dalle
organizzazioni australiane. Quindi, non c’erano molte informazioni
per quanto riguarda la loro implementazione all’interno delle
organizzazioni australiane. Le informazioni disponibili provenivano
dalle organizzazioni che avevano implementato o utilizzato un data
warehouse. In questo caso, il metodo di ricerca di indagine è il più
adatto poiché permette di ottenere le informazioni che non sono
disponibili altrove o nella forma richiesta per analisi (Fowler 1988).
In più, il metodo di ricerca di indagine permette al ricercatore di
ottenere una buona visione delle pratiche, delle situazioni, o delle
viste in un determinato momento (Galliers 1992, Denscombe 1998).
Una veduta d’insieme era stata richiesta per aumentare la
conoscenza circa l’esperienza australiana di data warehousing.
Ancora, Sonquist e Dunkelberg (1977) dichiarano che i risultati di
ricerca di indagine sono più generali di altri metodi.
3.4. Hoʻolālā Noiʻi Nānā
L’indagine circa la pratica di data warehousing è stata eseguita nel 1999.

La popolazione obiettivo era formata da organizzazioni
australiane interessate agli studi di data warehousing, poiché erano
probabilmente già informati circa i dati che immagazzinano e,
pertanto, potrebbe fornire le informazioni utili per questo studio. La
popolazione obiettivo è stata identificata con un’indagine iniziale di
tutti i membri australiani del ‘The Data Warehousing Institute’ (Tdwiaap).
Questa sezione discute il disegno della fase di ricerca
empirica di questo studio.
3.4.1. ʻAno ʻohi dati
Dalle tre tecniche usate comunemente nella ricerca di indagine
(cioè questionario via posta, intervista del telefono ed intervista
personale) (Nachmias 1976, Fowler 1988, de Vaus 1991), per
questo studio è stato adottato il questionario via posta. Il primo
motivo per l’adozione di quest’ultimo è che può raggiungere una
popolazione sparsa geograficamente (Blalock 1970, Nachmias e
Nachmias 1976, Hwang e Lin 1987, de Vaus 1991, Gable 1994).
Secondariamente, il questionario via posta è adatto a partecipanti
altamente istruiti (Fowler 1988). Il questionario via posta per questo
studio è stato indirizzato ai project sponsors del data warehousing,
direttori e/o responsabili di progetto. In terzo luogo, i questionari via
posta sono adatti quando si ha a disposizione una lista sicura di
indirizzi (Salant e Dilman 1994). TDWI, in questo caso, una
associazione fidata di data warehousing ha fornito la lista di indirizzi
dei relativi membri australiani. Un altro vantaggio del questionario
via posta rispetto al questionario via telefono o alle interviste
personali è che permette ai dichiaranti di rispondere con maggior
esattezza, particolarmente quando i dichiaranti devono consultare
le annotazioni o discutere le domande con altra gente (Fowler
1988).
Uno svantaggio potenziale può essere il tempo richiesto per
condurre i questionari via posta. Normalmente, un questionario via
posta è condotto in questa sequenza: spedire le lettere, aspettare le
risposte e mandare la conferma(Fowler 1988, Bainbridge 1989).
Quindi, il tempo totale può essere più lungo del tempo richiesto per
le interviste personali o per le interviste al telefono. Tuttavia, il
tempo totale può essere conosciuto in anticipo (Fowler 1988,
Denscombe 1998). Il tempo speso per condurre le interviste
personali non può essere conosciuto in anticipo poiché varia da
un’intervista all’altra (Fowler 1988). Le interviste telefoniche
possono essere più rapide dei questionari via posta e delle
interviste personali ma possono avere un alto tasso di mancanza di
risposta dovuto all’indisponibilità di alcune persone (Fowler 1988).
In più, le interviste telefoniche sono limitate generalmente a liste di
domande relativamente corte (Bainbridge 1989).
Un’altra debolezza di un questionario via posta è l’alto tasso di
mancanza di risposta (Fowler 1988, Bainbridge 1989, Neuman
1994). Tuttavia, sono state prese delle contromisure, associando
questo studio con un’istituzione fidata nel campo del data
warehousing (cioè TDWI) (Bainbridge 1989, Neuman 1994), la
quale trasmette due lettere di sollecito ai chi non ha risposto
(Fowler 1988, Neuman 1994) ed include inoltre una lettera
aggiuntiva che spiega lo scopo dello studio (Neuman 1994).
3.4.2. ʻĀpana hoʻokalakala
Lo scopo di questo studio è ottenere le informazioni circa
l’implementazione del data warehousing e l’utilizzo dello stesso
all’interno delle organizzazioni australiane. La popolazione obiettivo
è costituita da tutte le organizzazioni australiane che hanno
implementato, o stanno implementando, i hale kūʻaiʻikepili. i
seguito vengono intestate le singole organizzazioni. Il questionario
via posta è stato spedito alle organizzazioni interessate all’adozione
di hale kūʻaiʻikepili. Questo metodo garantisce che le informazioni
raccolte provengano dalle risorse più adatte di ogni organizzazione
partecipante.
3.4.3. Laʻana noiʻi
La “mailing list” dei partecipanti all’indagine è stata ottenuta da
TDWI. A partire da questa lista, 3000 organizzazioni australiane
sono state selezionate come base per il campionamento. Una
lettera di aggiuntiva spiegava il progetto e lo scopo dell’indagine,
insieme ad una scheda per le risposte e una busta prepagata per
rinviare il questionario compilato sono state inviate al campione.
Delle 3000 organizzazioni, 198 hanno accettato di partecipare allo
studio. Era previsto un così piccolo numero di risposte ua haawiia il
grande numero di organizzazioni australiane che allora avevano
abbracciato o stavano abbracciando la strategia di data
warehousing all’interno delle loro organizzazioni. Quindi, la
popolazione obiettivo per questo studio consiste di sole 198
organizzazioni.
3.4.4. Nā mea i loko o ka nīnau nīnau
La struttura del questionario è stata basata sul modello di data
warehousing Monash (discusso precedentemente nella parte 2.3). Il
contenuto del questionario è stato basato sull’analisi della
letteratura presentata nel capitolo 2. Una copia del questionario
spedito ai partecipanti all’indagine può essere trovata
nell’appendice B. Il questionario è composto da sei sezioni, che
seguono le fasi del modello trattato. I seguenti sei paragrafi
brevemente ricapitolano il contenuto di ogni sezione.
Mahele A: ʻIke kumu e pili ana i ka hui
Questa sezione contiene le domande relative al profilo delle
organizzazioni partecipanti. In più, alcune delle domande sono
relative alla condizione del progetto di data warehousing del
partecipante. Le informazioni confidenziali quale il nome
dell’organizzazione non sono state rivelate nell’analisi di indagine.
Mahele B: Hoʻomaka
Le domande in questa sezione sono relative all’attività di inizio di
data warehousing. Le domande sono state fatte per quanto
riguarda gli iniziatori di progetto, garanti, abilità e conoscenza
richieste, gli obiettivi dello sviluppo di data warehousing e le
aspettative degli utilizzatori finali.
Mahele C: Hoʻolālā
Questa sezione contiene le domande relative alle attività di
pianificazione del hale kūʻaiʻikepili. In particolare, le domande sono
state circa la portata di esecuzione, la durata del progetto, il costo
del progetto e l’analisi di costi/benefici.
Mahele D: Hoʻomohala
Nella sezione di sviluppo ci sono le domande relative alle attività di
sviluppo del hale kūʻaiʻikepili: raccolta di requisiti dell’utilizzatore
finale, le fonti di dati, ke kumu hoopololei o dati, prototipi, la
pianificazione di capienza, architetture tecniche e selezione dei
tools di sviluppo del data warehousing.
Mahele E: Hana
Domande di funzionamento relative al funzionamento ed
all’estensibilità del hale kūʻaiʻikepili, come si evolve nella
successiva fase di sviluppo. La ka maikaʻi o ka ʻikepili, le strategie di
refresh dei dati, ka granularity o dati, scalabilità del data
warehouse ed i problemi di sicurezza del hale kūʻaiʻikepili erano fra
le tipologie di domande fatte.
Mahele F: Hoʻomohala
Questa sezione contiene le domande relative all’utilizzo del data
warehouse da parte degli utenti finali. Il ricercatore era interessato
allo scopo e all’utilità del hale kūʻaiʻikepili, la revisione e le strategie
di addestramento adottati e la strategia di controllo del data
warehouse adottata.
3.4.5. Laki pane
Anche se le indagini via posta sono criticate per avere un tasso di
risposta basso, sono state adottate delle misure per aumentare il
tasso di rendimento (come discusso precedentemente nella parte
3.4.1). Il termine ‘tasso di risposta’ si riferisce alla percentuale di
persone in un campione particolare di indagine che risponde al
questionario (Denscombe 1998). E’ stata utilizzata la seguente
formula per calcolare il tasso di risposta per questo studio:
Ka nui o ka poe i pane mai
Tasso di risposta =
——————————————————————————– X 100
Numero totale di questionari spediti
3.4.6. Hoao Pailaka
Prima che il questionario sia spedito al campione, le domande sono
state esaminate effettuando le prove pilota, come suggerito da Luck
e Rubin (1987), Jackson (1988) e de Vaus (1991). Lo scopo delle
prove pilota è di rivelare tutte le espressioni scomode, ambigue e
domande di difficile interpretazione, per chiarire qualunque
definizioni e termini usati e per identificare il tempo approssimativo
richiesto per compilare il questionario (Warwick e Lininger 1975,
Jackson 1988, Salant e Dilman 1994). Le prove pilota sono state
effettuate selezionando soggetti con caratteristiche simili a quelle
dei soggetti finali, come suggerito Davis e Cosenza (1993). I
questo studio, sei professionisti di data warehousing sono stati
selezionati come i soggetti pilota. Dopo ogni prova pilota, sono
state fatte le correzioni necessarie. Dalle prove pilota effettuate, i
partecipanti hanno contribuito a rimodellare e reimpostar la
versione definitiva del questionario.
3.4.7. Ke Anaina Ana Na Dati
I dati di indagine raccolti dai questionari a domanda chiusa sono
stati analizzati usando un pacchetto di programmi statistico
denominato SPSS. Molte delle risposte sono state analizzate
usando le statistiche descrittive. Un certo numero di questionari
sono ritornati incompleti. Questi sono stati trattati con maggiore
attenzione per accertarsi che i dati mancanti non fossero una
conseguenza degli errori di data entry, ma perché le domande non
erano adatte per il dichiarante, o il dichiarante ha deciso non
rispondere ad una o più domande specifiche. Queste risposte
mancanti sono state ignorate durante l’analisi dei dati e sono state
codificate come ‘- 9’ per accertare la loro esclusione dal processo di
analisi.
Nel preparare il questionario, le domande chiuse sono state
precodificate assegnando un numero ad ogni opzione. Il numero
allora è stato usato per preparare i dati durante l’analisi
(Denscombe 1998, Sapsford e Jupp 1996). Per esempio, c’erano
sei opzioni elencate nella domanda 1 della sezione B: consiglio
d’amministrazione, esecutivo ad alto livello, dipartimento IT , unità
di affari, i consulenti ed altro. Nello schedario di dati di SPSS, è
stata generata una variabile per indicare ‘l’iniziatore di progetto’,
con sei etichette di valore: ‘1’ per il ‘consiglio d’amministrazione’, ‘2’
per ‘l’esecutivo ad alto livello’ e così via. L’uso della scala di Likertin
in alcune delle domande chiuse inoltre ha permesso
un’identificazione che non richiede sforzo visto l’utilizzo dei valori
numerici corrispondenti inseriti in SPSS. Per le domande con le
risposte non esaustive, che non erano reciprocamente esclusive,
ogni opzione è stata trattata come una singola variabile con due
etichette di valore: ‘1 ‘ per ‘segnata’ e ‘2 ‘ per ‘non segnata’.
Le domande aperte sono state trattate diversamente dalle domande
chiuse. Le risposte a queste domande non sono state inserite in
SPSS. Al contrario, sono state analizzate a mano. L’uso di questo
tipo di domande permette di acquisire informazioni circa le idee
liberamente espresse e le esperienze personali nei dichiaranti
(Bainbridge 1989, Denscombe 1998). Dove possibile, è stata fatta
una categorizzazione delle risposte.
No ka noonoo ana o dati, sono usati metodi di semplice analisi statistica,
come la frequenza delle risposte, la media, la scarto quadratico
medio e la mediana (Argyrous 1996, Denscombe 1998).
Il Gamma test era performante per ottenere misure quantitative
delle associazioni tra dati ordinali (Norusis 1983, Argyrous 1996).
Questi test erano appropriati perché le scale ordinali usate non
avevano molte categorie e potevano essere mostrate in una tabella
(Norusis 1983).
3.5 Hōʻuluʻulu manaʻo
In questo capitolo, sono stati discussi la metodologia di ricerca e il
design adottati per questo studio.
La selezione del più appropriato metodo di ricerca per un
particolare studio prende in
considerazione un certo numero di regole, inclusa la natura e il tipo
della ricerca, così come i meriti e le debolezze di ogni possibile
metodo(Jenkins 1985, Benbasat et al. 1097,Galliers e Land 1987,
yin 1989, Hamilton e ives 1992, Galliers 1992, neuman 1994). Vista
la mancanza di conoscenza e teoria esistenti a proposito
dell’adozione di data warehousing in Australia, questo studio di
ricerca richiede un metodo di ricerca interpretativo con una abilità
esplorativa per esplorare le esperienze delle organizzazioni
australiane. Il metodo di ricerca prescelto è stato selezionato per
raccogliere informazioni riguardanti l’adozione del concetto di data
ware-housing da parte delle organizzazioni australiane. Un
questionario postale è stato scelto come tecnica di raccolta dati. ka
giustificazioni per il metodo di ricerca e la tecnica di raccolta dati
selezionati saranno fornite in questo capitolo. Inoltre è stata
presentata una discussione sull’unità di analisi,il campione
utilizzato, le percentuali di risposte, il contenuto del questionario, il
pre test del questionario e il metdo di analisi dei dati.

Ke hoʻonohonoho ʻana i a Hale kūʻai ʻikepili:
Hoʻohui i ka pilina hui a me ke ʻano hoʻohālike
KANAWAI
Mālama i dati è un problema attuale importante per molte
organizzazioni. Un problema chiave nello sviluppo
dell’immagazzinamento dei dati ʻo ia kāna hana.
Il disegno deve sostenere il rilevamento di concetti nel data
warehouse a legacy system e le altre fonti di dati ed anche una
facile comprensione ed efficienza nell’implementazione di data
hale ukana.
Ka nui o ka waihona waihona o dati ua konoia
l’uso di entity relationship modelling or dimensional modelling per
rappresentare il disegno di hale kūʻaiʻikepili.
In questo giornale noi mostriamo come entrambe le
rappresentazioni possono essere combinate in un approccio per il
disegno di hale kūʻaiʻikepili. Systematic ke ala i hoʻohana ʻia
esaminato in un caso di studio ed è identificato in un numero di
importanti implicazioni con professionisti.
PALAPALA IKE
Un hale kūʻaiʻikepili di solito è definito come un “subject-oriented,
integrated, time-variant, and nonvolatile collection of data in support
of management’s decisions” (Inmon and Hackathorn, 1994).
Subject-oriented and integrated indica che il hale kūʻaiʻikepili è
progettato per attraversare i confini funzionali dei legaci system per
offrire una prospettiva integrata dei dati.
Hoʻopili ka ʻokoʻa manawa i ka mōʻaukala a i ʻole ke ʻano pūʻulu manawa o ka dati in
un hale kūʻaiʻikepili, la quale abilita trend per essere analizzati.
Non-volatile indica che il hale kūʻaiʻikepili non è continuamente
aggiornato come un hōkeoʻikepili di OLTP. Piuttosto è aggiornato
periodicamente, con dati mai loko a me waho. ʻO ka
hale kūʻaiʻikepili specificatamente è disegnato per la ricerca
piuttosto che per l’integrità degli aggiornamenti e le prestazioni delle
operazioni.
ʻO ka manaʻo o ka mālama ʻana i dati non è nuova, è stato uno degli scopi
di gestione dei dati mai nā kanaono (The Martin, 1982).
I hale kūʻaiʻikepili hāʻawi lākou i ka ʻoihana dati per management
support systems. Management support systems includono decision
support systems (DSS) and executive information systems (EIS).
Un DSS è un sistema di informazioni computer-based che è
progettato per migliorare il processo e di conseguenza la presa di
decisione umana. Un EIS è tipicamente un sistema di consegna di
dati che abilita dirigenti d’azienda ad accedere facilmente alla vista
dei dati.
ʻO ka hoʻolālā nui o a hale kūʻaiʻikepili hōʻike i ke kuleana o
hale kūʻaiʻikepili nel supporto alla gestione. Oltre ad offrire
l’infrastruttura dati no EIS a me DSS, al hale kūʻaiʻikepili hiki hiki
accedervi direttamente attraverso le query. I dati inclusi in un data
warehouse si basano su un’analisi dei requisiti di informazioni di
gestione e sono ottenuti da tre fonti: internal legacy systems,
special purpose data capture systems and external data sources. I
dati negli internal legacy systems sono frequentemente ridondanti,
inconsistenti, di bassa qualità, e immagazzinati in diversi formati
quindi devono essere riconciliati e puliti prima di poterli caricare nel
hale kūʻaiʻikepili (Inmon, 1992; McFadden, 1996). KA dati provenienti
da sistemi di immagazzinamento dati ad hoc a mai nā kumu dati
hoʻohana pinepine ʻia waho e hoʻonui (hōʻano hou, hoʻololi) i
dati mai nā ʻōnaehana hoʻoilina.
Nui nā kumu koʻikoʻi e hoʻomohala i kahi hale kūʻaiʻikepili,
che includono una migliore presa di decisione attraverso l’uso
effettivo di più informazioni (Ives 1995), il supporto per un focus
sugli affari completi (Graham 1996), e la riduzione in costi di
provvedimento di dati per EIS e DSS (Graham 1996, McFadden
1996).
Un recente studio empirico ha scoperto, in media, un ritorno degli
investimenti per i hale kūʻaiʻikepili del 401% dopo tre anni (Graham,
1996). Comunque, gli altri studi empirici di hale kūʻaiʻikepili i
trovato significanti problemi incluso la difficoltà nel misurare ed
assegnare benefici, mancanza di un scopo chiaro, sottovalutando lo
scopo e la complessità del processo di immagazzinare i dati, ma
particolare quanto riguarda le fonti e la pulizia dei dati.
Mālama i dati può essere considerato come una soluzione
al problema di gestione dei dati fra le organizzazioni. La
manipolazione dei dati come risorsa sociale è rimasto uno dei
problemi chiave nella gestione di sistemi di informazioni in tutto il
mondo per molti anni (Brancheau et al. 1996, Galliers et al. 1994,
Niederman et al. 1990, Pervan 1993).
ʻO kahi ala kaulana i ka hoʻokele dati negli anni ottanta era
lo sviluppo di un modello dati pilikanaka. Hoʻohālike dati sociale fu
pensato per offrire una base stabile per lo sviluppo di nuovi sistemi
applicativi e hōkeoʻikepili e la ricostruzione e l’integrazione di legacy
systems (Brancheau et al.
1989, Goodhue et al. 1988:1992, Kim and Everest 1994).
Comunque, ci sono molti problemi con questo approccio, in
particolare, la complessità e il costo di ogni task, ed il lungo tempo
richiesto per avere risultati tangibili (Beynon-Davies 1994, Earl
1993, Goodhue et al. 1992, Periasamy 1994, Shanks 1997).
Il hale kūʻaiʻikepili è un databse separato che co-esiste coi legacy
databases piuttosto che sostituirli. Esso perciò consente di
indirizzare la gestione dei dati ed evitare la costosa ricostruzione
dei legacy systems.
NA HANA HANA I KA HOIKE IKE
WAEWAE
ʻO ke kaʻina hana o ke kūkulu ʻana a me ka hoʻomaʻemaʻe ʻana a hale kūʻaiʻikepili
va compreso più come un processo evolutivo piuttosto che un
lifecycle di sviluppo di sistemi tradizionali (Makemake, 1995, Shanks,
O’Donnell and Arnott 1997a ). Ci sono molti processi coinvolti in un
progetto di hale kūʻaiʻikepili come inizializzazione, pianificazione;
informazioni acquisite dai requisiti chieste ai dirigenti d’azienda;
fonti, trasformazioni, pulizia dei dati e di sincronizzazione da legacy
systems e le altre fonti di dati; sistemi di consegna in sviluppo;
monitoraggio dei hale kūʻaiʻikepili; e insensatezza del processo
evolutivo e di costruzione di un hale kūʻaiʻikepili (Stinchi, O’Donnell
ed Arnott 1997b). In questo giornale, noi focalizziamo su come
disegnare i dati immagazzinati nel contesto di questi altri processi.
Ci sono un numero di approcci proposti per l’architettura dei data
warehouse nella letteratura (Inmon 1994, Ives 1995, Kimball 1994
McFadden 1996). Ognuna di queste metodologie ha una breve
rassegna con un’analisi dei loro punti di forza e non.
ʻO Inmon's (1994) Approach for Hale kūʻai ʻikepili
Design
Inmon (1994) propose quattro passi iterativi per disegnare un data
warehouse (veda Figura 2). Il primo passo è progettare un modello
dati pilikanaka e hoomaopopo pehea i dati possono essere integrati
attraverso aree funzionali all’interno di un’organizzazione
suddividendo i dati hale kūʻai ma nā wahi. Hoʻohālike dati hana ʻia no
immagazzinare dati pili i ka hoʻoholo ʻana, me dati
nā mea kākau moʻolelo, a ua komo pū dati dedotti ed aggregati. Il secondo passo è
identificare aree soggette per la realizzazione. Questi sono basati
su priorità determinate da una particolare organizzazione. Il terzo
passo comporta il disegno di un hōkeoʻikepili per l’area soggetta, pone
particolare attenzione a includere appropriati livelli di granularità.
Inmon raccomanda di usare il modello entità e relazioni. Il quarto
passo è identificare sistemi di fonti dati richiesti e sviluppare
processi di trasformazione per acquisire, pulire e formattare i dati.
ʻO ka ikaika o ka hoʻokokoke ʻana o Inmon ʻo ia ke kumu hoʻohālike dati pōʻai
offre la base per l’integrazione di dati all’interno dell’organizzazione
e pianificazione di supporti per lo sviluppo iterativo di data
warehouse. Le sue pecche sono la difficoltà e il costo nel disegnare
kumu hoʻohālike dati sociale, la difficoltà nel capire modelli di entità e
relazioni usati in ambo i modelli, quello dati pilikanaka a me kela o dati
mālama ʻia e ke kumuhana, a me ke kūpono o dati del
disegno di hale kūʻaiʻikepili no ka hoomaopopo ana hōkeoʻikepili
pili akā ʻaʻole no hōkeoʻikepili nui-nui.
Ives' (1995) Hoʻokokoke i Hale kūʻai ʻikepili
Design
Ives (1995) propone un approccio di quattro passi per disegnare un
sistema informativo che lui ritiene applicabile al disegno di un data
warehouse (veda Figura 3). L’approccio è molto basato sull’
Information Engineering per lo sviluppo di sistemi di informazioni
(Martin 1990). Il primo passo è determinare gli obiettivi, i fattori
critici e di successo e gli indicatori chiave delle prestazioni. I
processi chiave di business e le informazioni necessarie sono
modellate per condurci ad un modello dati sociale. Il secondo passo
comporta lo sviluppo di un architettura che definisce dati
mālama ʻia e nā wahi, hōkeoʻikepili di hale kūʻaiʻikepili, i componenti
di tecnologia che sono richiesti, l’insieme di supporto organizzativo
richiesto per implementare ed operare con hale kūʻaiʻikepili. Il terzo
passo include la selezione di pacchetti software e attrezzi richiesti.
Il quarto passo è il disegno particolareggiato e la costruzione del
hale kūʻaiʻikepili. Hoʻomaopopo ʻo Ives i kēlā mālama ʻana dati è un vincolato
processo iterativo.
La forza dell’approccio di Ives sono l’uso di specifiche tecniche per
determinare i requisiti d’informazione, l’uso di uno strutturato
processo per sostenere l’integrazione dei hale kūʻaiʻikepili,
l’opportuna selezione hardware e software, e l’uso di molteplici
tecniche di rappresentazione per il hale kūʻaiʻikepili. Le sue pecche
sono inerenti alla complessità. Altre includono la difficoltà nello
sviluppare molti livelli di hōkeoʻikepili allʻinterno del hale kūʻaiʻikepili in
tempi e costi ragionevoli.
Kimball's (1994) Approach to Hale kūʻai ʻikepili
Design
Kimball (1994) propose cinque passi iterativi per disegnare un data
warehouse (vedi Figuri 4). Il suo approccio è particolarmente
dedicato sul disegno di un solo hale kūʻaiʻikepili e sull’uso di modelli
dimensionali in preferenza a modelli di entità e relazioni. Kimball
analizza quei modelli dimensionali perché è più facile capire per i
dirigenti d’azienda gli affari, è più efficiente quando si trattano
consultazioni complesse, e il disegno di hōkeoʻikepili fisico è più
efficiente (Kimball 1994). Kimball riconosce che lo sviluppo di un
hale kūʻaiʻikepili he mea hoʻomau, a ʻo ia hale kūʻaiʻikepili separati possono
essere integrati attraverso la ripartizione in tavole di dimensioni
comuni.
Il primo passo è identificare la particolare area soggetto per essere
perfezionato. Il secondo e terzo passo concernono modellatura
dimensionale. Nel secondo passo le misure identificano cose di
interesse nell’area soggetto e raggruppate in una tabella dei fatti.
Per esempio, in un’area di soggetto di vendite le misure di interesse
potrebbero includere l’ammontare di articoli venduto ed il dollaro
come valuta di vendite. Il terzo passo comporta l’identificazione di
dimensioni che sono i modi nei quali possono essere raggruppati i
fatti. In un’area di soggetto di vendite, dimensioni attinenti
potrebbero includere articolo, ubicazione e tempo periodo. La
tabella dei fatti ha una chiave multi- part per collegarla ad ognuna
delle tabelle di dimensione e tipicamente contiene un numero molto
grande di fatti. In contrasto, tavole di dimensione contengono
descrittive informazioni sulle dimensioni e gli altri attributi che
possono essere usati per raggruppare i fatti. La tabella dei fatti e
dimensioni associata proposta forma quello che è chiamato uno
schema a stella a causa della sua forma. Il quarto passo comporta
la costruzione di un hōkeoʻikepili multidimensionale per perfezionare lo
schema della stella. Il passo finale è identificare sistemi di fonti dati
richiesti e sviluppare processi di trasformazione per acquisire, pulire
e formattare i dati.
Le forze dell’approccio di Kimball includono l’uso di modelli
dimensionali per rappresentare i dati immagazzinati che lo rendono
facile da capire e conduce ad un disegno fisico efficiente. Un
modello dimensionale che usa prontamente anche entrambi i
sistemi di hōkeoʻikepili Hiki ke hoʻokō ʻia ka pilina a i ʻole nā ​​ʻōnaehana
hōkeoʻikepili multidimensionali. Le sue pecche includono la mancanza
di alcune tecniche per facilitare la pianificazione o l’integrazione di
molti schemi della stella all’interno di un hale kūʻaiʻikepili a me ka
difficoltà di progettare dall’estrema struttura denormalizzata in un
modello dimensionale a dati ma ka ʻōnaehana hoʻoilina.
ʻO McFadden's (1996) Approach to Data
Hoʻolālā hale kūʻai
McFadden (1996) propone un approccio di cinque passi per
disegnare un hale kūʻaiʻikepili (e nana i ke Kii 5).
Il suo approccio è basato su una sintesi delle idee dalla letteratura
ed è focalizzato sul disegno di un solo hale kūʻaiʻikepili. Ka mua
passo comporta un’analisi dei requisiti. Anche se le specifiche
tecniche non sono prescritte, le note di McFadden identificano le
entità dati specifiche ed i loro attributi, e si riferisce ai lettori Watson
e Frolick (1993) per l’acquisizione dei requisiti.
Ma ka ʻanuʻu ʻelua, ua hoʻolālā ʻia kahi ʻano hoʻohālike pili
hale kūʻaiʻikepili e poi convalidato dai dirigenti d’azienda. Il terzo
passo comprende la determinazione del mapping da legacy system
e fonti esterne di hale kūʻaiʻikepili. Il quarto passo comporta
processi in sviluppo, la distribuzione e sincronizzazione di dati nel
hale kūʻaiʻikepili. Nel passo finale, la consegna del sistema è
sviluppata con particolare enfasi su un’interfaccia utente.
McFadden fa notare che il processo di disegno è generalmente
iterativo.
Le forze dell’approccio di McFadden puntano sulla partecipazione
da parte dei dirigenti d’azienda nel determinare i requisiti ed anche
l’importanza delle risorse dati, la loro pulizia e raccolta. Le sue
pecche riguardano la mancanza di un processo per suddividere un
grande progetto di hale kūʻaiʻikepili i nā pae hoʻohui he nui, a me ka
paʻakikī i ka hoʻomaopopo ʻana i ka hui a me nā kumu hoʻohālike pili i hoʻohana ʻia i ka hoʻolālā ʻana o
hale kūʻaiʻikepili.

    0/5 (0 Manaʻo)
    0/5 (0 Manaʻo)
    0/5 (0 Manaʻo)

    E ʻike hou aʻe mai ka Pūnaewele Pūnaewele Pūnaewele

    E kau inoa no ka loaʻa ʻana o nā ʻatikala hou loa ma ka leka uila.

    mea kākau avatar
    Keʻena Luna CEO
    👍Keʻena Pūnaewele Pūnaewele | He loea pūnaewele pūnaewele ma Digital Marketing a me SEO. ʻO ka Pūnaewele Pūnaewele he Pūnaewele Pūnaewele. No ka Agenzia Web Online ka holomua ma ka hoʻololi kikohoʻe ma luna o nā kumu o ka Iron SEO version 3. Specialties: System Integration, Enterprise Application Integration, Service Oriented Architecture, Cloud Computing, Data warehouse, business intelligence, Big Data, portals, intranets, Web Application Ka hoʻolālā a me ka hoʻokele ʻana i nā ʻikepili pili a me nā multidimensional Ka hoʻolālā ʻana i nā loulou no ka media kikohoʻe: hoʻohana a me nā Kiʻi. Hāʻawi ka Pūnaewele Pūnaewele Pūnaewele i nā hui i kēia mau lawelawe: -SEO ma Google, Amazon, Bing, Yandex; -Web Analytics: Google Analytics, Google Tag Manager, Yandex Metrica; -Ka hoʻololi ʻana o nā mea hoʻohana: Google Analytics, Microsoft Clarity, Yandex Metrica; -SEM ma Google, Bing, Amazon Ads; - Ke kūʻai aku ʻana i ka Social Media (Facebook, Linkin, Youtube, Instagram).
    ʻO kaʻu pilikino Agile
    Ke hoʻohana nei kēia pūnaewele i nā kuki ʻenehana a me ka hoʻolaha ʻana. Ma ke kaomi ʻana i ka ʻae e ʻae ʻoe i nā kuki profiling āpau. Ma ke kaomi ʻana i ka hōʻole a i ʻole ka X, hōʻole ʻia nā kuki hoʻolaha a pau. Ma ke kaomi ʻana iā customize hiki ke koho i nā kuki profiling e hoʻā.
    Hoʻopili kēia pūnaewele i ka Data Protection Act (LPD), Swiss Federal Law of 25 September 2020, a me ka GDPR, EU Regulation 2016/679, e pili ana i ka pale ʻana i ka ʻikepili pilikino a me ka neʻe manuahi o ia ʻikepili.