fbpx

Data Warehousing an ERP | CENTRAL DATA ARCHIVE: HISTORY AN EVOLUTION

ARCHIV DATA CENTRAL: HISTORY AN EVOLUTION


Déi zwee dominant Themen vun der Firmentechnologie an den 90er sinn
steet i daten Lager an ERP. Fir eng laang Zäit dës zwee mächteg
Stréimunge sinn Deeler vun der Firmen-IT gewiescht ouni jeemools ze hunn
Kräizungen. Et war bal wéi wa se Matière an Anti-Matière wieren. Mee
de Wuesstem vu béide Phänomener huet zwangsleefeg zu engem gefouert
hir Kräizung. Haut sinn d'Betriber mat dem Problem vun
wat mat ERP ze maachen e daten Lager. Dësen Artikel wäert illustréieren
wat sinn d'Problemer a wéi gi se vun de Firmen ugeholl.
UM START…
Am Ufank gouf et de daten Lager. Donnéeën Lager gebuer gouf fir
géint d'Transaktiounsveraarbechtung Applikatioun System.
Am fréien Deeg Erënnerung vun dati et war gemengt
just e Géigewier zu Email Veraarbechtung Uwendungen
Transaktiounen. Awer haut ginn et vill méi raffinéiert Visiounen
vu wat e maache kann daten Lager. An haut d'Welt d'
daten Lager gëtt an enger Struktur agebaut déi ka sinn
genannt Corporate Informatiounen Factory.
DER CORPORATE INFORMATIOUN FABRIEK
(CIF)
D'Corporate Information Factory huet architektonesch Komponenten
Standard: engem Niveau vun Transformatioun an Code Integratioun
déi integréiert i dati während ech dati si plënneren aus der Ëmwelt vun
Applikatioun op d'Ëmwelt daten Lager vun der Firma; a
daten Lager vun der Firma wou de dati
detailléiert an integréiert Historiker. Déi daten Lager vun der Firma déngt als
Fundament op deem all aner Deeler gebaut kënne ginn
vun der Ëmwelt vun daten Lager; en operationell Dategeschäft (ODS).
En ODS ass eng Hybridstruktur déi en Aspekt vun den Daten enthält
Lager an aner Aspekter vun engem OLTP Ëmfeld; daten Mäerz, wou ech
verschidden Departementer kënnen hir eege Versioun vun den Donnéeën hunn
Lager; a daten Lager vun Exploratioun an deem i
Firma "Philosophen" (Denker) kënnen hir Ufroen ofginn
72 Stonnen ouni schiedlech Effekt op daten Lager; an eng Erënnerung
no Linn, an deem dati alt an dati bulk Detailer kënne sinn
bëlleg gespäichert.
WOU KOMBINÉIERT DEN ERP MAT DER
CORPORATE INFORMATIOUN FABRIEK
D'ERP fusionéiert mat der Corporate Information Factory op zwou Plazen.
Haaptsächlech als Basis Applikatioun déi i
dati vun der Applikatioun ze daten Lager. An dësem Fall i dati,
generéiert als Nieweprodukt vun engem Transaktiounsprozess,
sinn integréiert an gelueden an der daten Lager vun der Firma. Déi
zweete Punkt vun der Unioun tëscht ERP an CIF an der ODS. Tatsächlech, vill
Ëmfeld gëtt den ERP als klassesch ODS benotzt.
Am Fall wou ERP als Kärapplikatioun benotzt gëtt, ass et
déi selwecht ERP kann och am CIF als ODS benotzt ginn. An
awer, wann d'ERP an zwou Rollen benotzt ginn soll, do
et muss e kloeren Ënnerscheed tëscht den zwou Entitéite sinn. An anere Wierder,
wann der ERP spillt d'Roll vun Basis Applikatioun an ODS, le
zwee architektonesch Entitéite mussen ënnerscheeden. Wann eng eenzeg
d'Ëmsetzung vun engem ERP probéiert béid Rollen ze erfëllen
gläichzäiteg gëtt et zwangsleefeg Problemer an der
Design an Ëmsetzung vun dëser Struktur.
SEPARAT ODS AN BASIC APPLIKATIOUNEN
Et gi vill Grënn, déi zu Komponentspaltungen féieren
architektonescht. Vläicht déi Éloquence Fro ze trennen der
verschidde Komponente vun enger Architektur ass, datt all Komponent
vun der Architektur huet seng eege Vue. D'Basisapplikatioun déngt
fir en aneren Zweck wéi dee vum ODS. Probéieren iwwerlappt
eng Baseline Applikatioun Vue op d'Welt vun engem ODS oder Vize versa
et ass net e richtege Wee fir ze schaffen.
Dofir ass den éischte Problem vun engem ERP am CIF dee vun
kontrolléieren ob et en Ënnerscheed tëscht der Basis Applikatiounen an der
SDGs.
Donnéeën MODELLEN AN DER CORPORATE
INFORMATIOUN FABRIEK
Fir eng Kohäsioun tëscht de verschiddene Komponenten z'erreechen
vun der Architektur vum CIF, muss e Modell vun dati. ech
Modeller vun dati si déngen als Link tëscht de verschiddene Komponente
Architektur wéi Baseline Uwendungen an ODS. DEN
Modeller vun dati ginn déi "intellektuell Stroossekaart" fir de
richteg Bedeitung vun de verschiddenen architektonesche Komponente vum CIF.
Hand an Hand mat dëser Notioun goen, ass d'Iddi, datt et soll
ginn eng grouss an eenzegaarteg Modell vun dati. Natierlech muss hien
ginn e Modell vun dati fir jiddereng vun den Komponenten an och do
et muss e verstännege Wee sinn, deen déi verschidde Modeller verbënnt.
All Komponent vun der Architektur - ODS, Baseline Uwendungen,
daten Lager vun der Firma, a sou weider .. - brauch seng eege
Modell vun dati. An dofir muss et eng präzis Definitioun vun
wéi dës Modeller vun dati si Interface mat all aner.
MÉI I DATA VUN DER ERP AN DEN DATA
LAGER
Wann den Urspronk vun der dati ass eng Basisapplikatioun an/oder en ODS, wann
den ERP setzt i dati an daten Lager, dëser Entrée muss
um niddregsten Niveau vun der Granularitéit stattfannen. Recap bzw
einfach aggregéiert i dati wéi se erauskommen
vun der ERP Baseline Applikatioun oder ERP ODS ass net do
richteg Saach ze maachen. DEN dati Detailer sinn néideg an den Donnéeën
Lager fir d'Basis vum DSS Prozess ze bilden. Esou dati
si ginn op vill Manéiere vun Datemarch an Exploratioun ëmgeformt
vun der daten Lager.
D'Beweegung vun dati aus der Basis Applikatioun Ëmfeld
vun der ERP op d'Ëmwelt vun daten Lager vun der Firma gëtt an engem gemaach
raisonnabel relax Manéier. Dat Verréckelung geschitt duerno
ongeféier 24 Stonnen vun der Aktualiséierung oder Schafung am ERP. D'Tatsaach vun
hunn eng "Lazy" Bewegung vun der dati an daten Lager
vun der Firma erlaabt der dati aus der ERP kommen fir "ze settle".
Eemol i dati ginn an der Basis Applikatioun deposéiert,
da kënnt Dir sécher i dati vum ERP
an der Entreprise. En anert Zil dat duerch Bewegung erreecht ka ginn
"faul" Gëtter dati ass déi kloer Ofgrenzung tëscht operationelle Prozesser an
DS Erweiderung. Mat enger "séier" Bewegung vun der dati d'Demarkatiounslinn
tëscht DSS an operationell bleift vague.
D 'Bewegung vun dati vum ODS vun der ERP bis daten Lager
vun der Firma gëtt periodesch gemaach, normalerweis
wëchentlech oder monatlecht. An dësem Fall d'Bewegung vun
dati et baséiert op de Besoin fir déi al ze "botzen". dati Historiker.
Natierlech enthält den ODS i dati déi vill méi rezent sinn
Respekt an dati Historiker fonnt an der daten Lager.
D'Beweegung vun dati an daten Lager et gëtt bal ni gemaach
"Grosshandel" (op eng Grossist Manéier). Kopéiert en Dësch
vum ERP Ëmfeld bis daten Lager et mécht kee Sënn. Eng Approche
vill méi realistesch ass d'Bewegung vun ausgewielten Unitéiten vun dati.
Nëmmen déi dati déi zënter dem leschten Update vun den Donnéeën geännert hunn
Lager sinn déi, déi an d'Date geplënnert solle ginn
Lager. Ee Wee fir ze wëssen wéi eng dati si goufen geännert
zanter dem leschten Update ass d'Zäitstempele vun der ze kucken dati
am ERP Ëmfeld fonnt. Den Designer wielt all Ännerungen
déi zanter dem leschten Update entstane sinn. Eng aner Approche
ass Change Capture Techniken ze benotzen datiAn. Mat
dës Techniken analyséieren Logbicher an Journal Bänner fir ze
bestëmmen déi dati muss aus dem ERP Ëmfeld geplënnert ginn
Dat vun der daten Lager. Dës Technike sinn am beschten
wéi Logbicher a Journalbänner aus ERP Dateien gelies kënne ginn
ouni weider Effekt op aner ERP Ressourcen.
ANER KOMPLIKATIOUNEN
Ee vun de Probleemer mat ERP am CIF ass wat mat aneren geschitt
Applikatioun Quellen oder ai dati vun den ODS déi si mussen bäidroen
daten Lager mä si sinn net Deel vun der ERP Ëmwelt. Datum den
zougemaach Natur vun ERP, besonnesch SAP, de Versuch der intégréieren
Schlësselen aus externen Quellen vun dati mat i dati déi aus der ERP kommen al
Zäit ze plënneren i dati an daten Lager, et ass eng grouss Erausfuerderung.
A wat sinn d'Wahrscheinlechkeeten genee, datt d.h dati vun Uwendungen oder
ODS ausserhalb vum ERP Ëmfeld gëtt an d'Donnéeën integréiert
Lager? D'Chance sinn eigentlech ganz héich.
FINN DATA HISTORISK VUN ERP
En anere Problem mat i dati vun der ERP ass déi resultéierend
aus dem Besoin ze hunn dati Historiker bannent der daten Lager.
Normalerweis de daten Lager brauch dati Historiker. AN
ERP Technologie späichert dës normalerweis net dati
historesch, op d'mannst net zu deem Mooss, datt et am Datum néideg ass
Lager. Wann eng grouss Quantitéit vun dati Historiker fänkt Annonce
am ERP Ëmfeld dobäi ze ginn, muss dat Ëmfeld sinn
gebotzt. Zum Beispill, ugeholl a daten Lager mussen
gelueden mat fënnef Joer vun dati historesch während der ERP hält
maximal sechs Méint vun dësen dati. Soulaang d'Firma zefridden ass mat
sammelen eng Serie vun dati Geschicht wéi d'Zäit geet,
da gëtt et kee Problem mat der ERP als Quell fir de
daten Lager. Awer wann de daten Lager muss goen
zréck an Zäit an huelen Gëtter dati Historiker déi net waren
virdrun gesammelt a gespäichert vum ERP, dann d'ERP Ëmfeld
et gëtt ineffizient.
ERP AN METADATA
Eng aner Iwwerleeung iwwer ERP ze maachen e daten Lager ass dat
op existéierend Metadaten am ERP Ëmfeld. Wéi och Metadaten
si plënneren aus der ERP Ëmwelt an der del daten Lager, ech
Metadaten mussen op déiselwecht Manéier geréckelt ginn. Ausserdeem, i
Metadaten mussen am Format a Struktur transforméiert ginn
néideg vun der Infrastruktur vun der daten Lager. Et gëtt eng grouss
Ënnerscheed tëscht operationell Metadaten an DSS Metadaten. D'Metadaten
operationell sinn haaptsächlech fir den Entwéckler a fir de
programmeur. DSS Metadaten sinn haaptsächlech fir Iech
d'Finale. Bestehend Metadaten an ERP Uwendungen oder ODSs
si mussen ëmgewandelt ginn an dës Konversioun ass net ëmmer einfach
an direkt.
SOURCING DEN ERP DATA
Wann den ERP als Zouliwwerer vun benotzt gëtt dati pro il daten Lager ci
muss eng zolidd Interface sinn, déi i dati vun der Ëmwelt
ERP fir d'Ëmwelt daten Lager. Den Interface muss:
▪ einfach ze benotzen
▪ erlaben Zougang zu dati vum ERP
▪ d'Bedeitung vun ophuelen dati déi amgaange geplënnert ze ginn
an daten Lager
▪ kennen d'Aschränkungen vun der ERP déi entstoe kënnen
Moment wou den Zougang gemaach gëtt dati der ERP:
▪ referenziell Integritéit
▪ hierarchesch Relatiounen
▪ implizit logesch Relatiounen
▪ Applikatioun Konventioun
▪ all d'Strukturen vun dati ënnerstëtzt vum ERP, an sou weider ...
▪ Effizient sinn am Accès dati, andeems Dir:
▪ direkt Bewegung vun dati
▪ Acquisitioun vun änneren dati
▪ Ënnerstëtzung virgesinnen Zougang zu dati
▪ d'Format vun der verstoen dati, a sou weider…
INTERFACE MAT SAP
D'Interface kann vun zwou Zorte sinn, doheem oder kommerziell.
E puer vun de grousse kommerziellen Interfaces enthalen:
▪ SAS
▪ Prime Léisungen
▪ D2k, a sou weider...
MÉI ERP TECHNOLOGIES
D'ERP Ëmfeld behandelen wéi wann et eng eenzeg Technologie wier ass eng
grousse Feeler. Et gi vill ERP Technologien, jidderee mat senger eegener
Stäerkten. Déi bekanntst Ubidder um Maart sinn:
▪ SAP
▪ Oracle Financials
▪ PeopleSoft
JD Edwards
▪ Baans
SAP
SAP ass déi gréissten an ëmfaassendsten ERP Software. D'Applikatiounen
vun SAP ëmfaasst vill Zorte vun Uwendungen a ville Beräicher. SAP huet
de Ruff fir ze sinn:
▪ ganz grouss
▪ ganz schwéier an deier ze realiséieren
▪ brauch vill Leit a Beroder ze sinn
ëmgesat
▪ brauch spezialiséiert Leit fir d'Ëmsetzung
▪ brauch vill Zäit fir ëmzesetzen
Och SAP huet e Ruff fir seng ze späicheren dati Molto
virsiichteg, mécht et schwéier fir e Zougang hinnen
Persoun ausserhalb der SAP Beräich. D'Stäerkt vum SAP ass ze sinn
kapabel eng grouss Quantitéit ze erfaassen an ze späicheren dati.
SAP huet viru kuerzem seng Absicht ugekënnegt fir de
seng Uwendungen ze daten Lager. Et gi vill Virdeeler an Nodeeler
bei der Benotzung vun SAP als Fournisseur vun daten Lager.
E Virdeel ass datt SAP schonn installéiert ass an datt déi meescht vun der
Beroder kennen SAP schonn.
D'Nodeeler vun engem mussen SAP als Zouliwwerer vun daten Lager Toun
vill: SAP huet keng Erfahrung an der Welt vun daten Lager
Wann SAP de Fournisseur vun daten Lager, et ass néideg fir "auszehuelen"
i dati vum SAP zu daten Lager. Tatsaach engem SAP Streck Rekord vun
zouene System, et ass onwahrscheinlech einfach ze kréien i vu SAP an
et (???). Et gi vill legacy Ëmfeld déi SAP ubidden,
wéi IMS, VSAM, ADABAS, ORACLE, DB2, a sou weider.
SAP insistéiert op eng "net erfonnt hei" Approche. SAP wëll net
kollaboréieren mat anere Verkeefer ze benotzen oder schafen der daten Lager.
SAP insistéiert all seng eege Software selwer ze generéieren.
Och wann SAP eng grouss a mächteg Firma ass, ass de Fakt vun
Versuch d'Technologie vun ELT ze schreiwen, OLAP, Administratioun vun
System a souguer d'Codebase vun der dbms et ass just verréckt.
Amplaz eng kooperativ Haltung mat Fournisseuren unzehuelen
di daten Lager laangfristeg, SAP huet d'Approche gefollegt datt
si "kennen am beschten". Dës Astellung hält de Succès zréck, datt
SAP kann am Beräich vun daten Lager.
SAP refuséiert externen Ubidder Zougang ze erlaben
séier a graziéis un hinnen dati. D'Essenz vum Gebrauch
un daten Lager ass einfach Zougang zu dati. Déi ganz Geschicht vu SAP ass
baséiert op mécht et schwéier Zougang dati.
SAP Mangel un Erfahrung am Ëmgang mat grousse Bänn vun dati;
am Beräich vun daten Lager et gi Bänn vun dati ni zënter gesinn
SAP a fir dës grouss Quantitéiten ze verwalten dati du muss een hunn
gëeegent Technologie. SAP ass sech anscheinend net bewosst dovun
technologesch Barrière déi existéiert fir an d'Dateberäich anzeginn
Lager.
D'Gesellschaftskultur vu SAP: SAP huet e Geschäft erstallt
an ech kréien dati vum System. Awer fir dëst ze maachen, musst Dir hunn
en anere Mentalitéitswiessel. Traditionell, Software Firmen déi waren
gutt op kréien daten an en Ëmfeld hunn net gutt op
kréien daten déi aner Manéier goen. Wann SAP kann dës Zort maachen
schalt wäert déi éischt Firma ginn dat ze maachen.
Kuerz gesot, et ass d'Fro ob eng Firma soll wielen
SAP als Zouliwwerer vun daten Lager. Et gi ganz grave Risiken
op der enger Säit a ganz wéineg Belounungen op der anerer. Mä et gëtt eng aner
Grond, datt d'Wiel vun SAP als Date Fournisseur decouragéiert
Lager. Well all Firma soll de selwechten Datum hunn
Lager vun allen anere Firmen? Déi daten Lager et ass d'Häerz
vum kompetitive Virdeel. Wann all Firma déi selwecht adoptéiert
daten Lager et wier schwéier, awer net onméiglech,
e kompetitive Virdeel erreechen. SAP schéngt ze denken, datt eng
daten Lager kann als Kichelcher gesi ginn an dat ass eng
nach en Zeechen vun hirem "d'Daten kréien
an ".
Keen aneren ERP Verkeefer ass sou dominant wéi SAP.
Et gëtt ouni Zweiwel Firme ginn, déi de Wee vum SAP goen
fir hir daten Lager mee viraussiichtlech dës Datum
SAP Lagerhaiser wäerte grouss sinn, deier a vill erfuerderen
Zäit fir hir Kreatioun.
Dës Ëmfeld enthalen sou Aktivitéiten wéi Banktellerveraarbechtung,
Fluchgesellschaft Reservatioun Prozesser, Reklamatioune Prozesser
Versécherung, etc. Den Transaktiounssystem war méi effizient,
méi offensichtlech war de Besoin fir Trennung tëscht operationell a Prozess
DSS (Decision Support System). Allerdéngs mat Ressource Systemer
Mënsch a perséinlech, een ni mat grousse Bänn konfrontéiert vun
Transaktiounen. An natierlech wann eng Persoun engagéiert gëtt
oder verloosst d'Firma dëst ass e Rekord vun enger Transaktioun.
Mä relativ zu anere Systemer, HR Systemer an
personals hu just net vill Transaktiounen. Dofir, an
Mënschlech Ressourcen a Personalsystemer ass et net ganz offensichtlech datt et gëtt
brauch en DataWarehouse. A ville Weeër dës Systemer
representéieren d'Vereenegung vun DSS Systemer.
Awer et gëtt en anere Faktor dee muss berücksichtegt ginn wann Dir musst
maachen mat Datawarehouse a mat PeopleSoft. A ville Kreesser, d.h dati
HR a perséinlech Ressourcen si sekundär zum Geschäft
Chef vun der Firma. Meescht Betriber Leeschtung
Fabrikatioun, verkafen, Servicer ubidden a sou weider. DEN
HR a Personalsystemer sinn normalerweis sekundär (oder vun
Ënnerstëtzung) op d'Haaptlinn vun der Firma. Dofir ass et
equivocal an onbequem a daten Lager getrennt fir de
Ënnerstëtzung fir mënschlech a perséinlech Ressourcen.
PeopleSoft ass ganz anescht wéi SAP an dësem Respekt. Mat SAP ass et
obligatoresch datt et eng daten Lager. Mat PeopleSoft ass et net
dann esou kloer. En Datelager ass fakultativ mat PeopleSoft.
Déi bescht Saach, datt fir de gesot ginn dati PeopleSoft ass, datt d'Donnéeën
Lager kann benotzt ginn fir ze späicheren i dati betreffend
al mënschlech a perséinlech Ressourcen. En zweete Grond fir de
déi eng Firma wéilt benotzen a daten Lager a
Nodeel vun der PeopleSoft Ëmfeld ass Zougang ze erlaben an
fräi Zougang zu Analyse Tools, ai dati vun PeopleSoft. Mee
zousätzlech zu dëse Grënn, et kann Fäll ginn, wou et léiwer net ze
hunn eng Datelager fir dati PeopleSoft.
zesummefaassend
Et gi vill Iddien iwwer de Bau vun engem Donnéeën
Warehouse bannent enger ERP Software.
E puer vun dësen sinn:
▪ Et mécht Sënn fir eng daten Lager déi ausgesäit wéi all
soss an der Industrie?
▪ Wéi flexibel en ERP ass daten Lager Software?
▪ An ERP daten Lager Software kann e Volume vun verschaffen
dati déi läit an engemdaten Lager arena"?
▪ Wat ass d'Spurelogging déi den ERP Verkeefer mécht
konfrontéiert mat einfach a bëlleg, Zäit-opwänneg, ai dati? (waat
ass den ERP Verkeefer Streck Rekord op Liwwerung vun bëlleg, op
Zäit, einfach Zougang zu Daten?)
▪ Wat ass de Verständnis vun der DSS Architektur an der
"Corporate Information Factory" vum ERP Verkeefer?
▪ ERP Ubidder verstoen wéi ze kréien dati bannenzeg vun
vun der Ëmwelt, awer och verstoen wéi se exportéieren?
▪ Wéi oppen ass de Verkeefer vun der ERP fir Daten Tools
Lagerung?
All dës Considératiounen musse bei der Bestëmmung gemaach ginn
wou ze setzen de daten Lager déi wäert hosten i dati vum ERP an anerer
dati. Am Allgemengen, ausser et gëtt eng zwéngend Grond fir
anescht ze maachen, ass recommandéiert ze bauen daten Lager eraus
aus dem ERP Verkeefer Ëmfeld.
KAPITEL 1
Iwwersiicht vun der BI Organisatioun
Punkten:
Informatiounsrepositories funktionnéieren am Géigendeel
zu Business Intelligence (BI) Architektur:
Firmenkultur an IT kënnen den Erfolleg limitéieren
Bau vun BI Organisatiounen.
Technologie ass net méi de limitéierende Faktor fir BI Organisatiounen. Déi
Problem fir Architekten a Projet Planer ass net ob der
Technologie existéiert, mä wa se effektiv ëmsetzen kënnen d'
verfügbar Technologie.
Fir vill Betriber a daten Lager et ass wéineg méi wéi en Depot
passiv deen verdeelt i dati fir Benotzer déi et brauchen. DEN dati
si ginn aus Quellsystemer extrahéiert a sinn an Zilstrukturen populéiert
di daten Lager. ech dati si kënnen och mat der ganzer gebotzt ginn
Räichtum. Allerdéngs gëtt och keen extra Wäert dobäi
gesammelt vun dati während dësem Prozess.
Wesentlech liwwert de passive Dw am beschten
nëmmen ech dati propper an operationell ze Benotzer Associatiounen. Do
Informatiounen Kreatioun an analytesch Versteesdemech hänkt
ganz vu Benotzer. Beurteelen ob den DW (Donnéeën Lager) ass
Erfolleg ass subjektiv. Wa mir Riichter Succès op der
Fäegkeet effizient ze sammelen, z'integréieren an ze botzen i dati
Firmen op enger prévisibel Basis, dann jo, den DW ass e Succès.
Op der anerer Säit, wa mir d'Kollektioun kucken, d'Konsolidéierung a lo
Ausbeutung vun Informatiounen d'Organisatioun als Ganzt, dann
den DW ass e Feeler. En DW bitt wéineg oder kee Wäert
Informatiounen. Als Resultat sinn d'Benotzer gezwongen ze maachen,
domat Siloen vun Informatioun erstellen. Dëst Kapitel presentéiert
eng ëmfaassend Vue fir d'Architektur vum BI (Business
Intelligenz) vun de Firmen. Loosst d'mat enger Beschreiwung vun BI ufänken an
da gi mer op d'Diskussiounen iwwer den Design an de
Entwécklung vun Informatioun, am Géigesaz zum einfach l dati
fir Benotzer. D'Diskussiounen stinn dann op d'Berechnung vun der
Wäert vun Ärer BI Efforten . Mir schléissen duerch definéieren wéi IBM
rappeléiert Är Organisatioun BI architektonesch Ufuerderunge.
Architektur Beschreiwung vun
BI Organisatioun
Mächteg transaktiounsorientéiert Informatiounssystemer sinn elo
op der Agenda an all grouss Entreprisen, wéi se Niveau
effektiv d'Spillfeld fir Firmen op der Welt.
Kompetitiv bleiwen, awer elo erfuerdert Systemer analytesch
orientéiert op dat kann d'Firma d'Fäegkeet revolutionéieren andeems se ed
benotzt d'Informatioun déi se scho hunn. Dës Systemer
analytesch ofgeleet aus Versteesdemech aus dem Räichtum vun dati
verfügbar. BI kann d'Performance iwwer all Informatioun verbesseren
vun der Entreprise. Geschäfter kënne Client-zu-Client Relatiounen verbesseren
Fournisseuren, verbesseren de Gewënn vun Produiten a Servicer, generéieren
nei a bescht Offeren, kontrolléieren Risiko an ënner vill anerer
Akommes reduzéiert Ausgaben dramatesch. Mat BI Är
Firma fänkt endlech Client Informatiounen ze benotzen
als kompetitiv Verméigen dank Uwendungen déi Ziler vun hunn
Maart.
Déi richteg Geschäftsmëttel ze hunn heescht definitiv Äntwerten op
Schlëssel Froen wéi:
▪ Wéi eng vun eis Clienten si maachen eis méi verdéngen, oder do
verléieren se?
▪ Wou eist Bescht wunnt Clienten par rapport zu Buttek/
Warehouse si dacks?
▪ Wéi eng vun eise Produkter a Servicer kënne méi verkaaft ginn
effektiv a wiem?
▪ Wéi eng Produkter kënnen am effektivsten verkaf ginn a wiem?
▪ Wéi eng Verkafskampagne ass méi erfollegräich a firwat?
▪ Wéi eng Verkafskanäl si fir wéi eng Produkter am effektivsten?
▪ Wéi kënne mir Bezéiunge mat eisem Bescht verbesseren Clienten?
Déi meescht Firmen hunn dati rau ze äntweren
dës Froen.
Operationell Systemer generéieren grouss Quantitéite vun Produit, vun
Client an vun dati vum Maart vu Verkafspunkten, vu Reservatiounen,
vum Client Service an technesch Ënnerstëtzung Systemer. D'Erausfuerderung ass
dës Informatioun extrahéieren an ausnotzen.
Vill Firme profitéieren nëmme vu klenge Fraktiounen vun hiren dati
fir strategesch Analysen.
I dati reschtlech, oft kombinéiert mat ech dati ofgeleet extern Quelle wéi i
"Regierung Rapporten", an aner kaaft Informatiounen, sinn eng
Goldmine waart just op exploréiert ze ginn, Ee dati mussen
nëmmen am Informatiounskontext vun Ärem raffinéiert ginn
Organisatioun.
Dëst Wëssen kann op verschidde Weeër applizéiert ginn, Variatiounen
vum Design vun enger Gesellschaftsstrategie bis
perséinlech Kommunikatioun mat Fournisseuren, iwwer Call Centers,
Rechnung, Internet an aner Punkten. D'Geschäftsëmfeld vun haut diktéiert
datt DW a verbonne BI Léisunge weider entwéckelen
der Ausféierung vun traditionell Strukture vun dati wéi ech dati normaliséiert op
atomarer Niveau an "Stär / Wierfel Bauerenhaff".
Wat gebraucht gëtt fir kompetitiv ze bleiwen ass eng Fusioun vu
traditionell an fortgeschratt Technologien an engem Effort ze ënnerstëtzen eng
grouss analytesch Landschaft.
Schlussendlech muss dat allgemengt Ëmfeld d'Wëssen verbesseren
vun der Entreprise als Ganzt, garantéiert datt d'Aktiounen geholl
als Konsequenz vun duerchgefouert Analysen kommen se praktesch sou datt jiddereen ass
profitéieren.
Zum Beispill, loosst eis soen datt Dir Är eege rangéiert Clienten an de Kategorien
héich oder niddreg Risiko.
Ob dës Informatioun vun engem Biergbau Modell generéiert oder
aner Mëttelen, et muss an den Dw gesat ginn an zougänglech gemaach ginn
jidderengem, duerch all Zougangsmëttel, wéi z
statesch Berichter, Spreadsheets, Tabellen oder analytesch Veraarbechtung an
Linn (OLAP).
Wéi och ëmmer, am Moment vill vun dëser Aart vun Informatioun
si bleiwen an de Siloen vun dati vun den Individuen oder Departementer déi se generéieren
d'Analyse. D'Organisatioun als Ganzt huet wéineg oder guer keng Visibilitéit
fir Verständnis. Nëmmen duerch Mëschung vun dëser Zort Inhalt
Informatioun an Ärer Entreprise dw Dir kënnt d'Silos eliminéieren
Informatioun an erhéijen Äert Dw Ëmfeld.
Et ginn zwou grouss Hürden fir eng Organisatioun z'entwéckelen
vum BI.
Als éischt hu mir de Problem vun der Organisatioun selwer
vun der verbonne Disziplin.
Och wa mir net mat der Politik änneren kënnen hëllefen
vun der Organisatioun, kënne mir hëllefen d'Komponente vun verstoen
eng BI Organisatioun, seng Architektur a wéi
IBM Technologie erliichtert seng Entwécklung.
Déi zweet Barrière fir ze iwwerwannen ass de Mangel un Technologie
integréiert a Wëssen vun enger Method déi de ganze Raum rifft
vum BI am Géigesaz zu nëmmen e klenge Bestanddeel.
IBM reagéiert op Ännerungen an der Technologie
vun integréiert. Et ass Är Verantwortung en Design ze bidden
selbstbewosst. Dës Architektur muss mat entwéckelt ginn
Technologie gewielt fir Integratioun ouni Aschränkungen, oder op d'mannst, mat
Technologie déi op oppe Standarden hält. Och Är
Firma Gestioun muss suergen, datt Bi d'Entreprise ass
no dem Programm duerchgefouert an net ze erlaben
Entwécklung vun Informatiounssiloen, déi aus Selbstdéngscht kommen
Agenda oder Ziler.
Dëst ass net ze soen datt d'BI Ëmfeld net sensibel ass
op déi verschidde Besoinen an Ufuerderunge vu verschiddene Benotzer reagéieren; amplaz, et heescht
datt d'Ëmsetzung vun deenen eenzelne Besoinen an Ufuerderunge ass
gemaach fir de Benefice vun der ganzer BI Organisatioun.
Eng Beschreiwung vun der Organisatioun BI Architektur kann
fannt Dir op der Säit 9 an der Figur 1.1 D'Architektur weist
eng räich Mëschung vun Technologien an Techniken.
Vun der traditioneller Vue enthält d'Architektur déi folgend Komponenten
vum Lager
Atomesch Schicht (Atomesch Schicht).
Dëst ass d'Fundament, d'Häerz vum ganzen Dw an dofir vun
strategesch Berichterstattung.
I dati hei gespäichert gëtt déi historesch Integritéit behalen, Rapporte vun
dati an enthalen déi ofgeleet Metrik, souwéi propper ze sinn,
integréiert, a gespäichert mat de Mining Templates.
All spéider Notzung vun dësen dati an Zesummenhang Informatiounen ass
aus dëser Struktur ofgeleet. Dëst ass eng exzellent Quell fir
Extraktioun vun dati a fir Berichter mat strukturéierte SQL Ufroen
Operationell Lager vun dati oder Rapport Basis vun
dati(Operational Data Store (ODS) oder Berichterstattung
Datebank.)
Dëst ass eng Struktur vun dati speziell entworf fir
technesch Berichterstattung.
I dati gespäichert a gemellt uewen dës Strukturen kënnen endlech
propagéieren an d'Lagerhaus iwwer Staging Zone (Staging
Beräich), wou et fir strategesch Signalisatioun benotzt ka ginn.
Stadion Beräich.
Den éischten Arrêt fir déi meescht dati geduecht fir d'Ëmwelt vun
Lager ass d'Organisatiounszone.
Hei ech dati sinn integréiert, gebotzt an transforméiert an dati nëtzlech datt
si wäerten d'Lagerstruktur populéieren
Datum Mäerz.
Dësen Deel vun der Architektur stellt d'Struktur vun dati usata
speziell fir OLAP. D'Präsenz vun datamarts, wann ech dati Toun
gespäichert an de Stäreschemaen déi se iwwerlageren dati
multidimensional an engem relational Ëmfeld, oder am Fichier cabinets
di dati propriétaire benotzt duerch spezifesch OLAP Technologie, wéi z
DB2 OLAP Server, et ass net relevant.
Déi eenzeg Aschränkung ass datt d'Architektur d'Benotzung erliichtert dati
multidimensional.
D'Architektur enthält och kritesch Bi Technologien an Techniken
déi ënnerscheeden wéi:
Raumlech Analyse
Space ass eng Informatiounswindfall fir den Analyst an
et ass kritesch fir eng komplett Opléisung. Raum kann
representéieren d'Informatioun vu Leit, déi an engem bestëmmte liewen
Location, souwéi Informatioun iwwer wou dës Plaz ass
kierperlech am Verglach mam Rescht vun der Welt.
Fir dës Analyse auszeféieren, musst Dir ufänken mat Ärem ze bannen
Breet- a Längt Koordinatiounsinformatioun. Sinn wat
als "Geocoding" bezeechent a muss Deel vun der Extraktioun sinn,
Transformatioun, a vum Luedeprozess (ETL) op den Niveau
Atomnummer vun Ärem Lager.
Data Mining.
D'Extraktioun vun dati erlaabt eise Betriber ze wuessen der
Zuel vun Clienten, Verkafstrends virauszesoen an z'erméiglechen
Relatioun Gestioun mat Clienten (CRM), tra altre iniziative della
BI.
D'Extraktioun vun dati et muss also mat de Strukture vun integréiert ginn
dati vum Dwhouse an ënnerstëtzt vun Lagerprozesser fir
festzestellen souwuel déi effektiv an efficace Notzung vun Technologie an
Zesummenhang Techniken.
Wéi an der BI Architektur uginn, den atomesche Niveau vun der
Dwhouse, wéi datamarts, ass eng exzellent Quell vun dati
fir Extraktioun. Déi selwecht Strukture mussen och sinn
Destinatairen vun Extraktioun Resultater ze garantéieren Disponibilitéit ze
gréisste Publikum.(breetste Publikum).
Agenten.
Et gi verschidde "Agenten" fir de Client fir all Punkt ze screenen wéi, i
Firma Betribssystemer an der dw selwer. Dës Agenten kënnen
fortgeschratt neural Netzwierker sinn trainéiert fir ze léieren
Trends vun all Punkt, wéi zukünfteg Produit Nofro baséiert
op Ofsaz Promotiounen, Regelen-baséiert Motore ze reagéieren
un dato Set vun Ëmstänn, oder souguer einfach Agenten déi
si weisen op d'Ausnahmen vun den "Spëtzeleit". Dës Prozesser jo
allgemeng an Echtzäit präsent an dofir muss
enk mat hirer Bewegung verbonne sinn dati.
All dës Strukturen vun dati, Technologien an Techniken garantéieren
datt Dir d'Nuecht net verbréngen eng Organisatioun vun der generéieren
dein BI.
Dës Aktivitéit gëtt an inkrementelle Schrëtt entwéckelt, fir kleng
Punkten.
All Schrëtt ass en onofhängege Projet Effort, a gëtt gemellt
als Iteratioun an Ärer dw oder BI Initiativ. D'Iteratiounen
kann d'Ëmsetzung vun neien Technologien och, fir
ufänken mat neien Techniken, dobäi nei Strukturen vun dati ,
lued i dati ergänzend , oder mat der Analyse Erweiderung vun der
Är Ëmwelt. Dëse Paragraf gëtt méi diskutéiert
am Detail am Kapitel 3.
Nieft den traditionelle Strukture vun Dw a Bi Tools ginn et anerer
Funktiounen vun Ärer BI Organisatioun fir déi Dir schëlleg sidd
Design, wéi:
Client Touchpoints (Client Touch
Punkten).
Wéi mat all modern Organisatioun ginn et eng Rei vun
Client Touchpoints, déi uginn, wéi en Erliefnes ze hunn
positiv fir Är Clienten. Et ginn déi traditionell Kanäl wéi i
Händler, switchboard Opérateuren, Direct Mail, Multimedia an Drécken
Reklammen, souwéi déi aktuellst Kanäl wéi E-Mail an de Web, d.h dati
Produkter mat engem Kontaktpunkt musse kaaft ginn,
transportéiert, gebotzt, verwandelt an dann an Strukturen vun Populatioun dati della
BI.
Basen vun dati operationnel et user associations (Operational
Datenbanken a Benotzergemeinschaften).
Um Enn vun de Kontaktpunkte vun der Clienten d'Fundamenter fonnt ginn dati
vun der Firma Applikatioun an Benotzer Communautéiten. DEN dati bestehend
Toun dati traditionell, déi muss zesumme bruecht a fusionéiert mat der dati dass
si fléien vun den Touchpoints fir déi néideg ze erfëllen
Informatiounen.
Analysten. (Analysten)
De primäre Beneficiaire vum BI Ëmfeld ass den Analyst. Et ass hien deen
profitéiert vun der aktueller Extraktioun vun dati operationell, integréiert mat
verschidde Quelle vun dati , vergréissert mat Features wéi Analytik
geographesch (Geocoding) a presentéiert an BI Technologien déi
erlaben fir Biergbau, OLAP, fortgeschratt SQL Berichterstattung an Analyse
geographesch. Déi primär Interface fir den Analyst an d'Ëmwelt
Berichterstattung ass de BI Portal.
Wéi och ëmmer, den Analyst ass net deen eenzegen deen vun der Architektur vun der
BI.
Exekutiv, grouss Benotzerverbänn, a souguer Memberen, Fournisseuren an i
Clienten soll Virdeeler am Enterprise BI fannen.
Back Feed Loop.
BI Architektur ass e Léierëmfeld. E Prinzip
charakteristesch vun Entwécklung ass fir bestänneg Strukture vun erlaben dati
aktualiséiert ze ginn duerch benotzt BI Technologie an duerch Aktiounen
Benotzer Betriber. E Beispill ass d'Evaluatioun vun
Client (Client Scoring).
Wann de Verkafsdepartement e Biergbaumodell ausféiert
vun de Partituren vum Client wéi en neie Service ze benotzen, dann de
Ofsaz Departement soll net déi eenzeg Beneficer Grupp ginn
vum Service.
Amplaz soll de Biergbau Modell als Deel duerchgefouert ginn
d'Natur vum Datefloss bannent der Firma an de Clientsresultater
soll en integréierten Deel vum Informatiounsëmfeld vun der ginn
Lager, siichtbar fir all Benotzer. D'Bi-bI-centric IBM Suite
dorënner DB2 UDB, DB2 OLAP Server enthält meescht
Deel vun de wichtege Komponente vun Technologie, an der Figur definéiert
1.1.
Mir benotzen d'Architektur wéi et an dësem Buch Figur schéngt fir
ginn eis en Niveau vun Kontinuitéit a weisen wéi all Produit
vun IBM passen an d'allgemeng Muster vum BI.
Informatiounsinhalt ubidden (Liwweren
Informatiounsinhalt)
Designt, entwéckelt an implementéiert Äert BI Ëmfeld ass
eng ustrengend Aufgab. Den Design muss souwuel de
aktuell an zukünfteg Geschäftsbedéngungen. Den architektoneschen Design
muss komplett sinn fir all fonnt Conclusiounen ze enthalen
während der Designphase. D'Ausféierung muss bleiwen
engagéiert fir een eenzegen Zweck: d'Architektur vum BI z'entwéckelen
wéi formell an der Zeechnung presentéiert a baséiert op den Ufuerderunge vun
Betrib.
Et ass besonnesch schwéier ze streiden datt Disziplin d'
relativ Succès.
Dëst ass einfach well Dir net e BI Ëmfeld fir jiddereen baut
op eemol, mee et geschitt a klenge Schrëtt iwwer Zäit.
Wéi och ëmmer, d'BI Komponente vun Ärer Architektur z'identifizéieren ass
wichteg fir zwee Grënn: Dir wäert all pafolgende Décisiounen Guide
Architektur Techniken.
Dir wäert fäeg sinn e bestëmmte Gebrauch vun Technologie bewosst ze designen
obwuel Dir vläicht net eng Widderhuelung kritt et brauch
Technologie fir e puer Méint.
Är Geschäftsbedéngungen genuch ze verstoen wäert den Typ beaflossen
vu Produkter déi Dir fir Är Architektur kritt.
D'Planung an d'Entwécklung vun Ärer Architektur garantéieren
datt Äert Lager ass
keen zoufälleg Event, mee éischter e "gutt iwwerluechten",
virsiichteg gebaut Annonce Oper vu Konscht wéi e Mosaik vun
gemëscht Technologie.
Design Informatiounen Inhalt
All initial Design muss konzentréieren an z'identifizéieren der
grouss BI Komponenten déi Är Ëmwelt brauch
allgemeng an der heiteger an an der Zukunft.
Wësse vun de Geschäftsbedéngungen ass wichteg.
Och ier all déi formell Planung ufänkt, den
Projet Planer kann oft een oder zwee identifizéieren
Komponent direkt.
D'Gläichgewiicht vun Komponente datt néideg kann fir de
Är Architektur kann awer net einfach fonnt ginn.
Wärend der Designphase ass den Haaptdeel vun der Architektur
bindt d'Applikatioun Entwécklung Sessioun (JAD) op eng Sich
Fir Geschäftsbedéngungen z'identifizéieren.
Heiansdo kënnen dës Ufuerderungen op Tools outsourcet ginn
Ufroen a Berichterstattung.
Zum Beispill soen d'Benotzer datt wa se automatiséieren wëllen
Moment e Rapport muss manuell Integratioun generéieren
zwee aktuell Verhältnisser an dobäi d'Berechnungen ofgeleet aus
Kombinatioun vun dati.
Och wann dës Fuerderung einfach ass, definéiert se eng gewëssen
Funktionalitéit vun der Fonktioun Dir musst wann
kafen Berichterstattung fir d'Organisatioun.
Den Designer muss och zousätzlech Ufuerderunge verfollegen fir
kréien e komplett Bild. Benotzer wëllen abonnéieren op
dëse Bericht?
D'Subsets vum Bericht ginn generéiert a per E-Mail un déi verschidde geschéckt
Benotzer? Wëllt Dir dëse Bericht am Firmeportal gesinn?
All dës Ufuerderunge sinn Deel vun der einfach brauchen ze
ersetzen e manuelle Bericht wéi d'Benotzer gefrot. De Virdeel
vun dësen Zorte vun Ufuerderunge ass, datt jiddereen, Benotzer an Entwéckler, hunn
e Verständnis vum Konzept vu Berichter.
Et ginn awer aner Aarte vu Geschäfter, fir déi mir musse plangen.
Wann Affär Ufuerderunge an der Form vun uginn
Business strategesch Froen, et ass einfach fir den erfuerene Planer
z'ënnerscheeden dimensional a Mooss / Tatsaach Ufuerderunge.
Figur 1.2 illustréiert Gréisst an dimensional Komponente vun engem
Affär Problem.
Wann JAD Benotzer net wëssen wéi se hir Ufuerderunge deklaréieren
a Form vun engem Betrib Problem, den Designer gëtt oft liwweren
Beispiller fir d'Datesammlungssession ze iwwersprangen
Ufuerderunge.
Den Expert Designer kann de Benotzer hëllefen net nëmmen d'
strategesche Handel, awer och wéi et ze bilden.
D'Ufuerderunge sammelen Approche gëtt am Kapitel 3 diskutéiert; Fir
elo wëlle mir just op d'Noutwennegkeet vun Design fir jiddereen ze weisen
d'Zorte vu BI Ufuerderunge
E strategesche Geschäftsprobleem ass net nëmmen eng Fuerderung
Business, awer och en Design Hiweis. Wann Dir musst äntweren
op eng multidimensional Fro, da musst Dir memoriséieren,
ofginn i dati dimensional, a wann Dir musst der memoriséieren
dati multidimensional, Dir musst decidéieren wat Zort vun Technologie oder
Technik déi Dir benotzt.
Ëmsetzung Dir e reservéiert Cube Stär Schema, oder béid?
Wéi Dir gesitt kann, och eng einfach Affär Problem
kann den Design wesentlech beaflossen. Allerdéngs
dës Zorte vu Betrib Ufuerderunge sinn normal an natierlech, op d'mannst
vun erfuerene Projet Planer an Designer.
Et gouf genuch Debatt iwwer d'Technologien an d'Ënnerstëtzung vun
OLAP, an eng grouss Varietéit vu Léisunge sinn verfügbar. Bis elo
mir hunn de Besoin erwähnt fir einfach Berichterstattung mat i
Affär Gréisst Ufuerderunge, a wéi dës Ufuerderunge
Afloss op technesch architektonesch Entscheedungen.
Awer wat sinn d'Ufuerderungen déi net einfach verstanen sinn
vu Benotzer oder vum Dw Team? Dir wäert ëmmer d'Analyse brauchen
raimlech (raimlech Analyse)?
D'Biergbau Modeller vun dati si wäert eng néideg Deel vun Ärer ginn
Zukunft? Wien weess?
Et ass wichteg ze bemierken datt dës Aarte vun Technologien net vill sinn
bekannt vun der allgemeng Benotzer Communautéiten an Teammemberen vun
Dw, deelweis, dëst kéint geschéien well se typesch
gi vun e puer internen oder Drëttubidder techneschen Experten gehandhabt. Et ass a
Grenzfall vun de Problemer déi dës Zorte vun Technologien generéieren. Selbst
Benotzer kënnen d'Geschäftsufuerderunge net beschreiwen oder se kaumen
fir d'Designer Richtlinnen ze ginn, kënne se
ginn onnotéiert oder, schlëmmer, einfach ignoréiert.
Méi problematesch gëtt et wann den Designer an den Entwéckler versoen
kann d'Applikatioun vun engem vun dësen fortgeschratt mä erkennen
kritesch Technologien.
Wéi mir dacks héieren hunn Designer soen: "Ma, firwat
setzen mir et net op der Säit bis mir déi aner Saach kréien?
"Sinn se wierklech u Prioritéiten interesséiert, oder vermeiden se einfach i
Ufuerderungen déi se net verstinn? Et ass héchstwahrscheinlech déi lescht Viraussetzung.
Loosst eis soen datt Äert Verkafsteam eng Ufuerderung kommunizéiert huet
vum Betrib , wéi an der Figur 1.3 uginn, wéi Dir gesitt kann, der
Ufuerderung ass a Form vun engem Geschäftsproblem encadréiert. Do
Ënnerscheed tëscht dësem Problem an der typesch dimensional Problem ass
d'Distanz. An dësem Fall wëll d'Verkafsteam wëssen,
op engem Mount Basis, den Total Ofsaz aus Produiten, Lager an
Clienten déi bannent 5 Meilen vum Lager wunnen, wou se
se kafen.
Leider kënnen Designer oder Architekten einfach
ignoréiert de raimleche Volet andeems se seet: "Mir hunn de Client, de
Produit an ech dati vun der Depot. Mir halen aus der Distanz bis
eng aner Iteratioun.
"Falsch Äntwert. Dës Zort vu Geschäftsproblem betrëfft
ganz BI. Et stellt eng méi déif Verständnis vun der
eist Geschäft an e robusten analytesche Raum fir eis Analysten.
BI ass iwwer einfach Ufroen oder Standard Berichterstattung, entweder
souguer OLAP. Dëst ass net ze soen datt dës Technologien feelen
si sinn wichteg fir Är BI, mee selwer sinn se net
BI Ëmfeld.
Design fir Informatiounskontext
(Design fir Informatiounsinhalt)
Elo datt mir d'Geschäftsfuerderunge identifizéiert hunn déi erausstinn
verschidde fundamental Komponente, muss an engem Design abegraff ginn
allgemeng architektonescht. E puer vun de BI Komponente sinn Deel
vun eisen initialen Efforten, während e puer net ëmgesat ginn fir
puer Méint.
Allerdéngs sinn all bekannt Ufuerderunge am Design reflektéiert sou datt
wa mir brauchen eng bestëmmte Technologie ëmzesetzen, mir sinn
prett et ze maachen. Eppes iwwer de Projet wäert d'Denken reflektéieren
traditionell.
Zum Beispill, Figur 1.1, um Ufank vum Kapitel, weist eng Donnéeën
mart déi ënnerhält ech dati dimensional.
Dëse Set vun dati gëtt benotzt fir spéider Gebrauch vun ze ënnerstëtzen
dati dimensional gedriwwe vun Business Problemer déi
mir hunn identifizéiert. Wéi déi zousätzlech Dokumenter sinn
generéiert, wéi den Design Entwécklung vun dati, mir
mir fänken un ze formaliséieren wéi ech dati si verbreet an der Ëmwelt.
Mir hunn festgestallt, datt de Besoin fir i dati esou
dimensional, ënnerdeelt se (no spezifesche Besoinen
bestëmmt) op Daten Mäerz.
Déi nächst Fro fir ze beäntweren ass wéi se gebaut ginn
dës daten Marts?
Baut Dir d'Stäre fir d'Würfel z'ënnerstëtzen, oder just Würfel, oder just d'Stären?
(oder richteg Cubë, oder richteg Stären). Generéiere d'Architektur fir d'Donnéeën
ofhängeg Marts déi eng Atomschicht fir all erfuerderen dati
kaaft Dir? Erlaabt onofhängeg Datemarch fir i dati
direkt aus Betribssystemer?
Wéi eng Cube Technologie wäert Dir probéieren ze standardiséieren?
Dir hutt massiv Quantitéiten vu Gëtter dati néideg fir dimensional Analyse
oder braucht Dir d'Cubes vun Ärer national Ofsaz Kraaft op engem
wöchentlech Basis oder béid? Baut e mächtegt Element
wéi DB2 OLAP Server fir Finanzen oder Cognos Cubes
PowerPlay fir Är Verkafsorganisatioun oder béid?
Dëst sinn déi grouss architektonesch Design Décisiounen déi
si beaflossen Äert BI Ëmfeld weider. Jo,
Dir hutt e Besoin fir OLAP identifizéiert. Elo wéi wäert Dir dat maachen
Typ vun Technik an Technologie?
Wéi e puer vun de fortgeschrattsten Technologien Är beaflossen
Zeechnungen? Loosst eis unhuelen datt Dir e Besoin identifizéiert hutt
Plaz an Ärer Organisatioun. Elo musst Dir opruffen
architektonescht Zeechnen Editioune och wann net geplangt vun
ausféieren Raum Komponente fir e puer Méint. Den Architekt muss
Design haut baséiert op wat néideg ass. Virwaat de Besoin fir
raimlech Analyse déi generéiert, späichert, mécht a liwwert
Zougang zu dati raimlech. Dëst am Tour soll déngen als
Beschränkung iwwer d'Zort vun der Technologie a Spezifikatioune
Software Plattform déi Dir de Moment berücksichtegt. Fir
Beispill, der Administratioun System vun Datebank relational
(RDBMS) Dir Leeschtung fir Är atomarer Layer muss hunn
eng robust raimlech Ausmooss verfügbar. Dëst géif garantéieren de
maximal Leeschtung wann Geometrie an Objete benotzt
Plaz an Ären analyteschen Uwendungen. Wann Är RDBMS net
kann ech handhaben dati (raimlech-centric) intern, also Dir musst
stabiliséieren un Datebank (raimlech-zentresch) extern. Dëst komplizéiert de
Thema Gestioun an Afloss Är Gesamtleeschtung,
net ze ernimmen déi zousätzlech Problemer fir Är geschaf
DBAs, well se wahrscheinlech minimal Verständnis hunn
vun de Fundamenter vun dati och raimlech. Op der anerer Säit, wann Äre Motor
RDMBS geréiert all raimlech Komponenten a verbonnen
Optimizer ass bewosst vu spezielle Besoinen (zum Beispill,
Indexéierung) vu raimlechen Objeten, da kënnen Är DBAs handhaben
direkt Themen managen an Dir kënnt se erhéijen
Leeschtung.
Och musst Dir d'Inszenéierungsberäich an d'Schicht upassen
vun atomarer Ëmwelt fir Adressreinigung (un
Schlësselelement fir raimlech Analyse), wéi och déi nächst
spueren Raum Objete. D'Successioun vun Editiounen vun
Zeechnen geet weider elo datt mir d'Notioun vun Botzen agefouert hunn
Adress. Fir eng Saach wäert dës Applikatioun d'Zort diktéieren
néideg Software fir Är ETL Efforten .
Dir braucht Produkter wéi Trillium fir Iech eng Adress ze ginn
propper, oder en ETL Verkeefer vun Ärer Wiel fir dat ze bidden
Funktionalitéit?
Fir de Moment ass et wichteg datt Dir de Standard vum Design schätzt
muss ofgeschloss ginn ier Dir ufänkt Är ëmzesetzen
Ëmwelt (Lager). D'virun Beispiller soll
beweisen d'Villzuel vun Zeechnungsentscheedungen déi musse folgen
d'Identifikatioun vun enger bestëmmter Geschäftsbedéngung. Wann gemaach
richteg, dës Design Décisiounen förderen
der interdependence tëscht de kierperlech Strukture vun Ärer Ëmwelt, der
Auswiel vun Technologie benotzt an de Flux vun Ausbreedung vun der
Informatiounen Inhalt. Ouni dës konventionell Architektur
vun BI, Är Organisatioun wäert zu enger Mëschung Thema ginn
chaotesch vun existéierende Technologien, am beschten, op eng Manéier vereenegt
ongenau fir scheinbar Stabilitéit ze bidden.
Informatiounsinhalt behalen
De Wäert vun Informatioun an Är Organisatioun ze bréngen ass
eng ganz schwéier Operatioun. Ouni genuch Verständnis
an Erfahrung, oder richteg Planung an Design, souguer de
besser Équipë géifen ausfalen. Op der anerer Säit, wann Dir eng super
Intuition an detailléiert Planung awer keng Disziplin fir
Ausféierung, Dir hutt just Är Suen an Zäit verschwenden
well Är Effort ass gebonnen ze versoen. De Message soll
ginn kloer: Wann Dir vermësst een oder méi vun dësen
Kompetenzen, Verständnis / Erfahrung oder Planung / Zeechnen o
Ëmsetzung Disziplin, dëst féiert zu Lähmung oder
zerstéieren d'Gebai vun der BI Organisatioun.
Ass Är Equipe genuch virbereet? Et gëtt een op Ärem
BI Team dat déi grouss analytesch Landschaft verfügbar versteet
an BI Ëmfeld, an déi néideg Techniken an Technologien
déi Landschaft ze bewierken? Et gëtt een an Ärem Team
déi kann den Ënnerscheed vun Applikatioun tëscht fortgeschratt erkenne
statesch Berichterstattung an OLAP, oder d'Ënnerscheeder tëscht ROLAP an OLAP? Ee vun den
Membere vun Ärem Team erkennt kloer de Wee vun
Extrait a wéi et de Lager beaflosse kann oder wéi
kann de Lager d'Miningleistung ënnerstëtzen? E Member
vun der Equipe versteet de Wäert vun dati Raum oder Technologie
Agent baséiert? Hutt Dir een deen déi eenzegaarteg Applikatioun schätzt
vun ETL Tools géint Broker Technologie
Message? Wann Dir et net hutt, kritt een. BI ass vill méi
grouss vun enger normaliséierter Atomschicht, vun OLAP, vun de Schemaen a
Stär an eng ODS.
Hutt d'Verständnis an d'Erfahrung fir Ufuerderungen ze erkennen
vum BI an hir Léisungen ass wesentlech fir Är Fäegkeet
d'Bedierfnesser vun de Benotzer korrekt formaliséieren an ze designen
an ëmsetzen hir Léisungen. Wann Är Benotzergemeinschaft huet
Schwieregkeeten d'Ufuerderunge beschreiwen, et ass d'Aufgab vun der Equipe vun
Lager dat Verständnis liwweren. Mä wann d'Equipe vun
Lager
erkennt net déi spezifesch Uwendung vum BI - zum Beispill Daten
Biergbau- dann ass et net déi bescht Saach datt BI Ëmfeld maachen
limitéiert sech oft passiv Dépôten. Allerdéngs ignoréieren dës
Technologien reduzéieren hir Wichtegkeet an den Effekt net déi se hunn
op d'Entstoe vu Business Intelligenz Méiglechkeeten vun Ärer eegener
Organisatioun, souwéi d'Informatiounsstruktur déi Dir designt
ze förderen.
Planung muss d'Notioun vun Zeechnen enthalen, Ed
souwuel verlaangen eng kompetent Persoun. Plus, Design
et verlaangt eng Equipe werehouse Philosophie an Observatioun
vun de Standarden. Zum Beispill, wann Är Firma eng etabléiert huet
Standard Plattform oder huet eng bestëmmte RDBMS identifizéiert datt Dir
wëllen iwwer d'Plattform standardiséieren, ass et imminent datt
jidderee vun der Equipe hält dës Normen un. Allgemeng een
Team stellt de Bedierfnes fir Normaliséierung aus (fir de Benotzer
Communautéiten), awer d'Equipe selwer ass net gewëllt matzemaachen
Standarden och an anere Beräicher an der Firma oder vläicht souguer an der
ähnlech Firmen. Net nëmmen ass dëst hypokritesch, awer et assuréiert datt d'Firma net
ass fäeg bestehend Ressourcen an Investitiounen ze profitéieren. Et heescht net
datt et keng Situatiounen ginn, déi eng Plattform garantéieren oder eng
net-standardiséierter Technologie; awer, d'Efforte vum Lager
soll jalous bewaachen d'Standarden vun der Entreprise bis zu
datt Geschäftsbedéngungen net anescht diktéieren.
Déi drëtt Schlësselkomponent néideg fir e BI ze bauen
Organisatioun ass d'Disziplin.
Et hänkt am Ganzen gläich vun Individuen an vun der Ëmwelt of.
Projektplaner, Sponsoren, Architekten a Benotzer musse schätzen
Disziplin néideg fir d'Informatiounsstruktur vun der Firma ze bauen.
Designer mussen hir Design Efforten op esou eng Manéier dirigéieren
komplett aner néideg Bestriewen an Societeit.
Zum Beispill, loosst eis soen datt Är Firma e
ERP Applikatioun déi e Lagerkomponent huet.
Also ass et d'Verantwortung vun den ERP Designer fir mat den
Lager Ëmwelt Equipe fir net ze konkurréiere oder
duplizéieren d'Aarbecht déi scho ugefaang huet.
Disziplin ass och en Thema dat beschäftegt muss sinn
vun der ganzer Organisatioun a gëtt normalerweis etabléiert an uvertraut engem
exekutiv Niveau.
Sinn d'Exekutoren gewëllt un eng entworf Approche ze halen? A
Approche déi versprécht Informatiounen Inhalt ze schafen dat ass
schlussendlech bréngt et Wäert fir all Beräicher vun der Entreprise, awer vläicht
Kompromittéiert et individuell oder departemental Agendaen? Erënnert de Spréch
"Iwwer alles denken ass méi wichteg wéi nëmmen un eng Saach ze denken."
Dëst Spréchwuert ass wouer fir BI Organisatiounen.
Leider konzentréiere vill Lagerhaiser hir Efforten
sicht ze fueren a Wäert op eng bestëmmte Departement oder engem bréngen
spezifesch Benotzer, mat wéineg Respekt fir Organisatioun an
allgemeng. Ugeholl datt de Manager Hëllef vum Team freet um
warehouse. D'Equipe reagéiert mat enger Aarbecht déi gedauert 90 Deeg déi
ëmfaasst net nëmmen d'Liwwerung vun der Notifikatioun Ufuerderunge definéiert vun der
Manager awer garantéiert datt all dati Basis ginn an d'Schicht gemëscht
atomar ier se an d'Würfeltechnologie agefouert ginn
Propositioun.
Dësen Ingenieurszousaz suergt dofir datt d'Entreprise vun
werehouse wäert profitéieren dati néideg fir de Manager.
Wéi och ëmmer, den Exekutiv huet mat externe Berodungsfirmen geschwat
hunn eng ähnlech Applikatioun mat Liwwerung a manner wéi 4 proposéiert
Wochen.
Unzehuelen, datt déi intern warehouse Equipe kompetent ass, der
Manager huet e Choix. Wien kann d'Disziplin vun ënnerstëtzen
zousätzlech Ingenieur néideg fir de Verméigen ze wuessen
informativ Geschäft oder Dir kënnt wielen Äert eegent ze kreéieren
Léisung séier. Déi lescht schéngt wierklech gewielt ze sinn
ze oft an déngt nëmmen Informatiounen Behälter vun schafen
déi profitéiert nëmmen e puer oder déi eenzel.
Kuerz- a laangfristeg Ziler
Architekten a Projet Designer musse formaliséieren a
laangfristeg Visioun vun der Gesamtarchitektur a Pläng fir
wuessen an enger BI Organisatioun. Dës Kombinatioun vun
kuerzfristeg Gewënn a laangfristeg Planung
vertrieden déi zwou Säiten vun BI Efforten . Kuerzfristeg Gewënn
Frist ass d'Facet vum BI déi mat Iteratiounen vun der assoziéiert ass
Äre Lager.
Dëst ass wou Planer, Architekten a Sponsore konzentréieren
treffen spezifesch Affär Ufuerderunge. Et ass op dësem Niveau wou de
kierperlech Strukture gebaut ginn, Technologie gëtt kaaft an d'
Techniken ëmgesat ginn. Si sinn guer net gemaach fir ze këmmeren
spezifesch Ufuerderunge wéi definéiert vu bestëmmte Benotzergemeinschaften.
Alles gëtt gemaach fir spezifesch definéiert Ufuerderungen unzegoen
vun enger bestëmmter Gemeinschaft.
Laangfristeg Planung ass awer déi aner Facet
vum BI. Dëst ass wou d'Pläng a Projete gesuergt hunn datt et war
gebaut all kierperlech Struktur, der gewielter Technologien an der
realiséiert Techniken mat engem Aen op d'Entreprise gemaach. An déi
laangfristeg Planung déi Kohäsioun bitt
néideg fir sécherzestellen datt d'Geschäftsvirdeeler fir all zoukommen
déi kuerzfristeg Gewënn fonnt.
Justifiéiert Är BI Effort
Un daten Lager u sech huet et keen inherente Wäert. An anerem
Wierder, et gëtt keen inherent Wäert ënnert den Technologien vun
Lager an Ëmsetzung Techniken.
De Wäert vun all Lager Effort gëtt an den Aktiounen fonnt
duerchgefouert no der Lagerëmfeld an Inhalt
informativ kultivéiert mat der Zäit. Dëst ass e kritesche Punkt fir ze verstoen
ier Dir jeemools probéiert de Wäert vun all Initiativ vun ze schätzen
wouhaus.
Ze dacks probéieren d'Architekten an d'Designer de Wäert anzesetzen
kierperlech an technesch Komponente vum Lager, wann tatsächlech de Wäert ass
baséiert op Geschäftsprozesser déi positiv beaflosst sinn
Lager a gutt erfaasst Informatioun.
Hei läit d'Erausfuerderung vum BI opzebauen: Wéi berechtegt Dir d'Investitioun?
Wann de wouhaus selwer keen intrinsesche Wäert huet, sinn d'Designer vun
Projet muss d'Virdeeler ënnersichen, definéieren an formaliséieren
erreecht vun deenen Eenzelpersounen déi de Lager benotze fir
verbesseren spezifesch Affär Prozesser oder de Wäert vun
geschützt Informatioun oder béid.
Fir d'Saache komplizéiert, all Geschäftsprozess
betraff vun Lager Efforten kéint Virdeeler ginn
"bedeitend" oder "liicht". Bedeitend Virdeeler bidden eng
konkret Metrik fir Rendement op Investitioun (ROI) ze moossen - z.B
Zum Beispill, Inventar eng zousätzlech Zäit während enger Period ëmsetzen
spezifesch oder fir méi niddreg Versandkäschte pro Sendung. Et ass méi
Et ass schwéier déi liicht Virdeeler ze definéieren, sou wéi e verbesserten Zougang zu
Informatioun, a punkto konkrete Wäert.
Connect Äre Projet ze léieren iwwer de
Business Demanden
Ze oft probéieren Projet Designer de Wäert ze verbannen
vum Lagerhaus mat amorphen Firmenziler. Dat erklären
"De Wäert vun engem Lager baséiert op eis Fäegkeet fir
zefridden strategesch Ufroen» mir oppen der
Ried. Mee et eleng geet net duer fir ze bestëmmen ob
Investitioun an Inventar mécht Sënn. Et ass besser fir Wiederholungen ze verbannen
vu Lagerhaiser mat spezifeschen a bekannte Geschäftsufroen.
Miessung ROI
Berechent ROI an engem Warehouse Kader kann
besonnesch schwéier. Et ass besonnesch schwéier wann de Virdeel
Prinzip vun enger bestëmmter Widderhuelung ass eppes immateriellt oder
einfach ze moossen. Eng Etude huet festgestallt datt d'Benotzer gesinn
déi zwee Haaptvirdeeler vun BI Initiativen:
▪ Schafen d'Fäegkeet fir Entscheedungen ze kreéieren
▪ Schafen Zougang zu Informatiounen
Dës Virdeeler si mëll (oder mëll) Virdeeler. Et ass einfach ze gesinn
wéi kënne mir e ROI berechnen baséiert op engem haarde Lead (oder
méi grouss) wéi d'Reduktioun vun de Käschte vum Transport, awer wéi
moosse mir d'Fäegkeet besser Entscheedungen ze treffen?
Dëst ass definitiv eng Erausfuerderung fir Projet Designer wann
si versichen d'Firma ze iwwerzeegen an engem bestëmmten ze investéieren
Lager Efforten . Erhéijung Ofsaz oder Ofsenkung Käschten
si sinn net méi déi zentral Themen déi d'BI-Ëmfeld féieren.
Amplaz kuckt Dir op Geschäftsufroe fir Zougang
beschten zu Informatiounen sou datt eng bestëmmte Departement kann
méi séier Entscheedungen huelen. Dëst sinn strategesch Chauffeuren a
déi fir d'Geschäft gläich wichteg sinn awer sinn
méi zweedeiteg a méi schwéier ze charakteriséieren an enger konkreter Metrik.
An dësem Fall kann d'Berechnung vum ROI täuschend sinn, wann net irrelevant.
Projektdesigner mussen fäeg sinn Wäert ze weisen
konkret fir Exekutoren ze entscheeden ob se investéiere wëllen
eng bestëmmte Widderhuelung gëllt. Mir wäerten awer keng nei proposéieren
Methode fir d'Berechnung vum ROI, an och keng Argumenter fir oder
dogéint.
Et gi vill Artikelen a Bicher verfügbar déi d'Grondlage fir diskutéieren
ROI berechnen. Et gi speziell Wäertpropositioune als Wäert
op Investitioun (VOI), ugebuede vu Gruppen wéi Gartner, wat Dir kënnt
fir Fuerschung. Amplaz wäerte mir op Kär Aspekter vun all konzentréieren
ROI oder aner Wäertpropositioune déi Dir braucht ze berücksichtegen.
ROI uwenden
Doriwwer eraus der "haard" Virdeeler vs "mëll" Virdeeler Argument
mat BI Efforten assoziéiert ginn et aner Themen ze berücksichtegen
wa mir ROI applizéieren. Zum Beispill:
Zouzeschreiwen ze vill spueren ze DW Efforten déi kommen
op jiddfer Fall
Loosst d'soen Är Firma goung vun enger Architektur vun
Mainframe zu engem verdeelt UNIX Ëmfeld. Also iergendeen
spueren déi aus deem Effort realiséiert (oder vläicht net).
soll net exklusiv, wann iwwerhaapt (?), zougeschriwwe ginn
Lager.
Net alles ze berechnen ass deier. An et gi vill Saachen ze maachen
Rechnung huelen. Bedenkt déi folgend Lëscht:
▪ Start-up Käschten, dorënner Machbarkeet.
▪ Käschte vun enger spezieller Hardware mat verbonne Späichere e
Kommunikatiounen
▪ Käschte vun der Software, dorënner Gestioun dati an Extensiounen
Client/Server, ETL Software, DSS Technologien, Tools
Visualiséierung, Programméierung a Flowapplikatiounen
Aarbecht an Iwwerwachung Software,.
▪ Struktur Design Käschten dati, mat Réalisatioun, an
d'Optimisatioun vun
▪ Softwareentwécklungskäschte direkt mam Effort verbonnen
BI
▪ Käschte vun doheem Ënnerstëtzung, dorënner Optimisatioun vun
Leeschtung, dorënner Software Versioun Kontroll an
hëllefen Operatiounen
Benotzt "Big-Bang" ROI.
D'Schafe vum Lager als eenzegen a giganteschen Effort
ass gebonnen ze versoen, also berechent och de ROI fir eng Initiativ
vu grousser Entreprise D'Offer iwwerraschend, an datt d'Designer
weider schwaach Versich ze maachen de Wäert vun der Ganzen ze schätzen
Efforten .
Well Designer probéieren e monetäre Wäert ze ginn
op d'Geschäftsinitiativ, wann et allgemeng bekannt an ugeholl gëtt, datt
Ass et schwéier fir spezifesch Reps ze schätzen? Wéi ass et méiglech? Et ass net
méiglech mat puer Ausnahmen. Maacht et net.
Elo wou mir festgestallt hunn wat net maache beim Berechnen
ROI, et ginn e puer Punkten hei déi eis hëllefen bei der Definitioun
en zouverléissege Prozess fir de Wäert vun Äre BI Efforten ze schätzen.
Erhalen ROI Konsens. Onofhängeg vun Ärem
Wiel vun Technik de Wäert vun Ärer BI ze schätzen Efforten , muss
vun alle Parteien ausgemaach ginn, dorënner Projet Designer,
d'Sponsoren a Firmechef.
Reduzéieren ROI an erkennbar Deeler. E noutwendege Schrëtt a Richtung
raisonnabel Berechnung vun engem ROI ass dës Berechnung op eng konzentréieren
spezifesche Projet. Dëst erlaabt Iech dann e Wäert ze schätzen
baséiert op spezifesch Geschäftsbedéngungen déi erfëllt sinn
Definéiert d'Käschten. Wéi erwähnt, musse vill Käschten sinn
betruecht. Ausserdeem mussen d'Käschte net nëmmen verbonne Käschten enthalen
op déi eenzel Iteratioun awer och un déi verbonne Käschten
fir d'Konformitéit mat de Firmenormen ze garantéieren.
Definéieren Virdeeler. Kloer ROI un Ufuerderunge verbënnt
spezifesch Entreprisen, solle mir fäheg sinn der z'identifizéieren
Virdeeler déi d'Ufuerderunge erfëllen.
Reduzéieren Käschten a Virdeeler an imminent Gewënn. Et ass de Wee
Bescht fir Är Bewäertungen op Nettoaktuell Wäert ze baséieren
(NPV) am Géigesaz zum Versuch fir zukünfteg Wäert virauszesoen
zukünfteg Akommes.
Halt den Timing fir Äre ROI op e Minimum opzedeelen. AN'
gutt dokumentéiert iwwer déi laang Zäit et an Ärem benotzt gouf
ROI
Benotzt méi wéi eng ROI Formel. Et gi vill Methoden fir
ROI Prognose an Dir sollt plangen ob een oder
plus, inklusiv den Nettoaktuelle Wäert, déi intern Geschwindegkeet vum Retour
(IRR) an Erhuelung.
Definéieren widderholl Prozess. Dëst ass entscheedend fir d'Berechnung
all laangfristeg Wäert. Et soll dokumentéiert ginn a
eenzege repeatable Prozess fir all Projet subsequences a
nogoen.
D'Problemer opgezielt sinn déi heefegst, déi vun Experten definéiert sinn
vun der warehouse Ëmfeld. D'Insistenz op der Säit vun der Gestioun vun
e "Big-Bang" ROI geliwwert ze hunn ass ganz konfus. Wann Dir all ufänken
Är ROI Berechnungen andeems Dir se an erkennbar a konkret Stécker reduzéiert, hutt Dir
eng gutt Chance fir eng korrekt ROI Bewäertung ze schätzen.
Froen iwwer ROI Virdeeler
Egal wat Är Virdeeler sinn, mëll oder schwéier, Dir kënnt se benotzen
e puer grondleeënd Froen hire Wäert ze bestëmmen. Zu
Beispill mat engem einfachen Skala System, aus 1 ze 10, Dir
Dir kënnt den Impakt vun all Effort verfollegen déi folgend
Froen:
▪ Wéi géift Dir Versteesdemech vun dati folgenden dëser
Projet vun Ärer Firma?
▪ Wéi géift Dir Prozessverbesserungen als Resultat schätzen
dëse Projet?
▪ Wéi géift Dir den Impakt vun neien Abléck an Inferenzen elo moossen
vun dëser Iteratioun zur Verfügung gestallt
▪ Wat war den Impakt vun neie Computerëmfeld e
Leeschtung als Resultat vun deem wat geléiert gouf?
Wann d'Äntwerten op dës Froen wéineg sinn, ass et méiglech
d'Firma ass d'Investitioun net wäert. D'Froen mat engem héich
punteggio puntano a guadagni di valore significativi e dovrebbero
servire come guide per ulteriore indagine.
Ad esempio, un alto punteggio per miglioramenti di processo
dovrebbe portare i progettisti a esaminare come i processi sono
stati migliorati. Potete trovare che alcuni o tutti i guadagni ottenuti
sono tangibili e quindi un valore monetario può essere prontamente
applizéiert.
Déi meescht aus der éischter Iteratioun vun der
Lager
Il risultato più grande del vostro sforzo di impresa è spesso nelle
prime poche iterazioni. Questi primi sforzi tradizionalmente
stabiliscono il più utile contenuto informativo per il pubblico e
stabilisce l’aiuto alla fondazione di tecnologia per le successive
applicazioni della BI.
Di solito ogni successiva sottosequenza di dati di progetto di
warehouse portano sempre meno valore aggiuntivo all’impresa in
generale. Questo è particolarmente vero se l’iterazione non
aggiunge nuovi argomenti o non soddisfa le necessità di una nuova
comunità di utenti.
Questa caratteristica di immagazzinare si applica anche alle pile
crescenti di dati Historiker. Wéi pafolgende Efforten verlaangen méi
dati a wéi méi dati ginn iwwer Zäit an d'Lager gegoss, déi meescht vun de
dati gëtt manner relevant fir d'Analyse benotzt. Dës dati Toun
spesso chiamati dati assopiti ed è sempre costoso tenerli perché
non vengono quasi mai utilizzati.
Cosa significa questo per gli sponsor di progetto? Essenzialmente, i
primi sponsor condividono di più di quanto costa l’investimento.
Questo è primario perché essi sono l’impeto per fondare lo strato di
largo ambiente tecnologico e delle risorse del warehouse,
compreso organico.
Ma questi primi passi portano il valore più alto e quindi i progettisti
di progetto devono spesso giustificare l’investimento.
I progetti fatti dopo la vostra iniziativa BI possono avere costi
inferiori ( comparati con la prima) e diretti, ma portano meno valore
all’impresa.
E proprietari dell’organizzazione devono iniziare a considerare
buttare l’accumulo di dati a manner relevant Technologien.
Data Mining: Extraktioun Dati
Numerosi componenti architettonici richiedono variazioni di
tecnologie e tecniche di data mining—
zum Beispill, déi verschidde "Agenten" fir d'Untersuchung vun de Punkte vun Interessi vun der
Clienten, i sistemi operativi dell’azienda e per lo stesso dw. Questi
agenti possono essere reti neurali avanzate addestrate alle
tendenze del POT, quale la richiesta futura del prodotto basata sulle
promozioni di vendite; motori basati sulle regole (rules-based) per
reagire a un insieme dato di circostanze, ad esempio, diagnosi
medica e raccomandazioni di trattamento; o persino agenti semplici
col ruolo di riportare le eccezioni ai dirigenti superiori (top
executives). Generalmente questi processi di estrazione dati si
verificano in tempo reale; quindi, essi devono essere uniti
completamente con il movimento dei dati sech selwer.
Online analytesch Veraarbechtung Veraarbechtung
Online Analytics
La capacità di affettare, spezzettare, arrotolare, trapanare giù (drilldown)
ed effettuare l’analisi
cosa-se, è all’interno dell’ambito, dell’obiettivo della suite
tecnologica IBM. Ad esempio, le funzioni di trattamento analitico
online (OLAP) esistono per DB2 che porta l’analisi dimensionale nel
motore del Datebank selwecht.
Le funzioni aggiungono l’utilità dimensionale a SQL mentre
sfruttano tutti i benefici di essere una parte naturale di DB2. Un altro
esempio di integrazione di OLAP è lo strumento di estrazione, DB2
OLAP Analizzatore Server. Questa tecnologia permette ai cubi del
Server DB2 OLAP di essere rapidamente e automaticamente
analizzati per individuare e riferire su valori dei dati insoliti o inattesi
per tutto il cubo all’analista commerciale. E, infine, le funzioni del
Centro di DW forniscono mezzi perché architetti controllino, tra le
altre cose, il profilo di un cubo server DB2 OLAP come una parte
naturale dei processi ETL.
Raumlech Analyse Raumlech Analyse
Lo spazio rappresenta la metà delle ancore (conduzioni) analitiche
necessarie per un panorama
analitico largo (il tempo rappresenta l’altra metà). Il livello atomico
(atomic-level ) del magazzino, rappresentato nella Figura 1.1,
include i fondamenti sia per tempo che per spazio. Le registrazioni
dell’ora ancorano analisi per tempo e informazioni di indirizzo
ancorano analisi da spazio. Le marcatura orarie (Timestamps)
conducono l’analisi per tempo, e l’informazione di indirizzo conduce
l’analisi per spazio. Il diagramma mostra geocoding–processo di
conversione indirizzi a punti in una mappa o punti nello spazio
cosicché i concetti come distanza e interno/esterno possano essere
utilizzati nell’analisi–condotto a livello atomico e l’analisi spaziale
che è messa a disposizione dell’analista. IBM fornisce estensioni
spaziali, sviluppati con l’Istituto Ricerca Sistema Ambientale (ESRI),
al Datebank DB2 in modo che gli oggetti spaziali possano essere
conservati come una parte normale del Datebank relational. DB2
Spatial Extenders, forniscono anche tutte le estensioni SQL per
sfruttare l’analisi spaziale. Ad esempio, le estensioni SQL da
interrogare sulla
distanza fra indirizzi o se un punto è interno o esterno ad un’area
poligonale definita, sono uno standard analitico con il Spatial
Extender. Consultate il capitolo 16 per ulteriori informazioni.
Datebank-Resident Tools Tools Datebank-
Awunner
DB2 ha molte caratteristiche SQL BI-resident che assistono
nell’azione di analisi. Questi includono:
▪ Le funzioni di ricorsione per eseguire analisi, come “trovare
tutti i possibili percorsi di volo da San Francisco a New York".
▪ Le funzioni analitiche per il ranking, funzioni cumulative, cubo
e rollup per agevolare i compiti che normalmente si verificano
solo con la tecnologia OLAP, sono ora una parte naturale del
motore del Datebank
▪ La capacità di creare tabelle che contengano risultati
D'Verkeefer vun Datebank leader mischiano di più delle funzionalità BI
an Datebank selwecht.
D'Haaptrei Fournisseuren vun Datebank stanno mescolando più delle
funzionalità della BI nel Datebank selwecht.
Ciò fornisce le prestazioni migliori e più opzioni di esecuzione per le
soluzioni della BI.
Le caratteristiche e le funzioni di DB2 V8 sono discusse
dettagliatamente nei seguenti capitoli:
Technical Architecture and Data Management Foundations
(Kapitel 5)
▪ DB2 Fondamenti della BI (BI Fundamentals) (Chapter 6)
▪ DB2 Tabelle di query materializzate (Materialized Query
Tables) (Chapter 7)
▪ DB2 Funzioni OLAP (OLAP Functions) (Chapter 13)
▪ DB2 Caratteristiche e funzioni potenziate di BI (Enhanced BI
Features and Functions) (Chapter 15)
Vereinfacht Daten Liwwerung System
Liwwerung System vun dati vereinfacht
L’architettura rappresentata nella figura 1.1 include numerose
Strukturen dati kierperlech. Eent ass de Lager vun dati operationell.
Generalmente, un ODS è un oggetto orientato (subject oriented),
integrato e corrente. Costruireste un ODS per sostenere, ad
esempio, l’ufficio vendite. Le vendite ODS integrerebbero dati
provenienti da numerosi sistemi diversi ma manterrebbe solo, ad
esempio, le transazioni di oggi. L’ODS può essere aggiornato
anche molte volte al giorno. Contemporaneamente, i processi
spingono i dati integrati in altre applicazioni. Questa struttura è
progettata specificatamente per integrare dati correnti e dinamici e
sarebbe un candidato probabile a sostenere analisi in tempo reale,
come fornire ad agenti di servizio Clienten le informazioni di vendite
correnti di un cliente estraendo informazioni di tendenza di vendite
dal magazzino stesso. Un’altra struttura mostrata nella figura 1.1 è
uno stato formale per il dw. Non solo questo è il luogo per
l’esecuzione della necessaria integrazione, della qualità di dati, e
della trasformazione dei dati di magazzino in arrivo, ma è anche
un’area di deposito affidabile e provvisoria per dati replicati che
potrebbero essere utilizzati in analisi in tempo reale. Se decidete di
utilizzare un ODS o una zona di organizzazione (staging area), uno
dei migliori strumenti per popolare queste strutture dati benotzen
diverse sorgenti operative è la query distribuita eterogenea di DB2.
Questa capacità è consegnata dalla caratteristica opzionale di DB2
chiamata DB2 Relational Connect (solo query) e attraverso DB2
DataJoiner (un prodotto separato che consegna la domanda,
l’inserto, l’aggiornamento e la possibilità di cancellazione a
RDBMSs distribuito eterogeneo).
Dës Technologie erlaabt Architekten dati ze bannen dati di
produzione con processi analitici. Non solo può la tecnologia
adattarsi virtualmente a una qualunque delle richieste di replica che
potrebbero presentarsi con l’analisi in tempo reale, ma esso
possono anche collegare ad un’ampia varietà delle basi di dati méi
popolari, compreso DB2, Oracle, Sybase, assistente di SQL,
Informix ed altri. DB2 DataJoiner può essere utilizzato per popolare
eng Struktur dati formale come un ODS o anche una tabella
permanente rappresentata nel magazzino progettata per ripristino
rapido di aggiornamenti istantanei o per vendita. Naturalmente,
queste stesse strutture dati kënne benotzt ginn
aner wichteg Technologie entworf fir Replikatioun vun dati, IBM
DataPropagator Relational. (DataPropagator è un prodotto separato
per sistemi centrali. DB2 UNIX, Linux, Windows e OS/2 includono
servizi di replica di dati als Standard Feature).
Aner Method fir Plënneren dati operativi intorno
all’impresa è un integratore di applicazione di impresa altrimenti
noto come message broker(mediatore del messaggio).Questa
tecnologia unica permette controllo impareggiabile per centrare
(targeting) e spostare dati intorno all’impresa. IBM ha il mediatore
del messaggio più ampiamente usato, MQSeries, o una variazione
del prodotto che comprende i requisiti di E-commerce, IBM
WebSphere MQ.
Per più discussione su come sfruttare MQ per sostenere un
magazzino e un ambiente BI, visitare Websäit del libro. Per ora, è
sufficiente dire che questa tecnologia è un mezzo eccellente per
catturare e trasformare (utilizzando MQSeries Integrator) dati
operativi centrati (targeted) reclutati per soluzioni della BI. La
tecnologia MQ è stata integrata e impacchettata in UDB V8, il che
significa che le code dei messaggi possono ora essere gestite
come se esse fossero tabelle DB2. Il concetto di saldatura dei
messaggi in coda e dell’universo di Datebank relazionale si dirige
verso un ambiente potente di consegna di dati.
Null latency Null latency
L’obiettivo strategico finale per IBM è analisi di latenza nulla (zerolatency).
Come definito da
Gartner, un sistema BI deve essere in grado di dedurre, assimilare
e fornire informazioni per analisti su richiesta. La sfida,
naturalmente, sta nel come mescolare dati correnti e in tempo reale
con informazioni storiche necessarie, quali i dati relativi modello/di
tendenza, o la comprensione estratta, come delineamento del
Client
Esou Informatiounen ëmfaasst, zum Beispill, d'Identifikatioun vun Clienten ad
alto o basso rischio o quali prodotti i Clienten acquisteranno molto
probabilmente se essi hanno già del formaggio nei loro carrelli di
acquisti.
Ottenere latenza nulla è effettivamente dipendente da due
meccanismi fondamentali:
▪ Unione completa dei dati che vengono analizzati con le
tecniche stabilite e con gli strumenti realizzati dalla BI
▪ Un sistema di consegna di dati efficiente per assicurare che
l’analisi in tempo reale sia realmente disponibile
Questi prerequisiti per latenza nulla non sono differenti dai due
obiettivi stabiliti da IBM e descritti precedentemente.
L’accoppiamento stretto dei dati fa parte del programma di
integrazione senza cuciture disposto dalla IBM. E creare un sistema
di consegna di dati efficiente è completamente dipendente dalla
tecnologia disponibile che semplifica il processo di consegna di
dati. Di conseguenza, due dei tre obiettivi di IBM sono fondamentali
a realizzare il terzo. IBM sta sviluppando coscientemente la sua
tecnologia per assicurare che la latenza nulla sia una realtà per gli
sforzi del magazzino.
Resumé / Synthese
L’organizzazione della BI fornisce una mappa di strada per
realizzare il vostro ambiente
iterativamente. Deve essere regolato per riflettere le necessità dei
vostri affari, sia attuali che futuri. Senza una visione architettonica
larga, le ripetizioni di magazzino sono poco più che delle
implementazioni casuali del magazzino centrale che fanno poco per
creare un’impresa larga, informativa.
Il primo ostacolo per i responsabili di progetto è come giustificare gli
investimenti necessari per lo sviluppo dell’organizzazione della BI.
Benché il calcolo del ROI sia rimasto un sostegno principale per
realizzazioni di magazzino, esso sta diventando più difficile da
predire esattamente. Questo ha condotto ad altri metodi per la
determinazione se state ottenendo il valore del vostro denaro. Il
valore sull’ investmento2 (VOI), ad esempio, viene procacciato
come una soluzione.
È incombente sugli architetti di dati e sui pianificatori di progetto
generare e fornire deliberatamente informazioni alle associazioni di
utenti e non dare semplicemente un servizio sui dati. C’è una
differenza enorme fra i due. L’informazione è qualcosa che fa una
differenza nei processi decisionali e nell’efficacia; relativamente, i
dati si sinn Bausteng fir dës Informatioun ze kréien.
Och wann ech der Quell kritesch sinn dati per indirizzare richieste
commerciali, l’ambiente BI dovrebbero servire un ruolo più grande
nella creazione di contenuto delle informazioni. Dobbiamo prendere
le misure supplementari per pulire, integrare, trasformare o
diversamente creare un contenuto di informazioni secondo cui gli
utenti possano agire, e quindi dobbiamo assicurarci che quelle
azioni e quelle decisioni, dove ragionevole, abbiano un riscontro
nell’ambiente BI. Se releghiamo il magazzino a servire solo su dati,
è assicurato che le associazioni di utenti creeranno il contenuto
delle informazioni necessarie per agire. Questo assicura che la loro
comunità sarà in grado di prendere decisioni migliori, ma l’impresa
soffre della mancanza di conoscenza che essi hanno utilizzato.
Tatsaach che gli architetti e i pianificatori di progetto iniziano i progetti
specifici nell’ambiente BI, essi rimangono responsabili all’impresa
nell’insieme. Un esempio semplice di questa caratteristica a due
facce delle iterazioni della BI è trovato nella sorgente dati. All déi
dati ricevuti per richieste commerciali specifiche devono essere
popolati nel primo strato atomico. Questo garantisce lo sviluppo del
bene di informazioni aziendale, così come gestire, indirizzare le
richieste specifiche di utente definite nella iterazione.

W h a t i s a D a t a W a r e h o u s e ?
Donnéeën Lager è il cuore dell’architettura dei sistemi informative
dal 1990 e supporta i processi informativi offrendo una solida
piattaforma integrata di dati storici presi come base per successive
analisi. I daten Lager offrono la facilità di integrazione in un
mondo di sistemi applicativi non compatibili tra loro. Data
warehouse si è evoluto fino a diventare una moda. Donnéeën Lager
organiséieren a späicheren ech dati necessari per processi informativi e
analitici sulla base di una lunga prospettiva storica temporale. Tutto
ciò comporta un notevole e costante impegno nella costruzione e
nel mantenimento del daten Lager.
Also wat ass eng daten Lager? A daten Lager An:
▪ orientato ai soggetti
▪ sistema integrato
▪ tempo variante
▪ non volatile ( non si cancella )
eng Sammlung vun dati usati in supporto a decisioni manageriali nella
realizzazione dei processi.
I dati agesat daten Lager derivano nella maggior parte dei
casi da ambienti operazionali. Il daten Lager è realizzato da una
unità di memorizzazione, fisicamente separata dal resto del
sistema, che contiene dati precedentemente trasformati dalle
applicazioni che operano sulle informazioni derivanti dall’ambiente
operationell.
Déi wuertwiertlech Definitioun vun engem daten Lager merita un’approfondita
spiegazione poichè esistono importanti motivazioni e significati di
fondo che descrivono le caratteristiche di una warehouse.
Sujet ORIENTATIOUN ORIENTATIOUN
THEMATIK
Déi éischt Charakteristik vun engem daten Lager è che è orientato ai
maggior soggetti di un’impresa. La giuda dei processi attraverso i
dati è in contrasto con il più classico metodo che prevede
l’orientamento delle applicazioni verso i processi e le funzioni,
metodo per la maggior parte condiviso dalla maggior parte dei
meno recenti sistemi direzionali.
Il mondo operativo è progettato intorno ad applicazioni e a funzioni
quali prestiti, risparmi, bankcard e la fiducia per un’istituzione
finanziaria. Il mondo del dw è organizzato intorno a soggetti
principali quali il cliente, il venditore, il prodotto e l’attività.
L’allineamento intorno ad argomenti influisce sulla progettazione e
sulla realizzazione dei dati trovati nel dw. In modo più rilevante,
l’argomento principale influisce sulla parte più importante della
struttura chiave.
Il mondo del applicazione è influenzato sia dal disegno del data
base che dal disegno del processo (Process design). Il mondo del
dw è concentrato esclusivamente sulla modellazione dei dati Et ass un
disegno del Datebank. Il disegno del processo (nella sua forma
classica) non fa parte dell’ambiente del dw.
Le differenze fra la scelta di applicazione processo/funzione e
scelta per subject si rivelano anche come differenze nel contenuto
dei dati op engem detailléierte Niveau. DEN dati vun der dw net enthalen i dati dass
non saranno usati per il processo di DSS, mentre applicazioni
operationell orientéiert dati enthalen i dati per soddisfare
immediatamente i requisiti funzionale/elaborazione che possono o
meno avere qualsiasi uso per l’analista di DSS.
Un altro modo importante in cui applicazioni operazionali orientate
ai dati ënnerscheeden vun dati vun dw ass an dei Rapporten dati. ech dati
operativi mantengono un rapporto continuo tra due o più tabelle
basato su una regola commerciale che è attiva. I dati di dw
attraversano uno spettro di tempo e i rapporti trovati nel dw sono
molti. Molte regole commerciali ( e corrispondentemente, molti
rapporti di dati ) sinn am Lager vun vertrueden dati tra due o
più tabelle.
(Fir eng detailléiert Erklärung wéi d'Relatiounen tëscht den dati Toun
gestiti nel DW, facciamo riferimento al Tech Topic su quella
questione.)
Da nessuna altra prospettiva che quella della differenza
fondamentale tra una scelta di applicazione functional/process e
una scelta subject, c’è una maggiore differenza tra i sistemi
operativi e i dati an DW.
INTEGRATIOUN INTEGRATIOUN
De wichtegsten Aspekt vum dw Ëmfeld ass datt i dati trovati
all’interno del dw sono integrati facilmente. SEMPRE. SENZA
ECCEZIONI. L’essenza stessa dell’ambiente del dw è che i dati
bannent de Lagergrenzen enthale sinn integréiert.
L’integrazione si rivela in molti modi differenti – nelle convenzioni
identificate consistenti, nella misura di variabili consistenti, nelle
strutture codificate consistenti, negli attributi fisici dei dati
konsequent, etc.
Nel corso degli anni i progettisti di diverse applicazioni hanno fatto
possesso di molte decisioni su come un’applicazione dovrebbe
essere sviluppata. Lo stile e le decisioni progettuali individualizzate
delle applicazioni dei progettisti si rivelano in cento modi: nelle
differenze di codifica, struttura chiave, caratteristiche fisiche,
identificazione convenzioni, e così via. La capacità collettiva di molti
progettisti di applicazione di generare le applicazioni contradditorie
è leggendaria. La figura 3 espone alcune delle differenze più
importanti nei modi in cui le applicazioni sono progettate.
Kodéierung: Kodéierung:
I progettisti di applicazioni hanno scelto la codifica del campo –
sesso- in diversi modi. Un progettista rappresenta il sesso come
una “m” e “f”. Un altro progettista rappresenta il sesso come un “1”
e uno “0”. Un altro progettista rappresenta il sesso come una “x” e
“y”. Un altro progettista rappresenta il sesso come “maschio” e
“femmina”. Non importa molto come il sesso arriva nel DW. La “M”
e la “F” sono probabilmente buone quanto tutta la
rappresentazione.
Cosa importa è che da qualunque origine derivi il campo sesso,
quel campo arriva nel DW in uno stato integrato consistente. Di
conseguenza quando il campo è caricato nel DW da
un’applicazione dove esso è stato rappresentato fuori nel formato
“M” e “F”, i dati muss an DW Format ëmgewandelt ginn.
Miessung vun Attributer: Mooss vun
Attributer:
I progettisti di applicazione hanno scelto di misurare la conduttura in
una varietà di modi nel corso
degli anni. Un progettista memorizza i dati della conduttura in
centimetri. Un altro progettista di applicazione memorizza i dati
della conduttura in termini di pollici. Un altro progettista di
applicazione memorizza i dati della conduttura in milione piedi cubi
al secondo. E un altro progettista memorizza le informazioni della
conduttura in termini di iarde. Qualunque sia la fonte, quando le
informazioni della conduttura arrivano nel DW esse devono essere
misurate nello stesso modo.
Secondo le indicazioni di figura 3 le questioni di integrazione
interessano quasi ogni aspetto del progetto – le caratteristiche
fisiche dei dati, den Dilemma vu méi wéi eng Quell vu dati, la
questione di campioni identificati inconsistenti, formati dei dati
inkonsistent, a sou weider.
Qualunque sia l’argomento di progettazione, il risultato è lo stesso –
i dati devono essere memorizzati nel DW in una singolare e
globalmente accettabile maniera anche quando i sistemi operativi di
fondo memorizzano diversamente i dati.
Quando l’analista DSS guarda il DW, l’obbiettivo dell’analista
dovrebbe essere lo sfruttamento dei dati déi am Lager sinn,
anstatt iwwer d'Kredibilitéit oder d'Konsistenz ze froen
dati.
TIME VARIANCY
Alles ech dati nel DW sono precisi in qualche momento in tempo.
Questa caratteristica base dei dati am DW ass et ganz anescht wéi déi dati
am Betribssystemer Ëmwelt fonnt. DEN dati dell’ambiente operativo sono
precisi come nel momento dell’accesso. In altre parole,
nell’ambiente operativo quando si accede ad una unità dati, ci si
attendete che rifletterà valori precisi come nel momento di accesso.
Perché i dati nel DW siano precisi come in qualche momento nel
tempo (cioè, non “proprio adesso”), si dice che i dati trovati nel DW
sono “time variancy”.
Der Zäit Varianz vun dati vum DW gëtt op ville Weeër bezeechent.
Deen einfachste Wee ass datt ech dati vun engem DW vertrieden dati seng a
lungo orizzonte di tempo – da cinque a dieci anni. L’orizzonte
temporale rappresentato per l’ambiente operativo è molto più breve
▪ dai valori correnti di oggi da fino a sessanta novanta
Le applicazioni che devono funzionare bene e devono essere
disponibili per l’elaborazione delle transazioni devono portare la
quantità minima di dati se esse ammettono qualsiasi grado di
flessibilità. Quindi le applicazioni operative hanno un orizzonte
temporale breve, come un argomento di progettazione di
applicazioni audio.
Il secondo modo in cui ‘time variancy’ compare nel DW è nella
struttura chiave. Ogni struttura chiave nel DW contiene,
implicitamente o esplicitamente, un elemento di tempo, come
giorno, settimana, mese, ecc. L’elemento di tempo è quasi sempre
in fondo alla chiave concatenata trovata nel DW. In queste
occasioni, l’elemento di tempo esisterà implicitamente, come il caso
dove un intero file è duplicato alla fine del mese o del quarto.
Déi drëtt Manéier Zäit Varianz ugewisen ass, datt i dati vun der
DW, appena correttamente registrati, non possono essere
aggiornati. I dati del DW sono, per tutti gli scopi pratici, una lunga
serie di snapshots(istantanea). Naturalmente se la snapshots è
stata presa non correttamente, allora le snapshots possono essere
modificate. Ma assumendo che le snapshots siano fatte
correttamente, esse non vengono modificate appena fatte. In alcuni
casi può essere immorale o anche non valido che le snapshots nel
DW siano modificate. I dati operativi, essendo precisi come nel
momento di accesso, possono essere aggiornati come si presenta
la necessità.
NET-VOLATIL
Déi véiert wichteg Charakteristik vum DW ass datt et net flüchteg ass.
Gli aggiornamenti, inserimenti, cancellazioni e modifiche, sono fatte
regolarmente per gli ambienti operazionali record per record. Ma la
manipolazione di base dei dati che occorrono nel DW è molto più
semplice. Ci sono solo due generi di operazioni che si verificano nel
DW – il caricamento iniziale dei dati an Zougang zu dati. Non c’è
alcun aggiornamento dei dati (nel senso generale di
aggiornamento) nel DW come normale operazione di elaborazione.
Ci sono alcune conseguenze molto potenti di questa differenza di
base fra elaborazione operativa ed elaborazione del DW. Al livello
di progettazione, la necessità di essere cauti sull’aggiornamento
anomalo non è fattore nel DW, poiché l’aggiornamento di dati et ass net
effettuato. Questo significa che a livello fisico di progettazione,
possono essere prese delle libertà per ottimizzare l’accesso ai dati,
in particolare nell’occuparsi degli argomenti di normalizzazione e di
denormalizzazione fisica. Un’altra conseguenza della semplicità
delle operazioni di DW è nella tecnologia sottostante utilizzata per
eseguire l’ambiente di DW. Dovendo supportare aggiornamenti
record per record in linea (così come è spesso il caso con
elaborazione operativa) si richiede che la tecnologia abbia delle
fondamenta molto complesse sotto una apparente semplicità.
La tecnologia che supporta copie di riserva e recupero, transazioni
e integrità dei dati e la scoperta e il rimedio di condizione di stallo è
abbastanza complessa e non necessaria per elaborazione di DW.
Le caratteristiche di un DW, orientamento di progettazione,
integrazione di dati all’interno del DW, time variancy e la semplicità
di gestione dei dati, tutto induce ad un ambiente che è molto, molto
diverso dall’ambiente operativo classico. La sorgente di quasi tutti i
dati di DW sono l’ambiente operativo. È una tentazione pensare
che ci sia una ridondanza massiccia di dati tëscht deenen zwee Ëmfeld.
Infatti la prima impressione che molte persone hanno è quella di
grande ridondanza di dati tëscht Betribssystemer Ëmwelt an Ëmwelt vun
DW. Una tale interpretazione è superficiale e dimostra una
mancanza nel capire che cosa accade nel DW.
Tatsächlech gëtt et e Minimum vu Redundanz dati tra l’ambiente operativo
a vun dati del DW. Consideriamo quanto segue:
▪ I dati si gefiltert dato che si passa dall’ambiente operativo
all’ambiente DW. Molti dati non passano mai fuori
dall’ambiente operativo. Solo che i dati che sono necessari per
l’elaborazione DSS trovano la loro direzione nell’ambiente
▪ l’orizzonte temporale dei dati è molto diverso da un ambiente
all’altro. I dati am Betrib Ëmfeld si ganz frësch. DEN dati
nel DW sono molto più vecchi. Solo dalla prospettiva
dell’orizzonte temporale, c’è la sovrapposizione molto piccola
tra l’ambiente operativo e il DW.
▪ Il DW contiene dati di riepilogo che non si trovano mai
nell’ambiente
▪ I dati subiscono una trasformazione fondamentale dal
momento che passano al La figura 3 illustra che la maggior
parte dei dati sono significativamente modificati a condizione
di essere selezionati e spostati nel DW. Detto in altro modo, la
maggior parte dei dati viene modificata fisicamente e
radicalmente come viene spostata nel DW. Dal punto di vista
dell’integrazione non sono gli stessi dati che risiedono
nell’ambiente operativo.
Alla luce di questi fattori, la ridondanza di dati tra i due ambienti è
un evento raro, che porta a meno dell’ 1% di ridondanza tra i due
ambienti.
D'STRUKTUR VUM WAREHOUS
I DWs hanno una struttura distinta. Ci sono vari livelli riassuntivi e di
dettaglio che demarcano i DWs.
Déi verschidde Komponente vun engem DW sinn:
▪ Metadata
Dati aktuell Detailer
Dati vun alen Detailer
Dati liicht zesummegefaasst
Dati héich zesummegefaasst
Bei wäitem ass d'Haapt Suerg fir de dati vum Detail
correnti. È la preoccupazione principale perché:
▪ I dati di dettaglio correnti riflettono gli avvenimenti più recenti,
che sono sempre di grande interesse e
▪ i dati di dettaglio correnti sono voluminosi perché è
memorizzato al livello più basso di granularità e
▪ i dati di dettaglio correnti sono memorizzati quasi sempre su
memoria su disco, il quale è veloce ad accedere, ma caro e
complesso da
I dati vum Detail wat se méi al sinn dati che sono memorizzati su
qualche memoria di Massa. Ha accesso sporadicamente ed è
memorizzato a un livello di dettaglio compatibile con dati datgliati
correnti. Mentre non è obbligatorio memorizzare su un supporto di
memoria alternativo, a causa del grande volume di dati uniti con
l’accesso sporadico dei dati, der Erënnerung Ënnerstëtzung fir dati di
dettaglio più vecchi non è di solito memorizzato su disco.
I dati liicht zesummegefaasst sinn dati che sono distillati dal basso
livello di dettaglio trovato al corrente livello di dettaglio. Questo
livello del DW è memorizzato quasi sempre su memoria su disco. I
problemi della progettazione che si presentano all’architetto dei dati
am Bau vun dësem Niveau vun der DW sinn:
▪ Quale unità di tempo è la summarization fatta sopra
▪ Quali contenuti, attributi riassumeranno leggermente il
contenuto dei dati
Den nächsten Niveau vun dati am DW fonnt ass, datt vun dati héich
riassunti. I dati altamente riassunti sono compatti e facilmente
accessibili. I dati altamente riassunti sono talvolta trovati
nell’ambiente DW e in altri casi i dati altamente riassunti sono
trovati fuori dalle pareti immediate della tecnologia che ospita il DW.
(in ogni caso, i dati altamente riassunti fanno parte del DW
indipendentemente da dove i dati sono alloggiati fisicamente).
Il componente finale del DW è quello dei metadata. Per molti aspetti
i metadata siedono in una dimensione diversa rispetto ad altri dati
vum DW, well d'Metadate keng enthalen dato direkt
preso dall’ambiente operativo. I metadata hanno un ruolo speciale e
molto importante nel DW. I metadata sono utilizzati come:
▪ una directory per aiutare l’analista DSS ad individuare il
contenuto del DW,
▪ una guida alla mappatura dei dati vun wéi i dati Si woren
trasformati dall’ambiente operativo all’ambiente di DW,
▪ una guida agli algoritmi usati per la summarization tra i dati di
dettaglio correnti e i dati liicht zesummegefaasst, d.h dati héich
Zesummefaassungen,
I metadata giocano un ruolo molto più importante nell’ambiente DW
rispetto a quello che hanno mai avuto nell’ambiente operativo
AAL DETAIL STORAGE MEDIUM
Magnéitband kann benotzt ginn fir dës Zort ze späicheren
dati. Infatti c’è una larga varietà di strumenti di memorizzazione che
dovrebbero essere considerati per la conservazione di vecchi dati di
dettaglio.
A seconda del volume dei dati, la frequenza di accesso, il costo
degli strumenti e il tipo di accesso, esso è completamente probabile
che altri strumenti avranno bisogno del vecchio livello di dettaglio
nel DW.
FLOOS VUN Donnéeën
Et gëtt eng normal an prévisibel Flux vun dati an der DW.
I dati entrano nel DW dall’ambiente operativo. (NOTA: ci sono
alcune eccezioni molto interessanti a questa regola. Tuttavia, quasi
all déi dati gitt den DW aus dem Betribsëmfeld). Tatsaach datt ech dati
entrano nel DW dall’ambiente operativo, è trasformato come è stato
descritto prima. A condizione di entrare nel DW, i dati entrano nel
corrente livello di dettaglio, come mostrato. Risiede là ed è utilizzato
finché uno dei tre eventi si verifica:
▪ è purificato,
▪ è riassunto, e/o
▪ è
Il processo obsoleto dentro un DW sposta i dati aktuell Detailer
a dati vun al Detailer, baséiert op den Alter vun dati. De Prozess
Resumé benotzt den Detail vun dati ausrechnen i dati
liicht zesummegefaasst an déi héich zesummegefaasst Niveauen vun dati. Do sinn
alcune eccezioni al flusso mostrato (sarà discusso più tardi).
Tuttavia, di solito, per la vasta maggioranza dei dati trovati
all’interno di un DW, il flusso di dati et ass wéi duergestallt.
D'DATAWAREHOUS BENOTZEN
Net verwonnerlech déi verschidden Niveauen vun dati all’interno del DW non
ricevono differenti livelli di utilizzo. Di regola, più è alto livello di
summarization, più i dati se benotzt ginn.
Vill Gebrauch geschéien an dati héich zesummegefaasst, iwwerdeems déi al
dati di dettaglio sono utilizzati quasi mai. C’è una buona ragione nel
spostare l’organizzazione al paradigma in utilizzo di risorsa. Più ha
riassunto i dati, Wat méi séier a méi effizient ass fir op de dati. selwer
un Buttek trova che fa molti processi a livello di dettaglio dei DW,
allora una grande quantità corrispondente di risorse di macchina
viene consumato. È nei migliori interessi di ognuno processare
come in un alto livello di summarization appena possibile.
Fir vill Geschäfter huet den DSS Analyst an engem Pre-DW Ëmfeld benotzt
dati um Niveau vum Detail. A ville respektéiert der Arrivée um dati datgliati
somiglia a una coperta di sicurezza, anche quando sono disponibili
altri livelli di summarization. Una delle attività dell’architetto di dati è
disabituare l’utente DSS da un utilizzo costante di dati al livello più
basso di dettaglio. Ci sono due motivazioni a disposizione
dell’architetto di dati:
▪ installando un sistema chargeback, dove l’utente finale paga le
risorse consumate e
▪ che indicano che il tempo di risposta molto buono può essere
ottenuto quando il comportamento con i dati è ad un alto livello
di summarization, mentre il tempo di risposta povero deriva dal
comportamento dei dati op engem nidderegen Niveau
ANERER INTERVIEWER
Ci sono alcune altre considerazioni di costruzione e gestione del
DW.
Déi éischt Iwwerleeung ass déi vun Indizes. DEN dati ai livelli più alti di
summarization possono essere liberamente indicizzati, mentre i dati
ai livelli inferiori di dettaglio sono così voluminosi che può essere
indicizzato frugalmente. Dallo stesso token, i dati agli alti livelli di
dettaglio possono essere relativamente ristrutturati facilmente,
mentre il volume di dati op den ënneschten Niveauen ass et esou grouss, datt d.h dati Net
possono essere ristrutturati facilmente. Di conseguenza, il modello
dei dati e il lavoro formale fatto dalla progettazione pongono la
fondazione per il DW applicata quasi esclusivamente al livello
corrente di dettaglio. In altre parole, le attività di modellazione dei
dati non si applicano ai livelli di summarization, in quasi ogni caso.
Un’altra considerazione strutturale è quella della suddivisione dei
dati vum DW.
Partition kann op zwee Niveauen gemaach ginn - um Niveau vun dbms an al
livello di applicazione. Nella divisione al livello dbmshien dbms è
informato delle divisioni e le controlla di conseguenza. Nel caso di
divisione a livello applicazione, soltanto il programmatore è
informato delle divisioni e la responsabilità della loro
amministrazione è lasciata a lui
Ënnert dem Niveau dbms, molto lavoro è fatto automaticamente. C’è
molta inflessibilità connessa con l’amministrazione automatica delle
divisioni. Nel caso delle divisione a livello applicazione dei dati vun der
daten Lager, molto lavoro grava sul programmatore, ma il
risultato finale è la flessibilità nell’amministrazione dei dati nel data
Lager
ANER ANOMALIEN
Während d'Komponente vun der daten Lager funzionano come descritto
per quasi tutti i dati, ci sono alcune eccezioni utili che devono
essere discusse. Un’eccezione è quella dei dati sommari pubblici
(public summary data). Questi sono dati sommari che sono stati
calcolati fuori dal daten Lager mä si vun Societeit benotzt. DEN dati
Ëffentlech Zesummefaassungen ginn gespäichert a geréiert an der daten Lager,
anche se come detto precedentemente sono calcolati fuori. I
ragionieri lavorano per produrre trimestralmente tali dati wéi de
reddito, le spese trimestrali, profitto trimestrale, e così via. Il lavoro
fatto dai ragionieri è esterno al daten Lager. Allerdéngs, i dati Toun
usati “internamente” alla società – dal Marketing, dalle vendite, ecc.
Un’altra anomalia, di cui non si parlerà, è quella dei dati extern.
Eng aner aussergewéinlech Aart dati che si possono trovare in un data
warehouse è quello dei permanent detail data. Questi provocano la
necessità di memorizzare in modo permanente i dati ad un livello
dettagliato per i motivi etici o legali. Se una società sta esponendo i
relativi operai a sostanze pericolose c’ è un’esigenza di dati
dettagliati e permanenti . Se una società produce un prodotto che
coinvolge la sicurezza pubblica, quali parti di un aeroplano, c’è
l’esigenza di dati dettagliati permanenti, così come se una società
stipula contratti pericolosi.
La società non può permettersi di trascurare i particolari perché
durante i prossimi anni, nel caso di una causa, di un richiamo, di un
difetto di costruzione disputato, ecc. l’esposizione dell’azienda
potrebbe essere grande. Di conseguenza c’è un tipo unico di dati
bekannt als permanent Detailer Donnéeën.
ZUMUMARY
Un daten Lager è un oggetto orientato, integrato, variante di
tempo, una raccolta di dati non volatile a sostegno dei bisogni di
decisione dell’amministrazione. Ciascuna delle funzioni salienti di
un daten Lager ha le relative implicazioni. In più ci sono quattro
Niveau vun dati vun der daten Lager:
▪ Old detail
▪ Current detail
Dati liicht recapituléiert
Dati altamente ricapitolati
I metadati sono inoltre una parte importante del daten Lager.
ABSTRAKT
D'Konzept vun Stockage vun dati recentemente ha ricevuto
molte attenzioni ed è diventato una tendenza degli anni 90. Ciò è
dovuto alla capacità di un daten Lager di sormontare le
limitazioni dei sistemi di supporto dell’amministrazione quali i
sistemi di ausilio decisionale (DSS) ed i sistemi d’informazione
esecutivi (EIS).
Anche se il concetto del daten Lager sembra promettente,
implementare i daten Lager può essere problematico a causa
dei processi d’immagazzinamento su larga scala. Malgrado la
complessità dei progetti d’immagazzinamento di dati, molti fornitori
e consulenti che immagazzinano dati si behaapten dat
l’immagazzinamento di dati attuali non comporta problemi.
Tuttavia, all’inizio di questo progetto di ricerca, quasi nessuna
ricerca indipendente, rigorosa e sistematica era stata effettuata. Di
conseguenza è difficile dire, che cosa realmente accade
nell’industria quando si costruiscono daten Lager.
Questo studio ha esplorato la pratica d’immagazzinamento di dati
contemporanei che punta a sviluppare una comprensione più ricca
della pratica australiana. L’analisi della letteratura ha fornito il
contesto ed il fondamento per lo studio empirico.
Ci sono un certo numero di risultati da questa ricerca. In primo
luogo, questo studio ha rivelato le attività che si sono presentate
durante lo sviluppo del daten Lager. A ville Beräicher, d.h dati gesammelt
hanno confermato la pratica segnalata nella letteratura. In secondo
luogo, le edizioni ed i problemi che possono avere effetto sullo
sviluppo del daten Lager sono stati identificati da questo studio.
Infine, benefici tratti dalle organizzazioni australiane connesse con
l’uso dei daten Lager opgedeckt gi sinn.
Kapital 1
Fuerschung Kontext
Il concetto del data warehousing ha ricevuto una diffusa
esposizione e si è trasformato in una tendenza emergente negli
anni 90 (McFadden 1996, TDWI 1996, Shah e Milstein 1997,
Shanks ed altri. 1997, Eckerson 1998, Adelman e Oates 2000). Ciò
può essere visto dal numero crescente di articoli sul data
warehousing nelle pubblicazioni commerciali (Little e Gibson 1999).
Molti articoli (vedere, per esempio, Fisher 1995, Hackathorn 1995,
Morris 1995a, Bramblett e re 1996, Graham ed altri. 1996,
Sakaguchi e Frolick 1996, Alvarez 1997, Brousell 1997, Clarke
1997, McCarthy 1997, O’ Donnell 1997, Edwards 1998, TDWI
1999) hanno segnalato notevoli benefici tratti dalle organizzazioni
che implementano i daten Lager. Hanno sostenuto la loro teoria
con la prova aneddotale delle implementazioni riuscite, l’alto ritorno
sulle figure di investimento (ROI) e, anche, fornendo la guida di
riferimento o le metodologie per lo sviluppo dei daten Lager
(Shanks ed altri. 1997, Seddon e Benjamin 1998, poco e Gibson
1999). In un caso estremo, Graham ed altri. (1996) hanno
segnalato un ritorno medio su un investimento triennale del 401%.
Gran parte della letteratura attuale, tuttavia, ha trascurato le
complessità coinvolte nell’intraprendere tali progetti. I progetti di
daten Lager sono normalmente complesso e su grande scala e
quindi implicano un’alta probabilità di non riuscire se non sono
controllati con attenzione (Shah e Milstein 1997, Eckerson 1997,
Foley 1997b, Zimmer 1997, Bort 1998, Gibbs e Clymer 1998, Rao
1998). Essi richiedono i vasti importi sia di risorse umane che
finanziarie e, tempo e sforzo per costruirli (Hill 1998, Crofts 1998). Il
tempo tipico ed i mezzi finanziari necessari sono rispettivamente di
circa due anni e di due o tre milioni di dollari (Braly 1995, Foley
1997b, Bort 1998, Humphries ed altri. 1999). Questi tempi e mezzi
finanziari sono richiesti per controllare e consolidare molti aspetti
differenti del data warehousing (Cafasso 1995, Hill 1998). A lato
delle considerazioni hardware e software, altre funzioni, che variano
dall’estrazione di dati zu der Luede Prozesser vun dati, vun der
capacità di memoria per gestire gli aggiornamenti e dai meta dati
fir Benotzer Training, muss considéréiert ginn.
Ai tempi dell’inizio di questo progetto di ricerca, c’era pochissima
ricerca accademica condotta nel campo del data warehousing,
specialmente in Australia. Ciò era evidente dalla penuria di articoli
pubblicati sul data warehousing da giornali o altre scritture
accademiche del tempo. Molte delle scritture accademiche
disponibili descrivevano l’esperienza statunitense. La mancanza di
ricerca accademica nella zona sl data warehousing ha causato la
richiesta di ricerca rigorosa e studi empirici (McFadden 1996,
Shanks ed altri. 1997, Little e Gibson 1999). In particolare, gli studi
di ricerca sul processo di implementazione dei daten Lager
necessitano di essere effettuati per estendere la conoscenza
generale riguardo l’implementazione dei daten Lager e
serviranno come base per un futuro studio di ricerca (Shanks ed
altri. 1997, Little e Gibson 1999).
Lo scopo di questo studio, quindi, è studiare che cosa realmente
accade quando le organizzazioni effettuano ed usano i data
warehouse in Australia. Specificamente, questo studio coinvolgerà
un’analisi di un intero processo di sviluppo di un daten Lager,
iniziando dall’iniziazione e progettazione attraverso il design e
l’inplementazione e il successivo uso all’interno delle organizzazioni
australiane. In più, lo studio inoltre contribuirà al la pratica attuale
identificando le aree in cui la pratica può essere ulteriormente
migliorata e le inefficienze e i rischi possono essere minimizzati o
evitati. Inoltre, servirà da base per altri studi sui daten Lager in
Australia e colmerà il gap attualmente esistente in letteratura.
Fuerschung Froen
L’obiettivo di questa ricerca è studiare le attività coinvolte
nell’implementazione dei daten Lager e il loro uso da parte delle
organizzazioni australiane. In particolare, sono studiati gli elementi
riguardo alla pianificazione di progetto, allo sviluppo, al
funzionamento, all’uso ed ai rischi in questione. Quindi la domanda
di questa ricerca è:
"Wat ass déi aktuell Praxis daten Lager an Australien?"
Per rispondere efficacemente a questo problema, sono richieste un
certo numero di domande sussidarie di ricerca. In particolare, tre
sotto-domande sono state identificate dalla letteratura, che è
presentata nel capitolo 2, per guidare questo progetto di ricerca:
Come sono implementati i daten Lager dalle organizzazioni
australiane? Quali sono i problemi incontrati?
Wat sinn d'Virdeeler erlieft?
Nel rispondere a queste domande, è stato usato un disegno
esplorativo di ricerca che impiega un’indagine. Come studio
esplorativo, le risposte alle suddette domande non sono complete
(Shanks ed altri. 1993, Denscombe 1998). In questo caso, è
richiesta una triangolazione per migliorare le risposte a queste
domande. Tuttavia, l’indagine fornirà un solido fondamento per
futuri lavori che esaminano queste domande. Una dettagliata
discussione sulla giustificazione del metodo di ricerca e sul design
è presentata nel capitolo 3.
Struktur vum Fuerschungsprojet
Questo progetto di ricerca è diviso in due parti: lo studio contestuale
del concetto di datawarehousing e la ricerca empirica (si veda
figura 1.1), ciascuno dei quali è discusso qui di seguito.
Deel I: Kontextstudie
La prima parte della ricerca è consistita nella riesaminazione della
letteratura attuale sui vari tipi di data warehousing compresi i
sistemi di ausilio decisionale (DSS), i sistemi d’informazione
esecutivi (EIS), i case study di daten Lager ed i concetti di data
warehouse. Inoltre, i risultati dei foum sui daten Lager a Gëtter
gruppi di incontro per esperti e professionisti condotti dal gruppo di
ricerca Monash DSS, hanno contribuito a questa fase dello studio
che è stato inteso per ottenere le informazioni sulla pratica dei data
warehouse e per identificare i rischi coinvolti nella loro adozione.
Durante questo periodo di studio contestuale, la comprensione
dell’area del problema è stata stabilita per fornire la conoscenza di
base per le successive investigazioni empiriche. Tuttavia, questo
era un processo continuo durante lo svolgimento dello studio di
Fuerschung.
Deel II: Empiresch Fuerschung
Il concetto relativamente nuovo del data warehousing, specialmente
in Australia, ha creato la necessità di eseguire un’indagine per
ottenere una vasta immagine dell’esperienza di utilizzo. Questa
parte è stata effettuata una volta che il dominio del problema fosse
stato stabilito attraverso vasta revisione della letteratura. Il concetto
di data-warehousing formato durante la fase di studio contestuale è
stato usato come input per il questionario iniziale di questo studio.
Dopo questo, il questionario è stato esaminato. Sei esperti di data
warehouse hanno partecipato al test. Lo scopo del test del
questionario iniziale era controllare la completezza e la precisione
delle domande. Sulla base dei risultati del test, il questionario è
stato modificato e la versione modificata è stata spedita ai
partecipanti all’indagine. I questionari restituiti allora sono stati
analizzati per i dati an Dëscher, Diagrammer an aner Formater. DEN
Analyse Resultater vun dati formano una fotografia istantanea della
pratica del data warehousing in Australia.
DATA WAREHOUSING OVERVICHT
Il concetto di data warehousing si è evoluto con i miglioramenti
della tecnologia dei computer.
Esso è finalizzato a superare i problemi incontrati dai gruppi di
supporto delle applicazioni come Decision Support System (DSS) e
Executive Information System (EIS).
Nel passato il maggiore ostacolo di queste applicazioni è stata
l’incapacità di queste applicazioni di fornire una Datebank
néideg fir d'Analyse.
Questo è principalmente causato dalla natura del lavoro della
dirigenza. Gli interessi della dirigenza di una società variano
costantemente a seconda dell’area trattata. Perciò i dati
fondamentali per queste applicazioni devono essere in grado di
cambiare rapidamente a seconda della parte da trattare.
Dëst bedeit datt ech dati devono essere disponibili nella forma
adeguata per le analisi richieste. Infatti i gruppi di supporto delle
applicazioni trovarono molte difficoltà in passato a raccogliere ed
z'integréieren dati aus komplexen a verschiddenste Quellen.
Il resto di questa sezione presenta una panoramica del concetto di
data warehousing e tratta di come il daten Lager può superare i
problemi dei gruppi di supporto delle applicazioni.
De Begrëff "Donnéeën Warehouse” fu diffuso da William Inmon nel 1990.
La sua spesso citata definizione vede il Donnéeën Warehouse komm
Sammlung vun dati orientati al soggetto,integrati,non volatili,e variabili
col tempo,in supporto alle decisioni dirigenziali.
Mat dëser Definitioun Inmon Highlight datt ech dati Awunner
an engem daten Lager devono possedere le seguenti 4
Eegeschaften:
▪ Orientati al soggetto
▪ Integrati
▪ Non volatili
▪ Variabili col tempo
Per Orientati al soggetto Inmon intende che i dati nel data
warehouse nelle più grandi aree organizzative che sono state
am Modell definéiert dati. Zum Beispill all dati betreffend i Clienten
sinn am Thema Beräich enthalen Clienten. Ähnlech all
dati relativi ai prodotti sono contenuti nell’area soggetto
PRODOTTI.
Mam Integréierten Inmon heescht dat i dati provenienti da differenti
piattaforme,sistemi e locazioni sono combinate e immagazzinate in
unico posto. Di conseguenza dati similari devono essere trasformati
in formati consistenti in modo da essere aggiunti e comparati
einfach.
Per esempio il genere maschile e femminile sono rappresentati
dalle lettere M e F in un sistema,e con 1 e 0 in un altro. Per
integrarli nella maniera giusta,uno o tutti e due i formati devono
essere trasformati in modo che i due formati siano uguali. In questo
caso potremmo cambiare M in 1 e F in 0 o viceversa. Orientati al
soggetto e Integrati indicano che il daten Lager è progettato per
fornire una funzionale e trasversale visione dei dati ofgesinn
vun der Firma.
Mat Non-volatile mengt hien, datt d.h dati an daten Lager bleiwen
consistenti e l’aggiornamento dei dati non occorre. Invece,ogni
cambiamento nei dati Originaler gëtt derbäigesat Datebank del data
warehouse. Questo significa che lo storico dei dati enthält an
daten Lager.
Fir Variablen mat der Zäit Inmon weist datt i dati an daten Lager
enthalen ëmmer ei Zäit Indicateuren dati normalerweis
attraversano un certo orizzonte temporale. Per esempio un
daten Lager kann enthalen 5 Joer vun historesche Wäerter vun Clienten dal
1993 al 1997. La disponibilità dello storico e di una serie temporale
dei dati erlaabt Iech Trends ze analyséieren.
Un daten Lager hie kann seng eege sammelen dati da dei sistemi
OLTP;da origini dati esterne all’organizzazione e/o da altri speciali
progetti di sistema di cattura dati.
I dati estratti possono passare attraverso un processo di pulizia,in
questo caso i dati vengono trasformati ed integrati prima di essere
immagazzinati nel Datebank vun der daten Lager. Dann, ech dati
Awunner bannent der Datebank vun der daten Lager sono resi disponibili
agli accessi degli utenti finali e agli strumenti di recupero. Usando
questi strumenti l’utente finale può accedere alla vista integrata
dell’organizzazione dei dati.
I dati Awunner bannent der Datebank vun der daten Lager Toun
immagazzinati sia dettagliatamente che in formati riassuntivi.
Den Niveau vum Resumé kann op der Natur vun der dati. ech dati
detailléiert kënne besteet aus dati aktuell e dati Storici
I dati Royalties sinn net an der daten Lager bis i dati
an daten Lager aktualiséiert ginn.
Nieft der Späichere i dati sech, a daten Lager pu eng
immagazzinare un differente tipo di dato chiamato METADATI che
descrivono i dati Awunner a sengem Datebank.
Ci sono due tipi di metadati: metadati di sviluppo e metadati di
analisi.
I metadati di sviluppo sono utilizzati per gestire ed automatizzare i
processi di estrazione,pulizia,mappatura e caricamento dei dati an
daten Lager.
L’informazione contenuta nei metadati di sviluppo può contenere
dettagli di sistemi operativi,dettagli degli elementi da estrarre,il
modello dati vun der daten Lager e le regole aziendali per la
Ëmwandlung vun dati.
Il secondo tipo di metadati,conosciuti come metadati di analisi
rende in grado l’utente finale di esplorare il contenuto del data
warehouse per trovare i dati disponibili e il loro significato in termini
chiari e non tecnici.
Perciò i metadati di analisi funzionano come un ponte tra il data
warehouse e le applicazioni degli utenti finali. Questo metadata può
contenere il modello aziendale, le descrizioni dei dati corrispondenti
al modello aziendale,interrogazioni (queries) pre-definite e report,
informazioni per gli accessi degli utenti e l’indice.
I metadati di analisi e sviluppo devono essere combinati in un unico
integrato metadata di contenimento per funzionare correttamente.
Sfortunatamente molti degli strumenti esistenti hanno il proprio
metadata e attualmente non ci sono degli standard esistenti che
permettono agli strumenti di data warehousing di integrare questi
metadati. Per rimediare a questa situazione molti commercianti dei
principali strumenti di data warehousing hanno formato il Meta Data
Council divenuto poi Meta Data Coalition.
Lo scopo di questa coalizione è di costruire un set di metadati
standard che permette a differenti strumenti di data warehousing di
convertire i metadati
I loro sforzi hanno avuto come esito quello della nascita del Meta
Data Interchange Specification (MDIS) che permetterà lo scambio
di informazioni tra gli archivi Microsoft e i relativi MDIS files.
D'Existenz vun dati sia riassunti/indicizzati che dettagliati dà
all’utente la possibilità di effettuare un DRILL DROWN
(trapanamento) dai dati indicizzati a quelli dettagliati e viceversa.
D'Existenz vun dati storici dettagliati permette la realizzazione di
analisi di trend nel tempo. In aggiunta i metadati di analisi possono
essere usati come directory del Datebank vun der daten Lager pro
aiutare gli utenti finali a localizzare i dati noutwendeg.
In confronto ai sistemi OLTP,con la loro capacità di supportare
analisi di dati a Berichterstattung, der daten Lager è visto come un sistema
più appropriato per processi di informazione come effettuare e
rispondere a queries e produrre report. La prossima sezione
evidenzierà le differenze dei due sistemi dettagliatamente.
DATA WAREHOUSE GÉINT OLTP SYSTEMS
Molti dei sistemi di informazione all’interno delle organizzazioni
hanno lo scopo di supportare le operazioni giornaliere. Questi
sistemi conosciuti come SISTEMI OLTP, catturano le transazioni
giornaliere continuamente aggiornate.
I dati all’interno di questi sistemi sono spesso modificati,aggiunti o
cancellati. Per esempio un indirizzo di un cliente cambia appena
egli si sposta da un luogo all’altro. In questo caso il nuovo indirizzo
sarà registrato modificando il campo indirizzo del Datebank.
L’obiettivo principale di questi sistemi è quello di ridurre i costi delle
transazioni e allo stesso tempo di ridurre in tempi di elaborazione.
Esempi di Sistemi OLTP includono azioni critiche come scritture
contabili di ordini,libri paga,fatture,fabbricazione,servizi ai Clienten.
A differenza dei sistemi OLTP,che sono stati creati per processi
basati su transazioni ed eventi, i daten Lager si goufen geschaf
per fornire supporto ai processi basati su analisi di dati ass U
processi di decisione.
Dëst gëtt normalerweis erreecht andeems ech i dati da vari sistemi
OLTP ed esterni in un unico “contenitore” di dati,come discusso
nella sezione precedente.
Monash Data Warehousing Prozess Modell
De Prozess Modell fir daten Lager Monashè stato sviluppato dai
ricercatori del Monash DSS Research Group, è basato sulla
letterature dei daten Lager, sull’esperienza nel supporto allo
sviluppo di campi di sistemi, su discussioni con vendors di
applicazioni per l’uso su daten Lager, su di un gruppo di esperti
nell’uso di daten Lager.
Le fasi sono: Inizio, Pianificazione, Sviluppo, Operazioni e
Spiegazioni. Il diagramma spiega la natura iterativa o
evoluzionistica dello sviluppo di un daten Lager process usando
frecce a doppio senso collocate tra le diverse fasi. In questo
contesto “iterativo” e “evoluzionistico” significano che, ad ogni
passo del processo, le attività di implementazione si possono
sempre propagare all’indietro verso la fase precedente. Questo è
dovuto alla natura del progetto di un daten Lager nel Quale
subentrano in ogni momento richieste addizionali da parte
dell’utente finale. Per sempio, durante la fase di sviluppo di un
Prozess vun daten Lager, viene richiesta dall’utente finale una
nuova dimensione o area di soggetto, che non faceva perte del
piano originale, questa deve essere aggiunta al sistema. Questo
causa un cambiamento nel progetto. Il risultato è che il team di
progettazione deve cambiare i requisiti dei documenti creati finora
durante la fase di progettazione. In molti casi, il corrente stato del
progetto deve tornare indietro fino alla fase di progettazione dove
deve essere aggiunta la nuova richiesta e documentarla. L’utente
finale deve poter vedere la documentazione specifica revisionata e i
cambiamenti che sono stati fatti nella fase di sviluppo. Alla fine di
questo ciclo di sviluppo il progetto deve ottenere ottimi feedback da
entrambi i team, quello di sviluppo e quello degli utilizzatori. I
feedback sono poi riutilizzati per migliorare un progetto futuro.
Kapazitéit Planung
I dw tendono a essere molto grandi in dimensione e a crescere
molto velocemente (Best 1995, Rudin 1997a) a seguito della
Betrag vun dati storici che essi conservano dalla loro durata. La
crescita può essere causata anche da dati aggiuntivi richiesti dagli
utenti per aumentare il valore dei dati che essi hanno già. Di
conseguenza, i requisiti di immagazzinamento per dati kann
essere significativamente potenziati (Eckerson 1997). Così, è
essenziale assicurare, conducendo una pianificazione della
capacità, che il sistema per essere costruito può crescere con la
crescita delle necessità(Best 1995, LaPlante 1996, Lang 1997,
Eckerson 1997, Rudin 1997a, Foley 1997a).
Nella pianificazione per scalabilità del dw, uno deve conoscere la
crescita attesa della dimensione del magazzino, i tipi di domande
probabili da effettuare, e il numero di utenti finali sostenuti(Best
1995, Rudin 1997b, Foley 1997a). Costruire applicazioni scalabili
richiede una combinazione di tecnologie server scalabili e tecniche
di progettazione di applicazioni scalabili (Best 1995, Rudin 1997b.
Entrambe sono necessarie nella creazione di un’applicazione
estremamente scalabile. Le tecnologie server scalabili possono
renderlo facile e vantaggioso per aggiungere deposito, memoria e
CPU senza degradare le prestazioni (Lang 1997, Telephony 1997).
Ci sono due tecnologie server scalabili principali: elaborazione
multipla simmetrica (SMP) ed elaborazione in maniera massiccia
parallela (MPP) ) (IDC 1997, Humphries et al. 1999). Un server
SMP normalmente ha più processori che condividono una memoria,
sistema bus e altre risorse (IDC 1997, Humphries et al. 1999).
Processori supplementari possono essere aggiunti per aumentare
hir Muecht rechnerlech. Aner Method fir Erhéijung vun der
Muecht computazionale del server SMP, è combinare numerose
macchine SMP. Questa tecnica è nota come clustering (Humphries
et al. 1999). Un server MPP, d’altra parte, ha più processori ognuno
con una propria memoria, sistema bus e altre risorse (IDC 1997,
Humphries et al. 1999). Ogni processore è chiamato nodo. Un
Erhéijung am Muecht computational kann erreecht ginn
aggiungendo nodi supplementari ai server MPP (Humphries et al.
1999).
Una debolezza dei server SMP è che troppe operazioni input-output
(I/O) possono congestionare il sistema bus (IDC 1997). Questo
problema non si verifica all’interno dei server MPP poiché ogni
processore ha il proprio sistema di bus. Tuttavia, le interconnessioni
fra ogni nodo generalmente sono molto più lente del sistema bus
dei SMP. Inoltre, i server MPP possono aggiungere un livello
supplementare di complessità agli sviluppatori di applicazioni (IDC
1997). Così, la scelta tra server SMP e MPP può essere influenzata
da molti fattori, tra cui la complessità delle domande, il rapporto
prezzo/prestazioni, la capacità di trattamento richiesta, le
applicazioni dw prevenute e l’aumento in dimensione dei Datebank
vun dw an an der Zuel vun Enn Benotzer.
Numerose tecniche di progettazione di applicazione scalabile
possono essere impiegate nella pianificazione della capacità. Uno
utilizza vari periodi di notifica come giorni, settimane, mesi e anni.
Avendo vari periodi di notifica, il Datebank può essere diviso in
pezzi raggruppati maneggevolmente (Inmon et al. 1997). Un’altra
tecnica è utilizzare tabelle riepilogative che sono costruite
riassumendo dati da dati detailléiert. Also, ech dati riassunti sono più
compatti del dettagliato, il quale richiede meno spazio di memoria.
Also déi dati di dettaglio possono essere archiviati in un’unità di
memorizzazione meno cara, la quale salva ancora più deposito.
Benché utilizzare tabelle riepilogative possa salvare spazio di
memoria, essi richiedono molto sforzo per mantenerli aggiornati e in
linea con le necessità commerciali. Tuttavia, questa tecnica è
ampiamente utilizzata e spesso utilizzata insieme alla tecnica
precedente(Best 1995, Inmon 1996a, Chauduri and Dayal
1997).
Definéiere Donnéeën Warehouse technesch
Architectures Definizione delle tecniche di
architetture di dw
Iniziali adottanti di data warehousing concepivano principalmente
un’implementazione centralizzata del dw in cui tutti i dati, abegraff
i dati extern, goufen an eng eenzeg integréiert,
kierperlech Lagerung (Inmon 1996a, Bresnahan 1996, Peacock 1998).
Il vantaggio principale di questo approccio è che gli utenti finali
sono in grado di accedere alla vista su scala imprenditoriale
(enterprise-wide view) dei dati organizzativi (Ovum 1998). Un altro
vantaggio è che offre standardizzazione di dati duerch
l’organizzazione, che significa che c’è solo una versione o
definizione per ogni terminologia utilizzata nel dw deposito
(reposity) metadata (Flanagan and Safdie 1997, Ovum 1998). Lo
svantaggio di questo approccio, d’altra parte, è che è caro e difficile
da costruire (Flanagan and Safdie 1997, Ovum 1998, Inmon et al.
1998). Non molto dopo che l’architettura d’immagazzinamento dati
centralizzata divenne popolare, si evolse il concetto di estrazione
dei sottoinsiemi più piccoli dei dati per sostenere i bisogni di
applicazioni specifiche (Varney 1996, IDC 1997, Berson e Smith
1997, peacock 1998). Questi piccoli sistemi sono derivati dal più
groussen daten Lager centralizzato. Sono denominati data
warehouse dipartimentali dipendenti o data marts dipendenti.
L’architettura del data mart dipendente è conosciuta come
architettura tre-tiered in cui la prima fila consiste del data
warehouse centralizzato, la seconda consiste dei depositi di dati
Departementer an déi drëtt besteet aus Zougang zu dati e dai tools di
analisi (Demarest 1994, Inmon ed altri. 1997).
Data Marts ginn normalerweis no der gebaut daten Lager
centralizzato è stato costruito per rispondere alle esigenze delle
specifiche unità(White 1995, Varney 1996).
Data Marts späicheren d' dati molto rilevanti relativi a particolari
unità (Inmon ed altri. 1997, Inmon ed altri. 1998, IA 1998).
De Virdeel vun dëser Method ass, datt et keng ginn dato Net
integrato e che i dati saranno meno ridondanti all’interno dei data
marts poiché tutti i dati si kommen aus engem Lager dati integréieren.
Un altro vantaggio è che ci saranno pochi collegamenti fra ogni
data mart e le relative fonti di dati perché ogni data mart ha soltanto
una fonte di dati. In più con questa architettura sul posto, gli utenti
finali possono ancora accedere alla panoramica dei dati
organizzativi aziendali. Questo metodo è conosciuto come il
metodo top-down, in cui i data marts sono costruiti dopo il data
warehouse (peacock 1998, Goff 1998).
Aumentando la necessità di mostrare presto i risultati, alcune
organizzazioni hanno cominciato costruire data marts indipendenti
(Flanagan e Safdie 1997, White 2000). In questo caso, i data marts
prendono i loro dati direkt vun der Grondlage vun dati OLTP e non dal
deposito centralizzato e integrato, eliminando così l’esigenza di
avere il deposito centrale sul posto.
Ogni data mart richiede almeno un collegamento alle relative fonti
di dati. Uno svantaggio di avere collegamenti multipli per ogni data
mart è che, confrontato alle due architetture precedenti, la
sovrabbondanza di dati klëmmt däitlech.
All daten Mart muss Buttek all déi dati richiesti localmente per
non avere effetto sui sistemi di OLTP. Questo provoca che i dati
sono immagazzinati in differenti data marts (Inmon ed altri. 1997).
Un altro svantaggio di questa architettura è che conduce alla
creazione di complesse interconnessioni fra i data marts e le loro
fonti di dati che sono difficili da effettuare e controllare (Inmon ed
altri. 1997).
Un altro svantaggio è che gli utenti finali non possono potere
accedere alla panoramica delle informazioni aziendali poiché i dati
vun de verschiddenen Datemarts sinn net integréiert (Ovum 1998).
Ancora un altro svantaggio è che potrebbe esistere più di una
definizione per ogni terminologia usata nei data marts che genera
inconsistenze di dati an der Organisatioun (Ovum 1998).
Malgrado gli svantaggi discussi sopra, i data marts indipendenti
attraggono ancora l’interesse di molte organizzazioni (IDC 1997).
Un fattore che li rende attraenti è che sono più rapidi da sviluppare
e richiedono meno tempo e risorse (Bresnahan 1996, Berson e
Smith 1997, Ovum 1998). Di conseguenza, servono principalmente
come progetti-prova che possono essere usati per identificare
rapidamente i benefici e/o le imperfezioni nel progetto (Parsaye
1995, Braly 1995, Newing 1996). In questo caso, la parte da
implementare nel progetto pilota deve essere piccola ma importante
per l’organizzazione (Newing 1996, Mansell-Lewis 1996).
Esaminando il prototipo, gli utenti finali e l’amministrazione possono
decidere se continuare o fermare il progetto (Flanagan e Safdie
1997).
Se la decisione è di continuare, i data marts per altri settori
dovrebbero essere costruiti una alla volta. Ci sono due opzioni per
gli utenti finali basate sui loro bisogni nella costruzione dei data
matrs indipendenti: integrated/federated ed unintegrated (Ovum
1998)
Nel primo metodo, ogni nuovo data mart dovrebbe essere costruito
basandosi sui data marts attuali e sul modello dati benotzt
dall’impresa (Varney 1996, Berson e Smith 1997, Peacock 1998).
La necessità di usare il modello dati dell’impresa fa si che bisogna
accertarsi che esista soltanto una definizione per ogni terminologia
usata attraverso i data marts, questo anche per accertarsi che data
marts differenti possano essere uniti per dare una panoramica delle
informazioni aziendali (Bresnahan 1996). Questo metodo è
denominato il bottom-up ed è il migliore quando c’è un vincolo sui
mezzi finanziari e sul tempo (Flanagan e Safdie 1997, Ovum 1998,
peacock 1998, Goff 1998). Nel secondo metodo, i data marts
costruiti possono soddisfare soltanto i bisogni di un’unità specifica.
Una variante del federated data mart è il daten Lager verdeelt
an deem den Datebank middleware hub server è utilizzato per unire molti
data marts in un singolo deposito di dati distribuito (White 1995). In
questo caso, i dati aziendali sono distribuiti in parecchi data marts.
Le richieste dell’utente finale sono trasmesse al Datebank
Server Hub Middleware, déi all déi dati richiesti dai data
marts e ritorna i risultati alle applicazioni dell’utente finale. Questo
metodo fornisce le informazioni aziendali agli utenti finali. Tuttavia,
ancora non vengono eliminati i problemi dei data marts
indipendenti. C’è un’altra architettura che può essere usata che è
chiamata il daten Lager virtuale (White 1995). Tuttavia, questa
architettura, che è descritta nella figura 2.9, non è un’architettura
d’immagazzinamento di dati reali poiché non sposta il caricamento
dai sistemi OLTP al daten Lager (Demarest 1994).
Tatsächlech, d'Demande vun dati dagli utenti finali sono passate sopra ai
sistemi di OLTP che restituiscono i risultati dopo l’elaborazione delle
richieste di utente. Anche se questa architettura permette agli utenti
finali di generare i rapporti e formulare le richieste, non può fornire i
dati historesch an Iwwerbléck vun Firma Informatiounen wéi ech dati
dai differenti sistemi di OLTP non sono integrati. Quindi, questa
architettura non può soddisfare l’analisi di dati complessa quale ad
esempio previsioni.
Selezione dell’applicativi di accesso e di
recupero dei dati
Den Zweck vum Bau vun engem daten Lager è di trasmettere
informazioni agli utenti finali (Inmon ed altri 1997, Poe 1996,
McFadden 1996, Shanks ed altri 1997, Hammergren 1998); uno o
più applicativi di accesso e recupero dati devono essere forniti. Ad
oggi, esiste un’ampia varietà di questi applicativi tra cui l’utente può
scegliere (Hammergren 1998, Humphries ed altri 1999). Gli
applicativi selezionati determinano il successo dello sforzo
d’immagazzinamento di dati in un’organizzazione perché gli
applicativi sono la parte più visibile del daten Lager all’utente
finale (Inmon ed altri 1997, Poe 1996). Per aver successo un data
warehouse, deve potere sostenere le attività di analisi dei dati
dell’utente finale (Poe 1996, Seddon e Benjamin 1998, Eckerson
1999). Quindi il “livello” di ciò che l’utente finale vuole deve essere
identificato (Poe 1996, Mattison 1996, Inmon ed altri 1997,
Humphries ed altri 1999).
In generale, gli utenti finali possono essere raggruppati in tre
categorie: executive users, business analysts e power user (Poe
1996, Humphries ed altri 1999). Gli executive users necessitano di
un facile accesso ad insiemi predefiniti di rapporti (Humphries ed
altri 1999). Questi rapporti possono essere raggiunti facilmente con
la navigazione dei menu (Poe 1996). In più, i rapporti dovrebbero
presentare le informazioni usando la rappresentazione grafica
come le tabelle ed i modelli per trasportare rapidamente le
informazioni (Humphries ed altri 1999). I business analyst, che non
possono avere le possibilità tecniche per sviluppare i rapporti da
zero da soli, necessitano di potere modificare i rapporti attuali per
soddisfare i loro bisogni specifici (Poe 1996, Humphries ed altri
1999). I power user, d’altra parte, sono il tipo di utilizzatori finali che
hanno la capacità di generare e scrivere le richieste ed i rapporti da
zero (Poe 1996, Humphries ed altri 1999). Sono quelli che
sviluppano i rapporti per gli altri tipi di utenti (Poe 1996, Humphries
ed altri 1999).
Una volta determinati i requisiti dell’utente finale deve essere fatta
una selezione degli applicativi di accesso e recupero dati tra tutti
quelli disponibili (Poe 1996, Inmon ed altri 1997).
Zougang zu dati e gli strumenti di retrieval possono essere
classificati in 4 tipi: OLAP tool, EIS/DSS tool, tool di query e
reporting e tool di data mining.
I tool OLAP permettono agli utenti di creare query ad hoc così come
quelle fatte sul Datebank vun der daten Lager. Inoltre questi prodotti
consentono agli utenti di fare drill-down dai dati generali a quelli
dettagliati.
I tool EIS/DSS forniscono reporting esecutivi come analisi “what if”
e accessi ai reports organizzati a menu. I report devono essere
predefiniti e uniti ai menu per una navigazione più facile.
I tool di query e reporting permettono agli utenti di produrre report
predefiniti e specifici.
I tool di data mining sono usati per identificare relazioni che
potrebbero fare nuova luce sulle operazioni dimenticate nei dati vun der
datawarehouse.
Accanto all’ottimizzazione dei requisiti di ogni tipologia di utenti, i
tool selezionati devono essere intuitivi, efficienti e di facile utilizzo.
Inoltre devono essere compatibili con le altre parti dell’architettura e
in grado di lavorare con i sistemi esistenti. È inoltre suggerito di
scegliere data access e tool di retrieval con prezzi e performance
ragionevoli. Altri criteri da considerare includono l’impegno del
venditore del tool nel sostenere il loro prodotto e gli sviluppi che lo
stesso avrà nelle future release. Per garantire l’impegno degli utenti
nell’utilizzo del datawarehouse, il team di sviluppo coinvolge gli
utenti nel processo della selezione del tool. In questo caso
dovrebbe essere effettuata una valutazione pratica dell’utente.
Per migliorare il valore del datawarehouse il team di sviluppo può
fornire anche un accesso web ai loro datawarehouse. Un
datawarehouse web-enabled permette agli utenti di accedere ai dati
vu wäitem Plazen oder während der Rees. Weider Informatioune kënnen
essere fornite a costi più bassi mediante una diminuzione dei costi
di Training.
2.4.3 Donnéeën Warehouse Operatioun Phase
Questa fase consiste di tre attività: definizione di strategie di data
refresh, controllo delle attività del datawarehouse e gestione della
sicurezza del datawarehouse.
Definitioun vun Daten Erfrëschungsstrategien
No der éischter Luede, d.h dati an Datebank del datawarehouse
devono essere refreshati periodicamente per riprodurre i
cambiamenti effettuati sui dati originali. Bisogna quindi decidere
quando fare il refresh, ogni quanto tempo deve essere schedulato il
refresh e come eseguire il refresh dei dati. Viene suggerito di fare il
refresh dei dati quando il sistema può essere messo off- line. La
frequenza del refresh è determinata dal team di sviluppo basandosi
sui requisiti degli utenti. Ci sono due approcci per fare il refresh del
datawarehouse: il refresh completo e il caricamento continuo dei
Ännerungen.
Il primo approccio, il refresh completo, richiede il ricaricamento di
all déi dati vun Null. Dëst bedeit datt all dati richiesti devono
essere estratti, puliti, trasformati ed integrati in ogni refresh. Questo
approccio dovrebbe essere, per quanto possibile, evitato perché
richiede molto tempo e risorse.
Un approccio alternativo è quello di caricare continuamente i
cambiamenti. Questo aggiunge i dati che sono stati cambiati
dall’ultimo ciclo di refresh del datawarehouse. L’identificazione di
records nuovi o modificati riduce significativamente la quantità di
dati che devono essere propagati al datawarehouse in ogni
aggiornamento poiché solo questi dati wäert dobäi ginn Datebank
vum Datelager.
Ci sono almeno 5 approcci che possono essere usati per prelevare
i dati nuovi o modificati. Per ottenere un’efficiente strategia di
refresh dei dati può essere utile un misto di questi approcci che
preleva tutti i cambiamenti nel sistema.
Il primo approccio, che usa i timestamp, suppone che viene
assegnato a tutti i dati modificati e aggiornati un timestamp in modo
da potere identificare facilmente tutti i dati modificati e nuovi.
Questo approccio, però, non è stato molto usato nella maggior
parte degli odierni sistemi operativi.
Il secondo approccio è quello di usare un delta file generato da
un’applicazione che contiene soltanto i cambiamenti fatti ai dati.
Dës Datei ze benotzen verstäerkt och den Update-Zyklus.
Tuttavia, anche questo metodo, non è stato usato in molte
Uwendungen.
Il terzo approccio è quello di fare uno scan su un file di log, che
fondamentalmente contiene informazioni simili al delta file. L’unica
differenza è che un log file è creato per il processo di recovery e
può essere difficile da capire.
Il quarto approccio è quello di modificare il codice dell’applicazione.
Tuttavia la maggior parte del codice delle applicazioni è vecchio e
fragile; perciò questa tecnica dovrebbe essere evitata.
Déi lescht Approche ass et ze vergläichen dati sorgenti con il file
principale dei dati.
Kontroll vun Daten Warehouse Aktivitéiten
Una volta che il datawarehouse è stato rilasciato agli utenti, è
necessario monitorarlo nel tempo. In questo caso, l’amministratore
del datawarehouse può impiegare uno o più tool di gestione e
controllo per monitorare l’uso del datawarehouse. In particolare
possono essere raccolte informazioni sulle persone e sul tempo in
cui accedono al datawarehouse. Dai dati raccolti può essere creato
un profilo del lavoro effettuato che può essere usato come input
nell’implementazione del chargeback dell’utente. Il Chargeback
permette agli utenti di essere informati sul costo di elaborazione del
datawarehouse.
Inoltre, il controllo del datawarehouse può anche essere usato per
identificare i tipi di query, la loro grandezza, il numero di query al
giorno, i tempi di reazione alla query, i settori raggiunti e la quantità
di dati processati. Un altro scopo di fare il controllo del
datawarehouse è identificare i dati déi net am Gebrauch sinn. Dës dati
si kënnen aus dem Datelager geläscht ginn fir d'Zäit ze verbesseren
vun Ufro Ausféierung Äntwert a Monitor de Wuesstem vun
dati déi bannent der wunnen Datebank vum Datelager.
Data Warehouse Sécherheet Gestioun
En Datelager enthält dati integrati, critici, sensibili che
possono essere raggiunti facilmente. Per questo motivo dovrebbe
essere protetto dagli utenti non autorizzati. Un modo per
implementare la sicurezza è quello di usare la funzione del DBMS
per assegnare i diversi privilegi ai diversi tipi di utenti. In questo
modo, deve essere mantenuto per ogni tipo di utenti un profilo di
accesso. Un altro modo per assicurare il datawarehouse è cifrarlo
come è scritto nella Datebank vum Datelager. Zougang zu
dati an retrieval Handwierksgeschir muss decrypt de dati prima di presentare i
risultati agli utenti.
2.4.4 Donnéeën Warehouse Deployment Phase
È l’ultima fase nel ciclo di implementazione del datawarehouse. Le
attività da effettuare in questa fase includono l’addestramento degli
utenti per utilizzare il datawarehouse e la realizzazione di reviews
vum Datelager.
Benotzer Training
L’addestramento degli utenti dovrebbe essere fatto prima
dell’accesso ai dati del datawarehouse e dell’uso dei tool di
retrieval. Generalmente, le sessioni dovrebbero iniziare con
l’introduzione al concetto dell’immagazzinamento di dati, op
contenuto del datawarehouse, ai meta dati ed alle features di base
dei tool. Poi, gli utenti più avanzati potrebbero inoltre studiare le
tabelle fisiche e le features degli utenti dei data access e dei tool di
retrieval.
Ci sono molti approcci per fare l’addestramento degli utenti. Uno di
questi prevede una selezione di molti utenti o analisti scelti da un
insieme di utenti, basandosi sulla loro leadership e abilità di
comunicazione. Questi vengono addestrati a titolo personale su
tutto quello che devono sapere per prendere confidenza con il
sistema. Finito l’addestramento, questi ritornano al loro lavoro e
iniziano a insegnare agli altri utenti come utilizzare il sistema. Sulla
base di quanto hanno imparato, gli altri utenti possono iniziare ad
esplorare il datawarehouse.
Un altro approccio è quello di addestrare molti utenti nello stesso
tempo, come se si stesse facendo un corso in aula. Questo metodo
è adatto quando ci sono molti utenti che devono essere addestrati
allo stesso tempo. Un altro metodo ancora è quello di addestrare
individualmente ogni utente, ad uno ad uno. Questo metodo è
adatto quando ci sono pochi utenti.
Lo scopo dell’addestramento degli utenti è quello di familiarizzare
con l’accesso ai dati e i tool di retrieval così come i contenuti del
datawarehouse. Tuttavia, alcuni utenti possono essere sopraffatti
dalla quantità di informazioni fornita durante la sessione di
addestramento. Quindi devono essere fatte un certo numero di
sessioni di aggiornamento l’assistenza continua e per rispondere
alle domande specifiche. In alcuni casi viene formato un gruppo di
utenti per fornire questo tipo di supporto.
Feedback sammelen
Una volta che il datawarehouse è stato rolled out, gli utenti possono
usare i dati che risiedono nel datawarehouse per vari scopi.
Principalmente, gli analisti o gli utenti utilizzano i dati an
datawarehouse per:
1 Identificare le tendenze dell’azienda
2 Analizzare i profili d’acquisto dei Clienten
3 Suddividere i Clienten a vun
4 Fornire i servizi migliori ai Clienten - personaliséiere Servicer
5 Formulare strategie di Marketing
6 Effettuare preventivi competitivi per cost analyses e help
Kontroll
7 Supportare decision-making strategiche
8 Identificare occasioni per emergere
9 Migliorare la qualità degli attuali business process
10 Controllare il profitto
Seguendo la direzione di sviluppo del datawarehouse, si potrebbero
condurre una serie di revisioni al sistema per ottenere dei feddback
sia da parte del team di sviluppo che da parte della comunità degli
utenti finali.
I risultati ottenuti possono essere presi in considerazione per il
prossimo ciclo di sviluppo.
Dal momento che il datawarehouse ha un approccio incrementale,
è fondamentale imparare dai successi e dagli errori dei precedenti
sviluppi.
2.5 Resumé
In questo capitolo sono stati discussi gli approcci presenti in
letteratura. Nella sezione 1 è stato discusso il concetto di
datawarehouse e il suo ruolo nella scienza delle decisioni. Nella
sezione 2 sono state descritte le principali differenze tra
datawarehouse e sistemi OLTP. Nella sezione 3 si è discusso il
modello di datawarehouse secondo Monash che è stato utilizzato
nella sezione 4 per descrivere le attività coinvolte nel processo di
sviluppo di un datawarehouse, queste tesi non sono state basate su
una ricerca rigorosa. Quello che succede nella realtà può essere
molto diverso da quello che riporta la letteratura, tuttavia questi
risultati possono essere utilizzati per creare un bagaglio di base che
sottolinei il concetto di datawarehouse per questa ricerca.
Kapital 3
Fuerschung an Design Methoden
Questo capitolo si occupa dei metodi di ricerca e progettazione per
questo studio. La prima parte mostra una vista generica dei metodi
di ricerca disponibili per il reperimento dell’informazione, inoltre
vengono discussi i criteri per selezionare il miglior metodo per uno
studio particolare. Nella sezione 2 vengono poi discussi due metodi
selezionati con i criteri appena esposti; di questi ne verrà scelto ed
adottato uno con le motivazioni esposte nella sezione 3 dove sono
anche esposte le motivazioni per l’esclusione dell’altro criterio. La
sezione 4 presenta il progetto della ricerca e la sezione 5 le
conclusioni.
3.1 Fuerschung an Informatiounssystemer
La ricerca nei sistemi informativi non si limita semplicemente
all’ambito tecnologico ma deve essere anche estesa per includere
fini riguardanti il comportamento e l’organizzazione.
Questo lo dobbiamo alle tesi di varie discipline che vanno dalle
scienze sociali a quelle naturali; questo porta alla necessità di un
certo spettro di metodi di ricerca che coinvolgono metodi quantitativi
e qualitativi da utilizzare per i sistemi informativi.
Tutti i metodi di ricerca disponibili sono importanti, infatti svariati
ricercatori come Jenkins (1985), Nunamaker et al. (1991), e Galliers
(1992) sostengono che non esista un metodo specifico universale
per condurre ricerche nei vari campi dei sistemi informativi; infatti
un metodo può essere adatto per una particolare ricerca ma non
per altre. Questo ci porta la necessità di selezionare un metodo che
sia adatto alla nostro particolare progetto di ricerca: per questa
scelta Benbasat et al. (1987) affermano che si debbano considerare
la natura e il fine della ricerca.
3.1.1 Natur vun der Fuerschung
I vari metodi basati sulla natura della ricerca possono essere
classificati in tre tradizioni ampiamente conosciuti nella scienza
dell’informazione: positivista, interpretativa e ricerca critica.
3.1.1.1 Positivistesch Fuerschung
La ricerca positivista è anche conosciuta come studio scientifico o
empirico. Essa cerca di: “spiegare e prevedere cosa succederà nel
mondo sociale guardando alle regolarità e alle relazioni causaeffetto
tra gli elementi che lo costituiscono” (Shanks et al 1993).
La ricerca positivista è inoltre caratterizzata da ripetibilità ,
semplificazioni e confutazioni. Inoltre la ricerca positivista ammette
l’esistenza di relazioni a priori tra i fenomeni studiati.
Secondo Galliers(1992) la tassonomia è un metodo di ricerca
incluso nel paradigma positivista, che però non è limitato a questa,
infatti sussistono esperimenti di laboratorio, esperimenti sul campo,
casi di studio, dimostrazioni di teoremi, previsioni e simulazioni.
Utilizzando questi metodi i ricercatori ammettono che i fenomeni
studiati possano essere osservati oggettivamente e rigorosamente.
3.1.1.2 Interpretativ Fuerschung
La ricerca interpretativa, che è spesso chiamata fenomenologia o
anti-positivismo viene descritta da Neuman (1994) come “l’analisi
sistematica del significato sociale dell’azione attraverso la diretta e
dettagliata osservazione delle persone in situazioni naturali, al fine
di arrivare alla comprensione e all’interpretazione di come le
persone creano e mantengono il loro mondo sociale”. Gli studi
interpretative rifiutano l’assunzione che i fenomeni osservati
possano essere osservati oggettivamente. Infatti essi sono basati
su interpretazioni soggettive. Inoltre i ricercatori interpretativi non
impongono significati a priori ai fenomeni che studiano.
Questo metodo comprende studi soggettivo/argomentativi, azioni di
ricerca, studi descrittivo/interpretativi, ricerche future e giochi di
ruolo. In aggiunta a questi indagini e casi di studio possono essere
inclusi in questo approccio in quanto essi concernono gli studi degli
individui o delle organizzazioni all’interno di complesse situazioni
vun der realer Welt.
3.1.1.3 Kritescher Fuerschung
La ricerca critica è l’approccio meno conosciuto nelle scienze
sociali ma di recente ha ricevuto l’attenzione dei ricercatori
nell’ambito dei sistemi informativi. L’assunzione filosofica che la
realtà sociale è storicamente prodotta e riprodotta dalle persone,
così come i sistemi sociali con le loro azioni ed interazioni. La loro
abilità, comunque, è mediata da un certo numero di considerazione
sociali, culturali e politiche.
Cosi come la ricerca interpretativa, quella critica sostiene che la
ricerca positivista non c’entra con il contesto sociale ed ignora la
sua influenza sulle azioni umane.
La ricerca critica, d’altra parte, critica la ricerca interpretativa per
essere troppo soggettiva e perché non si propone di aiutare le
persone a migliorare le proprie vite. La più grossa differenza tra la
ricerca critica e gli altri due approcci è la sua dimensione valutativa.
Mentre l’oggettività delle tradizioni positivista ed interpretativa, è per
predire o spiegare lo status quo o la realtà sociale, la ricerca critica
punta a valutare criticamente e trasformare la realtà sociale sotto
Studio.
I ricercatori critici solitamente si oppongono allo status quo al fine di
rimuovere le differenze sociali e migliorare le condizioni sociali. La
ricerca critica ha un impegno ad una vista processuale dei
fenomeni di interesse e, pertanto, è normalmente longitudinale.
Esempi di metodi di ricerca sono gli studi storici a lungo termine e
gli studi etnografici. La ricerca critica, tuttavia, non è stata
ampiamente usata nella ricerca dei sistemi d’informazione
3.1.2 Zweck vun der Fuerschung
Assieme alla natura della ricerca, il suo scopo può essere utilizzato
per guidare il ricercatore nella selezione di un particolare metodo di
ricerca. Lo scopo di un progetto di ricerca è strettamente correlato
alla posizione della ricerca rispetto al ciclo di ricerca che consiste di
tre fasi: costruzione della teoria, test della teoria e affinamento della
teoria. Così, basandosi sul momento rispetto al ciclo di ricerca, un
progetto di ricerca può avere un fine di spiegazione, descrittivo, di
esplorazione oppure predittivo.
3.1.2.1 Explorativ Fuerschung
La ricerca esplorativa è finalizzata nell’investigare un argomento
totalmente nuovo e formulare domande e ipotesi per la ricerca
futura. Questo tipo di ricerca è utilizzato nella costruzione della
teoria per ottenere dei riferimenti iniziali in una nuova area.
Normalmente si utilizzano metodi di ricerca qualitativa, come i casi
di studio o gli studi fenomenonologici.
Tuttavia è anche possibile impiegare tecniche quantitative come
indagini esplorative od esperimenti.
3.1.3.3 Deskriptiv Fuerschung
La ricerca descrittiva è finalizzata ad analizzare e descrivere in gran
dettaglio una particolare situazione o pratica organizzativa. Questa
è appropriata per costruire teorie e può essere anche usata per
confermare o contestare ipotesi. La ricerca descrittiva solitamente
comprende l’uso di misure e campioni. I metodi di ricerca più adatti
comprendono indagini e analisi di antecedenti.
3.1.2.3 Erklärungsfuerschung
La ricerca esplicativa cerca di spiegare perché succedono le cose.
Essa è costruita su fatti che sono già stati studiati e cerca di trovare
i perché di tali fatti.
Quindi la ricerca esplicativa è normalmente costruita sulla ricerca
esplorativa o descrittiva ed è accessoria al fine di testare ed affinare
le teorie. La ricerca esplicativa normalmente impiega casi di studio
o metodi di ricerca basati sulle indagini.
3.1.2.4 Präventiv Fuerschung
La ricerca preventiva punta a predire gli eventi e i comportamenti
sotto osservazione che si stanno studiando (Marshall and Rossman
1995). La previsione è il test scientifico standard della verità.
Questo tipo di ricerca generalmente impiega indagini o analisi dei
dati Historiker. (Yin 1989)
La suddetta discussione dimostra che c’è un certo numero di
possibili metodi di ricerca che possono essere usati in uno studio
particolare. Tuttavia, ci deve essere un metodo specifico più adatto
degli altri per un tipo particolare di progetto di ricerca. (Galliers
1987, Yin 1989, De Vaus 1991). Ogni ricercatore, quindi, ha
bisogno di valutare con attenzione i punti di forza e le debolezze di
vari metodi, per arrivare ad adottare il metodo di ricerca più adatto e
compatibile col progetto di ricerca. (Jenkins 1985, Pervan e Klass
1992, Bonomia 1985, Yin 1989, Himilton and Ives 1992).
3.2. Méiglech Fuerschung Methoden
L’obiettivo di questo progetto era studiare l’esperienza nelle
organizzazioni australiane con i dati immagazzinati con uno
Entwécklung vun daten Lager. Tatsaach che, attualmente, c’è una
mancanza di ricerca nell’area di data warehousing in Australia,
questo progetto di ricerca è ancora nella fase teorica del ciclo di
ricerca ed ha uno scopo esplorativo. Esplorando l’esperienza nelle
organizzazioni australiane che adottano il data warehousing
richiede l’interpretazione della società reale. Di conseguenza, il
l’assunzione filosofica alla base del progetto di ricerca segue
l’interpretazione tradizionale.
Dopo un rigoroso esame dei metodi disponibili, sono stati identificati
due possibili metodi di ricerca: indagini (surveys) e casi di studio
(case studies), che possono essere usati per una ricerca
esplorativa (Shanks et al. 1993). Galliers (1992) sostiene che
l’idoneità di questi due metodi per questo particolare studio nella
sua tassonomia rivisitata dicendo che sono adatti per la costruzione
teorica. Le seguenti due sottosezioni discutono ogni metodo in
dettaglio.
3.2.1 Ëmfro Fuerschung Method
Il metodo di ricerca d’indagine proviene dall’antico metodo del
censimento. Un censimento consta nel collezionare informazioni da
un’intera popolazione. Questo metodo è costoso e poco pratico, in
particolare se la popolazione è elevata. Quindi, rispetto al
censimento, una indagine normalmente è concentrata sul
collezionare informazioni per un piccolo numero, o campione, dei
rappresentanti della popolazione (Fowler 1988, Neuman 1994). Un
campione riflette la popolazione da cui è disegnato, con differenti
livelli di accuratezza, secondo la struttura del campione, la
dimensione e il metodo di selezione utilizzato (Fowler 1988, Babbie
1982, Neuman 1994).
Il metodo d’indagine è definito come “snapshots of practices,
situations or views at a particular point in time, undertaken using
questionnaires or interviews, from which inferences may be
made” (Galliers 1992:153) [fotografia istentanea delle pratiche,
situazioni o viste in particolare punto temporale, intrapreso usando
questionari o interviste, da cui possono essere fatte inferenze]. Le
indagini si occupano della raccolta di informazioni su alcuni aspetti
dello studio, da un certo numero di partecipanti, facendo delle
domande (Fowler 1988). Anche questi questionari e interviste, che
includono le interviste faccia a faccia al telefono e quelle strutturate,
sono le tecniche di collezione di dati più comuni impiegate nelle
indagini (Blalock 1970, Nachmias and Nachmias 1976, Fowler
1988), possono essere utilizzate osservazioni ed analisi (Gable
1994). Di tutti questi metodi di collezione dei dati, d'Benotzung vun
questionario è la tecnica più popolare, poiché assicura che i dati
collezionati siano strutturati e formattati, e quindi facilita la
classificazione delle informazioni (Hwang 1987, de Vaus 1991).
Bei der Analyse vun i dati, una strategia d’indagine impiega spesso le
tecniche quantitative, come l’analisi statistica, ma possono essere
impiegate anche tecniche qualitative (Galliers 1992, Pervan
and Klass 1992, Gable 1994). Normalerweis, i dati raccolti sono
usati per analizzare le distribuzioni e i modelli delle associazioni
(Fowler 1988).
Anche se le indagini sono generalmente appropriate per ricerche
che si occupano della domanda ‘che cosa?’ (what) o da essa
derivanti, quali ‘quanto’(how much) e ‘quant’è’ (how many), esse
possono essere poste tramite la domanda ‘perché’ (Sonquist and
Dunkelberg 1977, Yin 1989). Secondo Sonquist e Dunkelberg
(1977), l’indagine di ricerca punta ad ipotesi difficili, programme di
valutazione, descrivendo la popolazione e sviluppando modelli del
comportamento umano. Inoltre, le indagini possono essere usate
per studiare un’opinione certa della popolazione, condizioni,
opinioni, caratteristiche, aspettative e anche comportamenti passati
o presenti(Neuman 1994).
Le indagini permettono al ricercatore di scoprire i rapporti tra la
popolazione ed i risultato sono normalmente più generici rispetto ad
altri metodi (Sonquist and Dunkelberg 1977, Gable 1994). Le
indagini permettono ai ricercatori di riguardare una zona geografica
più larga e di raggiungere tantissimi dichiaranti (Blalock 1970,
Sonquist and Dunkelberg 1977, Hwang and Lin 1987, Gable 1994,
Neuman 1994). Infine, le indagini possono fornire le informazioni
che non sono disponibili altrove o nella forma richiesta per le analisi
(Fowler 1988).
Ci sono, tuttavia, alcune limitazioni nell’eseguire un’indagine. Uno
svantaggio è che il ricercatore non può ottenere molte informazioni
a riguardo dell’oggetto studiato. Questo è dovuto al fatto che le
indagini sono eseguite soltanto in un momento particolare e, quindi,
c’è un numero limitato di variabili e di persone che il ricercatore può
studiare (Yin 1989, de Vaus 1991, Gable 1994, Denscombe 1998).
Un altro svantaggio è quello che esegue un’indagine può essere
molto costoso in termini di tempo e risorse, particolarmente se
coinvolge le interviste faccia a faccia (Fowler 1988).
3.2.2. Ufro Fuerschung Method
Il metodo di ricerca di inchiesta coinvolge lo studio approfondito su
una particolare situazione all’interno del relativo contesto reale in un
periodo di tempo definito, senza alcun intervento da parte del
ricercatore (Shanks & C. 1993, Eisenhardt 1989, Jenkins 1985).
Principalmente questo metodo è usato per descrivere i rapporti fra
le variabili che si stanno studiando in una situazione particolare
(Galliers 1992). Le inchieste possono coinvolgere singoli casi o
multipli, a seconda del fenomeno analizzato (Franz e Robey 1987,
Eisenhardt 1989, Yin 1989).
Il metodo di ricerca di inchiesta è definito come “un’inchiesta
empirica che studia un fenomeno contemporaneo all’interno del
relativo contesto reale, usando le fonti multiple raccolte da una o
più entità quali la gente, i gruppi, o le organizzazioni” (Yin 1989).
Non c’è netta separazione fra il fenomeno ed il relativo contesto e
non c’è controllo o manipolazione sperimentale delle variabili (Yin
1989, Benbasat ed altri 1987).
Et gi verschidde Techniken fir d'Sammelen dati datt se kënnen
essere impiegate nel metodo di inchiesta, che includono le
osservazioni dirette, revisioni di record di archivi, questionari,
revisione della documentazione ed interviste strutturate. Avendo
una gamma varia di tecniche della raccolta di dati, le inchieste
permettono ai ricercatori di occuparsi sia dei dati qualitativi che
quantitativi allo stesso tempo (Bonoma 1985, Eisenhardt 1989, Yin
1989, Gable 1994). Com’è il caso con il metodo di indagine, un
ricercatore di inchiesta funge da osservatore o ricercatore e non
come partecipante attivo all’organizzazione allo studio.
Benbasat ed altri (1987) asseriscono che il metodo di inchiesta è
particolarmente adatto per la costruzione della teoria di ricerca, che
comincia con una domanda di ricerca e continua con la formazione
vun enger Theorie wärend dem Sammelprozess dati. Sinn
adatto anche per la fase
della costruzione di teoria, Franz e Robey (1987) suggeriscono che
il metodo di inchiesta può anche essere utilizzato per la complessa
fase di teoria. In questo caso, basandosi sulle prove raccolte, una
data teoria o ipotesi viene verificata o confutata. In più, l’inchiesta è
anche adatta per ricerca che si occupa delle domande ‘come’ o
‘perché’ (Yin 1989).
Rispetto ad altri metodi, le inchieste permettono al ricercatore di
catturare le informazioni essenziali più nel particolare (Galliers
1992, Shanks ed altri 1993). Inoltre, le inchieste permettono al
ricercatore di capire la natura e la complessità dei processi studiati
(Benbasat ed altri 1987).
Ci sono quattro svantaggi principali connessi con il metodo di
inchiesta. Il primo è la mancanza di deduzioni controllate. La
soggettività del ricercatore può alterare i risultati e le conclusioni
dello studio (Yin 1989). Il secondo svantaggio è la mancanza di
osservazione controllata. A differenza dei metodi sperimentali, il
ricercatore di inchiesta non può controllare i fenomeni studiati
poiché sono esaminati nel loro contesto naturale (Gable 1994). Il
terzo svantaggio è la mancanza di replicabilità. Ciò è dovuto al fatto
che il ricercatore ha poca probabilità di osservare gli stessi eventi, e
non può verificare i risultati di un particolare studio (Lee 1989).
Infine, come conseguenza della non replicabilità, è difficile
generalizzare i risultati ottenuti da una o più inchieste (Galliers
1992, Shanks ed altri 1993). Tutti questi problemi, tuttavia, non
sono insormontabili e possono, infatti, essere minimizzati dal
ricercatore applicando azioni appropriate (Lee 1989).
3.3. Justifiéiert d'Fuerschungsmethodologie
adoptéiert
Dai due metodi di ricerca possibili per questo studio, il metodo di
indagine è considerato come il più adatto. Quello di inchiesta è
stato scartato in seguito ad un attenta considerazione dei relativi
meriti e debolezze. La convenienza o l’inappropriatezza di ogni
metodo per questo studio è discussa in seguito.
3.3.1. Inappropriateness vun der Fuerschung Method
vun Enquête
Il metodo di inchiesta richiede lo studio approfondito circa una
situazione particolare all’interno di una o più organizzazioni per un
periodo di tempo (Eisenhardt 1989). In questo caso, il periodo può
eccedere la struttura di tempo data per questo studio. Un altro
motivo per non adottare il metodo di inchiesta è che i risultati
possono soffrire da mancanza di rigore (Yin 1989). La soggettività
del ricercatore può influenzare i risultati e le conclusioni. Un altro
motivo è che questo metodo è più adatto a ricerche su domande
del tipo ‘come’ o ‘perché’ (Yin 1989), mentre la domanda di ricerca
per questo studio è del tipo ‘che cosa’. Infine, ma non meno
importante, è difficile generalizzare i risultati da appena una o
poche inchieste (Galliers 1992, Shanks ed altri 1993). Sulla base di
questa spiegazione razionale, il metodo di ricerca di inchiesta non è
stato scelto poiché inadatto per questo studio.
3.3.2. Kamoudheet vun der Sich Method vun
Enquête
Quando questa ricerca è stata condotta, la pratica di datawarehousing
non era stata ampiamente adottata dalle
organizzazioni australiane. Quindi, non c’erano molte informazioni
per quanto riguarda la loro implementazione all’interno delle
organizzazioni australiane. Le informazioni disponibili provenivano
dalle organizzazioni che avevano implementato o utilizzato un data
warehouse. In questo caso, il metodo di ricerca di indagine è il più
adatto poiché permette di ottenere le informazioni che non sono
disponibili altrove o nella forma richiesta per analisi (Fowler 1988).
In più, il metodo di ricerca di indagine permette al ricercatore di
ottenere una buona visione delle pratiche, delle situazioni, o delle
viste in un determinato momento (Galliers 1992, Denscombe 1998).
Una veduta d’insieme era stata richiesta per aumentare la
conoscenza circa l’esperienza australiana di data warehousing.
Ancora, Sonquist e Dunkelberg (1977) dichiarano che i risultati di
ricerca di indagine sono più generali di altri metodi.
3.4. Ëmfro Fuerschung Design
L’indagine circa la pratica di data warehousing è stata eseguita nel 1999.

La popolazione obiettivo era formata da organizzazioni
australiane interessate agli studi di data warehousing, poiché erano
probabilmente già informati circa i dati che immagazzinano e,
pertanto, potrebbe fornire le informazioni utili per questo studio. La
popolazione obiettivo è stata identificata con un’indagine iniziale di
tutti i membri australiani del ‘The Data Warehousing Institute’ (Tdwiaap).
Questa sezione discute il disegno della fase di ricerca
empirica di questo studio.
3.4.1. Recolte Technik dati
Dalle tre tecniche usate comunemente nella ricerca di indagine
(cioè questionario via posta, intervista del telefono ed intervista
personale) (Nachmias 1976, Fowler 1988, de Vaus 1991), per
questo studio è stato adottato il questionario via posta. Il primo
motivo per l’adozione di quest’ultimo è che può raggiungere una
popolazione sparsa geograficamente (Blalock 1970, Nachmias e
Nachmias 1976, Hwang e Lin 1987, de Vaus 1991, Gable 1994).
Secondariamente, il questionario via posta è adatto a partecipanti
altamente istruiti (Fowler 1988). Il questionario via posta per questo
studio è stato indirizzato ai project sponsors del data warehousing,
direttori e/o responsabili di progetto. In terzo luogo, i questionari via
posta sono adatti quando si ha a disposizione una lista sicura di
indirizzi (Salant e Dilman 1994). TDWI, in questo caso, una
associazione fidata di data warehousing ha fornito la lista di indirizzi
dei relativi membri australiani. Un altro vantaggio del questionario
via posta rispetto al questionario via telefono o alle interviste
personali è che permette ai dichiaranti di rispondere con maggior
esattezza, particolarmente quando i dichiaranti devono consultare
le annotazioni o discutere le domande con altra gente (Fowler
1988).
Uno svantaggio potenziale può essere il tempo richiesto per
condurre i questionari via posta. Normalmente, un questionario via
posta è condotto in questa sequenza: spedire le lettere, aspettare le
risposte e mandare la conferma(Fowler 1988, Bainbridge 1989).
Quindi, il tempo totale può essere più lungo del tempo richiesto per
le interviste personali o per le interviste al telefono. Tuttavia, il
tempo totale può essere conosciuto in anticipo (Fowler 1988,
Denscombe 1998). Il tempo speso per condurre le interviste
personali non può essere conosciuto in anticipo poiché varia da
un’intervista all’altra (Fowler 1988). Le interviste telefoniche
possono essere più rapide dei questionari via posta e delle
interviste personali ma possono avere un alto tasso di mancanza di
risposta dovuto all’indisponibilità di alcune persone (Fowler 1988).
In più, le interviste telefoniche sono limitate generalmente a liste di
domande relativamente corte (Bainbridge 1989).
Un’altra debolezza di un questionario via posta è l’alto tasso di
mancanza di risposta (Fowler 1988, Bainbridge 1989, Neuman
1994). Tuttavia, sono state prese delle contromisure, associando
questo studio con un’istituzione fidata nel campo del data
warehousing (cioè TDWI) (Bainbridge 1989, Neuman 1994), la
quale trasmette due lettere di sollecito ai chi non ha risposto
(Fowler 1988, Neuman 1994) ed include inoltre una lettera
aggiuntiva che spiega lo scopo dello studio (Neuman 1994).
3.4.2. Eenheet vun Analyse
Lo scopo di questo studio è ottenere le informazioni circa
l’implementazione del data warehousing e l’utilizzo dello stesso
all’interno delle organizzazioni australiane. La popolazione obiettivo
è costituita da tutte le organizzazioni australiane che hanno
implementato, o stanno implementando, i daten Lager, an
seguito vengono intestate le singole organizzazioni. Il questionario
via posta è stato spedito alle organizzazioni interessate all’adozione
di daten Lager. Questo metodo garantisce che le informazioni
raccolte provengano dalle risorse più adatte di ogni organizzazione
partecipante.
3.4.3. Ëmfro Prouf
La “mailing list” dei partecipanti all’indagine è stata ottenuta da
TDWI. A partire da questa lista, 3000 organizzazioni australiane
sono state selezionate come base per il campionamento. Una
lettera di aggiuntiva spiegava il progetto e lo scopo dell’indagine,
insieme ad una scheda per le risposte e una busta prepagata per
rinviare il questionario compilato sono state inviate al campione.
Delle 3000 organizzazioni, 198 hanno accettato di partecipare allo
studio. Era previsto un così piccolo numero di risposte dato il
grande numero di organizzazioni australiane che allora avevano
abbracciato o stavano abbracciando la strategia di data
warehousing all’interno delle loro organizzazioni. Quindi, la
popolazione obiettivo per questo studio consiste di sole 198
organizzazioni.
3.4.4. Inhalter vum Questionnaire
La struttura del questionario è stata basata sul modello di data
warehousing Monash (discusso precedentemente nella parte 2.3). Il
contenuto del questionario è stato basato sull’analisi della
letteratura presentata nel capitolo 2. Una copia del questionario
spedito ai partecipanti all’indagine può essere trovata
nell’appendice B. Il questionario è composto da sei sezioni, che
seguono le fasi del modello trattato. I seguenti sei paragrafi
brevemente ricapitolano il contenuto di ogni sezione.
Sektioun A: Basis Informatiounen iwwert d'Organisatioun
Questa sezione contiene le domande relative al profilo delle
organizzazioni partecipanti. In più, alcune delle domande sono
relative alla condizione del progetto di data warehousing del
partecipante. Le informazioni confidenziali quale il nome
dell’organizzazione non sono state rivelate nell’analisi di indagine.
Abschnitt B: Ufank
Le domande in questa sezione sono relative all’attività di inizio di
data warehousing. Le domande sono state fatte per quanto
riguarda gli iniziatori di progetto, garanti, abilità e conoscenza
richieste, gli obiettivi dello sviluppo di data warehousing e le
aspettative degli utilizzatori finali.
Sektioun C: Design
Questa sezione contiene le domande relative alle attività di
pianificazione del daten Lager. In particolare, le domande sono
state circa la portata di esecuzione, la durata del progetto, il costo
del progetto e l’analisi di costi/benefici.
Sektioun D: Entwécklung
Nella sezione di sviluppo ci sono le domande relative alle attività di
sviluppo del daten Lager: raccolta di requisiti dell’utilizzatore
finale, le fonti di dati, de logesche Modell vun dati, prototipi, la
pianificazione di capienza, architetture tecniche e selezione dei
tools di sviluppo del data warehousing.
Sektioun E: Operatioun
Domande di funzionamento relative al funzionamento ed
all’estensibilità del daten Lager, come si evolve nella
successiva fase di sviluppo. La daten Qualitéit, le strategie di
refresh dei dati, der granularity vun dati, scalabilità del data
warehouse ed i problemi di sicurezza del daten Lager erano fra
le tipologie di domande fatte.
Sektioun F: Entwécklung
Questa sezione contiene le domande relative all’utilizzo del data
warehouse da parte degli utenti finali. Il ricercatore era interessato
allo scopo e all’utilità del daten Lager, la revisione e le strategie
di addestramento adottati e la strategia di controllo del data
warehouse adottata.
3.4.5. Äntwert Taux
Anche se le indagini via posta sono criticate per avere un tasso di
risposta basso, sono state adottate delle misure per aumentare il
tasso di rendimento (come discusso precedentemente nella parte
3.4.1). Il termine ‘tasso di risposta’ si riferisce alla percentuale di
persone in un campione particolare di indagine che risponde al
questionario (Denscombe 1998). E’ stata utilizzata la seguente
formula per calcolare il tasso di risposta per questo studio:
Zuel vu Leit déi geäntwert hunn
Tasso di risposta =
——————————————————————————– X 100
Numero totale di questionari spediti
3.4.6. Pilot Test
Prima che il questionario sia spedito al campione, le domande sono
state esaminate effettuando le prove pilota, come suggerito da Luck
e Rubin (1987), Jackson (1988) e de Vaus (1991). Lo scopo delle
prove pilota è di rivelare tutte le espressioni scomode, ambigue e
domande di difficile interpretazione, per chiarire qualunque
definizioni e termini usati e per identificare il tempo approssimativo
richiesto per compilare il questionario (Warwick e Lininger 1975,
Jackson 1988, Salant e Dilman 1994). Le prove pilota sono state
effettuate selezionando soggetti con caratteristiche simili a quelle
dei soggetti finali, come suggerito Davis e Cosenza (1993). An
questo studio, sei professionisti di data warehousing sono stati
selezionati come i soggetti pilota. Dopo ogni prova pilota, sono
state fatte le correzioni necessarie. Dalle prove pilota effettuate, i
partecipanti hanno contribuito a rimodellare e reimpostar la
versione definitiva del questionario.
3.4.7. Analyse Methoden Vun Dati
I dati di indagine raccolti dai questionari a domanda chiusa sono
stati analizzati usando un pacchetto di programmi statistico
denominato SPSS. Molte delle risposte sono state analizzate
usando le statistiche descrittive. Un certo numero di questionari
sono ritornati incompleti. Questi sono stati trattati con maggiore
attenzione per accertarsi che i dati mancanti non fossero una
conseguenza degli errori di data entry, ma perché le domande non
erano adatte per il dichiarante, o il dichiarante ha deciso non
rispondere ad una o più domande specifiche. Queste risposte
mancanti sono state ignorate durante l’analisi dei dati e sono state
codificate come ‘- 9’ per accertare la loro esclusione dal processo di
analisi.
Nel preparare il questionario, le domande chiuse sono state
precodificate assegnando un numero ad ogni opzione. Il numero
allora è stato usato per preparare i dati durante l’analisi
(Denscombe 1998, Sapsford e Jupp 1996). Per esempio, c’erano
sei opzioni elencate nella domanda 1 della sezione B: consiglio
d’amministrazione, esecutivo ad alto livello, dipartimento IT , unità
di affari, i consulenti ed altro. Nello schedario di dati di SPSS, è
stata generata una variabile per indicare ‘l’iniziatore di progetto’,
con sei etichette di valore: ‘1’ per il ‘consiglio d’amministrazione’, ‘2’
per ‘l’esecutivo ad alto livello’ e così via. L’uso della scala di Likertin
in alcune delle domande chiuse inoltre ha permesso
un’identificazione che non richiede sforzo visto l’utilizzo dei valori
numerici corrispondenti inseriti in SPSS. Per le domande con le
risposte non esaustive, che non erano reciprocamente esclusive,
ogni opzione è stata trattata come una singola variabile con due
etichette di valore: ‘1 ‘ per ‘segnata’ e ‘2 ‘ per ‘non segnata’.
Le domande aperte sono state trattate diversamente dalle domande
chiuse. Le risposte a queste domande non sono state inserite in
SPSS. Al contrario, sono state analizzate a mano. L’uso di questo
tipo di domande permette di acquisire informazioni circa le idee
liberamente espresse e le esperienze personali nei dichiaranti
(Bainbridge 1989, Denscombe 1998). Dove possibile, è stata fatta
una categorizzazione delle risposte.
Fir d'Analyse vun dati, sono usati metodi di semplice analisi statistica,
come la frequenza delle risposte, la media, la scarto quadratico
medio e la mediana (Argyrous 1996, Denscombe 1998).
Il Gamma test era performante per ottenere misure quantitative
delle associazioni tra dati ordinali (Norusis 1983, Argyrous 1996).
Questi test erano appropriati perché le scale ordinali usate non
avevano molte categorie e potevano essere mostrate in una tabella
(Norusis 1983).
3.5 Resumé
In questo capitolo, sono stati discussi la metodologia di ricerca e il
design adottati per questo studio.
La selezione del più appropriato metodo di ricerca per un
particolare studio prende in
considerazione un certo numero di regole, inclusa la natura e il tipo
della ricerca, così come i meriti e le debolezze di ogni possibile
metodo(Jenkins 1985, Benbasat et al. 1097,Galliers e Land 1987,
yin 1989, Hamilton e ives 1992, Galliers 1992, neuman 1994). Vista
la mancanza di conoscenza e teoria esistenti a proposito
dell’adozione di data warehousing in Australia, questo studio di
ricerca richiede un metodo di ricerca interpretativo con una abilità
esplorativa per esplorare le esperienze delle organizzazioni
australiane. Il metodo di ricerca prescelto è stato selezionato per
raccogliere informazioni riguardanti l’adozione del concetto di data
ware-housing da parte delle organizzazioni australiane. Un
questionario postale è stato scelto come tecnica di raccolta dati. Le
giustificazioni per il metodo di ricerca e la tecnica di raccolta dati
selezionati saranno fornite in questo capitolo. Inoltre è stata
presentata una discussione sull’unità di analisi,il campione
utilizzato, le percentuali di risposte, il contenuto del questionario, il
pre test del questionario e il metdo di analisi dei dati.

Entwerfen a Donnéeën Warehouse:
Kombinéiert Entitéitsrelatioun a Dimensiounsmodelléierung
mythologesch
Lagerung i dati è un problema attuale importante per molte
organizzazioni. Un problema chiave nello sviluppo
dell’immagazzinamento dei dati et ass säin Design.
Il disegno deve sostenere il rilevamento di concetti nel data
warehouse a legacy system e le altre fonti di dati ed anche una
facile comprensione ed efficienza nell’implementazione di data
Lager.
Vill vun der Stockage Literatur vun dati recommandéiert
l’uso di entity relationship modelling or dimensional modelling per
rappresentare il disegno di daten Lager.
In questo giornale noi mostriamo come entrambe le
rappresentazioni possono essere combinate in un approccio per il
disegno di daten Lager. D'Approche benotzt ass systematesch
esaminato in un caso di studio ed è identificato in un numero di
importanti implicazioni con professionisti.
DATA WAREHOUSING
Un daten Lager di solito è definito come un “subject-oriented,
integrated, time-variant, and nonvolatile collection of data in support
of management’s decisions” (Inmon and Hackathorn, 1994).
Subject-oriented and integrated indica che il daten Lager è
progettato per attraversare i confini funzionali dei legaci system per
offrire una prospettiva integrata dei dati.
Zäit-Variant beaflosst d'historesch oder Zäit-Serie Natur vun der dati in
un daten Lager, la quale abilita trend per essere analizzati.
Non-volatile indica che il daten Lager non è continuamente
aggiornato come un Datebank di OLTP. Piuttosto è aggiornato
periodicamente, con dati kommen aus internen an externen Quellen. Déi
daten Lager specificatamente è disegnato per la ricerca
piuttosto che per l’integrità degli aggiornamenti e le prestazioni delle
operazioni.
D'Iddi fir ze späicheren i dati non è nuova, è stato uno degli scopi
di gestione dei dati zënter de sechzeger Joeren (The Martin, 1982).
I daten Lager si bidden d'Infrastruktur dati per management
support systems. Management support systems includono decision
support systems (DSS) and executive information systems (EIS).
Un DSS è un sistema di informazioni computer-based che è
progettato per migliorare il processo e di conseguenza la presa di
decisione umana. Un EIS è tipicamente un sistema di consegna di
dati che abilita dirigenti d’azienda ad accedere facilmente alla vista
dei dati.
Déi allgemeng Architektur vun engem daten Lager beliicht d'Roll vun
daten Lager nel supporto alla gestione. Oltre ad offrire
l’infrastruttura dati fir EIS and DSS, al daten Lager ass méiglech
accedervi direttamente attraverso le query. I dati inclusi in un data
warehouse si basano su un’analisi dei requisiti di informazioni di
gestione e sono ottenuti da tre fonti: internal legacy systems,
special purpose data capture systems and external data sources. I
dati negli internal legacy systems sono frequentemente ridondanti,
inconsistenti, di bassa qualità, e immagazzinati in diversi formati
quindi devono essere riconciliati e puliti prima di poterli caricare nel
daten Lager (Inmon, 1992; McFadden, 1996). DEN dati provenienti
da sistemi di immagazzinamento dati ad hoc an aus Quellen dati
extern ginn dacks benotzt fir ze vergréisseren (aktualiséieren, ersetzen) i
dati aus Legacy Systemer.
Et gi vill zwéngend Grënn eng entwéckelen daten Lager,
che includono una migliore presa di decisione attraverso l’uso
effettivo di più informazioni (Ives 1995), il supporto per un focus
sugli affari completi (Graham 1996), e la riduzione in costi di
provvedimento di dati per EIS e DSS (Graham 1996, McFadden
1996).
Un recente studio empirico ha scoperto, in media, un ritorno degli
investimenti per i daten Lager del 401% dopo tre anni (Graham,
1996). Comunque, gli altri studi empirici di daten Lager hunn
trovato significanti problemi incluso la difficoltà nel misurare ed
assegnare benefici, mancanza di un scopo chiaro, sottovalutando lo
scopo e la complessità del processo di immagazzinare i dati, an
particolare quanto riguarda le fonti e la pulizia dei dati.
Lagerung i dati può essere considerato come una soluzione
al problema di gestione dei dati fra le organizzazioni. La
manipolazione dei dati come risorsa sociale è rimasto uno dei
problemi chiave nella gestione di sistemi di informazioni in tutto il
mondo per molti anni (Brancheau et al. 1996, Galliers et al. 1994,
Niederman et al. 1990, Pervan 1993).
Eng populär Approche fir Gestioun dati negli anni ottanta era
lo sviluppo di un modello dati sozial. Modell dati sociale fu
pensato per offrire una base stabile per lo sviluppo di nuovi sistemi
applicativi e Datebank e la ricostruzione e l’integrazione di legacy
systems (Brancheau et al.
1989, Goodhue et al. 1988:1992, Kim and Everest 1994).
Comunque, ci sono molti problemi con questo approccio, in
particolare, la complessità e il costo di ogni task, ed il lungo tempo
richiesto per avere risultati tangibili (Beynon-Davies 1994, Earl
1993, Goodhue et al. 1992, Periasamy 1994, Shanks 1997).
Il daten Lager è un databse separato che co-esiste coi legacy
databases piuttosto che sostituirli. Esso perciò consente di
indirizzare la gestione dei dati ed evitare la costosa ricostruzione
dei legacy systems.
EXISTENT APPROACHEN BIS DATA DESIGN
LAGER
De Prozess vum Bau a perfektionéiere vun engem daten Lager
va compreso più come un processo evolutivo piuttosto che un
lifecycle di sviluppo di sistemi tradizionali (Wonsch, 1995, Shanks,
O’Donnell and Arnott 1997a ). Ci sono molti processi coinvolti in un
progetto di daten Lager come inizializzazione, pianificazione;
informazioni acquisite dai requisiti chieste ai dirigenti d’azienda;
fonti, trasformazioni, pulizia dei dati e di sincronizzazione da legacy
systems e le altre fonti di dati; sistemi di consegna in sviluppo;
monitoraggio dei daten Lager; e insensatezza del processo
evolutivo e di costruzione di un daten Lager (Stinchi, O’Donnell
ed Arnott 1997b). In questo giornale, noi focalizziamo su come
disegnare i dati immagazzinati nel contesto di questi altri processi.
Ci sono un numero di approcci proposti per l’architettura dei data
warehouse nella letteratura (Inmon 1994, Ives 1995, Kimball 1994
McFadden 1996). Ognuna di queste metodologie ha una breve
rassegna con un’analisi dei loro punti di forza e non.
Inmon's (1994) Approche fir Donnéeën Warehouse
Design
Inmon (1994) propose quattro passi iterativi per disegnare un data
warehouse (veda Figura 2). Il primo passo è progettare un modello
dati sozial ze verstoen wéi ech dati possono essere integrati
attraverso aree funzionali all’interno di un’organizzazione
suddividendo i dati Buttek an Beräicher. Modell dati et gëtt gemaach fir
immagazzinare dati betreffend Entscheedungsprozess, inklusiv dati
Historiker, an abegraff dati dedotti ed aggregati. Il secondo passo è
identificare aree soggette per la realizzazione. Questi sono basati
su priorità determinate da una particolare organizzazione. Il terzo
passo comporta il disegno di un Datebank per l’area soggetta, pone
particolare attenzione a includere appropriati livelli di granularità.
Inmon raccomanda di usare il modello entità e relazioni. Il quarto
passo è identificare sistemi di fonti dati richiesti e sviluppare
processi di trasformazione per acquisire, pulire e formattare i dati.
D'Stäerkte vun der Inmon Approche sinn datt de Modell dati sozial
offre la base per l’integrazione di dati all’interno dell’organizzazione
e pianificazione di supporti per lo sviluppo iterativo di data
warehouse. Le sue pecche sono la difficoltà e il costo nel disegnare
Modell dati sociale, la difficoltà nel capire modelli di entità e
relazioni usati in ambo i modelli, quello dati sozial an déi vun dati
gespäichert vun Sujet Beräich, an der ugepasst vun dati vun der
disegno di daten Lager fir d'Realisatioun vun Datebank
relational awer net fir Datebank multidimensional.
Ives (1995) Approach to Donnéeën Warehouse
Design
Ives (1995) propone un approccio di quattro passi per disegnare un
sistema informativo che lui ritiene applicabile al disegno di un data
warehouse (veda Figura 3). L’approccio è molto basato sull’
Information Engineering per lo sviluppo di sistemi di informazioni
(Martin 1990). Il primo passo è determinare gli obiettivi, i fattori
critici e di successo e gli indicatori chiave delle prestazioni. I
processi chiave di business e le informazioni necessarie sono
modellate per condurci ad un modello dati sociale. Il secondo passo
comporta lo sviluppo di un architettura che definisce dati
gespäichert vu Beräicher, Datebank di daten Lager, i componenti
di tecnologia che sono richiesti, l’insieme di supporto organizzativo
richiesto per implementare ed operare con daten Lager. Il terzo
passo include la selezione di pacchetti software e attrezzi richiesti.
Il quarto passo è il disegno particolareggiato e la costruzione del
daten Lager. Den Ives bemierkt datt d'Späichere dati è un vincolato
processo iterativo.
La forza dell’approccio di Ives sono l’uso di specifiche tecniche per
determinare i requisiti d’informazione, l’uso di uno strutturato
processo per sostenere l’integrazione dei daten Lager,
l’opportuna selezione hardware e software, e l’uso di molteplici
tecniche di rappresentazione per il daten Lager. Le sue pecche
sono inerenti alla complessità. Altre includono la difficoltà nello
sviluppare molti livelli di Datebank all'interno del daten Lager in
tempi e costi ragionevoli.
Kimball's (1994) Approach to Donnéeën Warehouse
Design
Kimball (1994) propose cinque passi iterativi per disegnare un data
warehouse (vedi Figuri 4). Il suo approccio è particolarmente
dedicato sul disegno di un solo daten Lager e sull’uso di modelli
dimensionali in preferenza a modelli di entità e relazioni. Kimball
analizza quei modelli dimensionali perché è più facile capire per i
dirigenti d’azienda gli affari, è più efficiente quando si trattano
consultazioni complesse, e il disegno di Datebank fisico è più
efficiente (Kimball 1994). Kimball riconosce che lo sviluppo di un
daten Lager et ass iterativ, an dat daten Lager separati possono
essere integrati attraverso la ripartizione in tavole di dimensioni
comuni.
Il primo passo è identificare la particolare area soggetto per essere
perfezionato. Il secondo e terzo passo concernono modellatura
dimensionale. Nel secondo passo le misure identificano cose di
interesse nell’area soggetto e raggruppate in una tabella dei fatti.
Per esempio, in un’area di soggetto di vendite le misure di interesse
potrebbero includere l’ammontare di articoli venduto ed il dollaro
come valuta di vendite. Il terzo passo comporta l’identificazione di
dimensioni che sono i modi nei quali possono essere raggruppati i
fatti. In un’area di soggetto di vendite, dimensioni attinenti
potrebbero includere articolo, ubicazione e tempo periodo. La
tabella dei fatti ha una chiave multi- part per collegarla ad ognuna
delle tabelle di dimensione e tipicamente contiene un numero molto
grande di fatti. In contrasto, tavole di dimensione contengono
descrittive informazioni sulle dimensioni e gli altri attributi che
possono essere usati per raggruppare i fatti. La tabella dei fatti e
dimensioni associata proposta forma quello che è chiamato uno
schema a stella a causa della sua forma. Il quarto passo comporta
la costruzione di un Datebank multidimensionale per perfezionare lo
schema della stella. Il passo finale è identificare sistemi di fonti dati
richiesti e sviluppare processi di trasformazione per acquisire, pulire
e formattare i dati.
Le forze dell’approccio di Kimball includono l’uso di modelli
dimensionali per rappresentare i dati immagazzinati che lo rendono
facile da capire e conduce ad un disegno fisico efficiente. Un
modello dimensionale che usa prontamente anche entrambi i
Systemer vun Datebank relational kann perfekt oder Systemer ginn
Datebank multidimensionali. Le sue pecche includono la mancanza
di alcune tecniche per facilitare la pianificazione o l’integrazione di
molti schemi della stella all’interno di un daten Lager an der
difficoltà di progettare dall’estrema struttura denormalizzata in un
modello dimensionale a dati am Legacy System.
McFadden's (1996) Approach to Data
Warehouse Design
McFadden (1996) propone un approccio di cinque passi per
disegnare un daten Lager (kuckt Bild 5).
Il suo approccio è basato su una sintesi delle idee dalla letteratura
ed è focalizzato sul disegno di un solo daten Lager. Dat éischt
passo comporta un’analisi dei requisiti. Anche se le specifiche
tecniche non sono prescritte, le note di McFadden identificano le
entità dati specifiche ed i loro attributi, e si riferisce ai lettori Watson
e Frolick (1993) per l’acquisizione dei requisiti.
Am zweete Schrëtt ass en Entitéitsrelatiounsmodell entworf fir
daten Lager e poi convalidato dai dirigenti d’azienda. Il terzo
passo comprende la determinazione del mapping da legacy system
e fonti esterne di daten Lager. Il quarto passo comporta
processi in sviluppo, la distribuzione e sincronizzazione di dati an
daten Lager. Nel passo finale, la consegna del sistema è
sviluppata con particolare enfasi su un’interfaccia utente.
McFadden fa notare che il processo di disegno è generalmente
iterativo.
Le forze dell’approccio di McFadden puntano sulla partecipazione
da parte dei dirigenti d’azienda nel determinare i requisiti ed anche
l’importanza delle risorse dati, la loro pulizia e raccolta. Le sue
pecche riguardano la mancanza di un processo per suddividere un
grande progetto di daten Lager a ville integréiert Etappen, an der
Schwieregkeeten der Entitéit a Relatioun Modeller verstoen am Design benotzt vun
daten Lager.

    0/5 (0 Bewäertungen)
    0/5 (0 Bewäertungen)
    0/5 (0 Bewäertungen)

    Fannt méi vun der Online Web Agentur eraus

    Abonnéiert Iech fir déi lescht Artikelen per E-Mail ze kréien.

    Auteur avatar
    Administrator CEO
    👍Online Web Agence | Web Agentur Expert am Digital Marketing a SEO. Web Agentur Online ass eng Web Agentur. Fir Agenzia Web Online Erfolleg an der digitaler Transformatioun baséiert op de Fundamenter vun Iron SEO Versioun 3. Spezialitéiten: Systemintegratioun, Enterprise Application Integration, Service Oriented Architecture, Cloud Computing, Data Warehouse, Business Intelligence, Big Data, Portalen, Intranet, Web Application Design a Gestioun vun relational a multidimensional Datenbanken Design Schnëttplazen fir digital Medien: Benotzerfrëndlechkeet a Grafiken. Online Web Agence bidden Firmen déi folgend Servicer: -SEO op Google, Amazon, Bing, Yandex; -Web Analytics: Google Analytics, Google Tag Manager, Yandex Metrica; -Benotzer Konversiounen: Google Analytics, Microsoft Clarity, Yandex Metrica; -SEM op Google, Bing, Amazon Annoncen; -Social Media Marketing (Facebook, Linkedin, Youtube, Instagram).
    Meng Agile Privatsphär
    Dëse Site benotzt technesch a profiléierend Cookien. Andeems Dir op akzeptéiere klickt, autoriséiert Dir all Profil-Cookien. Andeems Dir op refuséieren oder op den X klickt, ginn all Profil-Cookien verworf. Andeems Dir op Customize klickt ass et méiglech ze wielen wéi eng Profiler Cookien ze aktivéieren.
    Dëse Site entsprécht dem Dateschutzgesetz (LPD), dem Schwäizer Bundesgesetz vum 25. September 2020, an dem GDPR, EU-Reglement 2016/679, betreffend de Schutz vu perséinlechen Donnéeën souwéi de fräie Verkéier vun esou Donnéeën.