fbpx

Datawarehouse en Enterprise Resource Planning | DWH en ERP

ARCHIEF GEGEVENS CENTRAAL: GESCHIEDENIS ED EVOLUTIE

De twee dominante thema's van bedrijfstechnologie in de jaren negentig waren i datawarehouse en het ERP. Deze twee krachtige stromen zijn lange tijd onderdeel geweest van bedrijfs-IT zonder ooit een kruising te hebben gehad. Het was bijna alsof ze materie en antimaterie waren. Maar de groei van beide fenomenen heeft onvermijdelijk geleid tot hun kruising. Tegenwoordig worden bedrijven geconfronteerd met het probleem wat te doen met ERP en datawarehouse. In dit artikel wordt uitgelegd wat de problemen zijn en hoe bedrijven deze aanpakken.

AAN HET BEGIN…

In het begin was er de datawarehouse. Gegevens magazijn het is geboren om het applicatiesysteem voor transactieverwerking tegen te gaan. In de vroege dagen memoriseren van gegevens het was bedoeld als een contrapunt voor toepassingen voor transactieverwerking. Maar tegenwoordig zijn er veel meer verfijnde visies van wat een datawarehouse. In de wereld van vandaag de datawarehouse het wordt ingevoegd in een structuur die de Corporate Information Factory genoemd kan worden.

DE BEDRIJFSINFORMATIEFABRIEK (CIF)

De Corporate Information Factory heeft standaard architecturale componenten: een code-integratie- en transformatielaag die i gegevens terwijl ik gegevens ze gaan van de applicatieomgeving naar de omgeving van de datawarehouse van het bedrijf; A datawarehouse van het bedrijf waar de gegevens gedetailleerde en geïntegreerde historici. De datawarehouse van de onderneming dient als de basis waarop alle andere delen van de omgeving kunnen worden gebouwd datawarehouse; een operationele gegevensopslag (ODS). Een ODS is een hybride structuur die een bepaald aspect van de datawarehouse en andere aspecten van een OLTP-omgeving; datamarts, waar verschillende afdelingen hun eigen versie van de datawarehouse; een datawarehouse verkenning waar bedrijfsdenkers hun 72-uursvragen kunnen indienen zonder nadelige gevolgen voor de datawarehouse; en een near-line geheugen, waarin gegevens oud en gegevens bulkgegevens kunnen goedkoop worden opgeslagen.

WAAR COMBINEERT HET ERP MET DE BEDRIJFSINFORMATIEFABRIEK

Het ERP fuseert op twee plaatsen met de Corporate Information Factory. In de eerste plaats als basistoepassing die i gegevens van de aanvraag aan datawarehouse. In dit geval i gegevens, gegenereerd als bijproduct van een transactieproces, worden geïntegreerd en geladen in de datawarehouse van het bedrijf. De tweede schakel tussen ERP en CIF is de ODS. Inderdaad, in veel omgevingen wordt ERP gebruikt als klassieke ODS.

Indien ERP als basistoepassing wordt gebruikt, kan dezelfde ERP ook in de CIF als ODS worden gebruikt. Als ERP in beide rollen moet worden gebruikt, moet er in ieder geval een duidelijk onderscheid zijn tussen de twee entiteiten. Met andere woorden, wanneer ERP de rol van basisapplicatie en ODS speelt, moeten de twee architecturale entiteiten worden onderscheiden. Als een enkele implementatie van een ERP beide rollen tegelijkertijd probeert te vervullen, zullen er onvermijdelijk problemen ontstaan ​​bij het ontwerp en de implementatie van dat raamwerk.

AFZONDERLIJKE ODS EN BASISTOEPASSINGEN

Er zijn veel redenen die leiden tot de verdeling van architecturale componenten. Misschien wel het meest veelzeggende punt bij het scheiden van de verschillende componenten van een architectuur is dat elk onderdeel van de architectuur zijn eigen visie heeft. De basisaanvraag dient een ander doel dan de ODS. Probeer te overlappen

een basisbeeld van de toepassing van de wereld van een ODS of vice versa is geen eerlijke manier van werken.

Bijgevolg is het eerste probleem van een ERP in de CIF om te verifiëren of er een onderscheid is tussen de basistoepassingen en de ODS.

GEGEVENSMODELLEN IN HET BEDRIJF INFORMATIE FABRIEK

Om samenhang tussen de verschillende componenten van de CIF-architectuur te bereiken, moet er een model van zijn gegevens. De modellen van gegevens ze dienen als schakel tussen de verschillende onderdelen van de architectuur zoals de baseline applicaties en het ODS. De modellen van gegevens ze worden de "intellectuele routekaart" om de juiste betekenis te krijgen van de verschillende architecturale componenten van de CIF.

Hand in hand met dit idee, is het idee dat er één groot en enkel patroon zou moeten zijn gegevens. Uiteraard moet er een patroon van zijn gegevens voor elk van de componenten en bovendien moet er een verstandig pad zijn dat de verschillende modellen met elkaar verbindt. Elk onderdeel van de architectuur – ODS, basisapplicaties, datawarehouse van het bedrijf, enzovoort.. – heeft zijn eigen model nodig van gegevens. En dus moet er een precieze definitie zijn van hoe deze modellen van gegevens ze communiceren met elkaar.

BEWEEG ik GEGEVENS VAN HET ERP IN DE GEGEVENS MAGAZIJN

Als de oorsprong van de gegevens is een basistoepassing en/of een ODS, wanneer de ERP i gegevens in datawarehouse, moet deze invoeging plaatsvinden op het laagste niveau van "granulariteit". Eenvoudig samenvatten of aggregeren i gegevens zoals ze uit de ERP-baselinetoepassing of ERP ODS komen, is niet de juiste keuze. DE gegevens details zijn nodig in de datawarehouse om de basis te vormen van het DSS-proces. Zo een gegevens ze zullen op veel manieren worden hervormd door datamarts en verkenning datawarehouse.

Het verhuizen van gegevens van de ERP-baseline-applicatieomgeving tot de datawarehouse van het bedrijf gebeurt op een redelijk ontspannen manier. Deze verplaatsing vindt ongeveer 24 uur na de update of aanmaak in het ERP plaats. Het feit van het hebben van een "luie" beweging van de gegevens in datawarehouse van het bedrijf staat de gegevens afkomstig van de ERP om te "vereffenen". Eens ik gegevens zijn opgeslagen in de basislijntoepassing, dan kunt u de gegevens van het ERP in het bedrijf. Een ander doel dat kan worden bereikt dankzij de "luie" beweging van de gegevens is de duidelijke afbakening tussen operationele processen en DSS. Met een “snelle” beweging van de gegevens de grens tussen DSS en operationeel blijft vaag.

De beweging van gegevens van de ODS van het ERP naar datawarehouse van het bedrijf wordt periodiek gedaan, meestal wekelijks of maandelijks. In dit geval de beweging van gegevens het is gebaseerd op de noodzaak om de oude te "schoonmaken". gegevens historici. Uiteraard bevat de ODS i gegevens die veel nieuwer zijn dan de gegevens historici gevonden in de datawarehouse.

Het verhuizen van gegevens in datawarehouse het wordt bijna nooit "groothandel" gedaan (op een groothandelsmanier). Kopieer een tabel uit de ERP-omgeving naar datawarehouse het slaat nergens op. Een veel realistischere benadering is om geselecteerde eenheden van te verplaatsen gegevens. Alleen ik gegevens die zijn veranderd sinds de laatste update van de datawarehouse zijn degenen die moeten worden verplaatst naar de datawarehouse. Een manier om te weten welke gegevens zijn veranderd sinds de laatste update is om te kijken naar de tijdstempels van gegevens vinden in de ERP-omgeving. De ontwerper selecteert alle wijzigingen die zijn opgetreden sinds de laatste update. Een andere benadering is het gebruik van change capture-technieken gegevens. Met deze technieken worden logs en journal tapes geanalyseerd om te bepalen welke gegevens moet worden verplaatst van de ERP-omgeving naar die van datawarehouse. Deze technieken zijn het beste omdat logboeken en journaalbanden uit ERP-bestanden kunnen worden gelezen zonder verder effect op andere ERP-bronnen.

ANDERE COMPLICATIES

Een van de ERP-problemen in de CIF is wat er gebeurt met andere applicatiebronnen of ai gegevens van de ODS waaraan ze moeten bijdragen datawarehouse maar ze maken geen deel uit van de ERP-omgeving. Gezien het gesloten karakter van ERP, met name SAP, proberen sleutels van externe bronnen te integreren gegevens de gegevens die op het moment van verhuizen uit het ERP komen i gegevens in datawarehouse, het is een grote uitdaging. En wat zijn precies de kansen dat i gegevens van applicaties of ODS buiten de ERP-omgeving zal worden geïntegreerd in de datawarehouse? De kansen zijn eigenlijk heel hoog.

VINDEN GEGEVENS HISTORISCH UIT ERP

Een ander probleem met i gegevens van ERP is datgene wat voortkomt uit de behoefte om te hebben gegevens historici binnen de datawarehouse. meestal de datawarehouse hij heeft nodig gegevens historici. En ERP-technologie slaat deze meestal niet op gegevens historisch, althans niet in de mate dat het nodig is in de datawarehouse. Wanneer een grote hoeveelheid gegevens logs beginnen op te tellen in de ERP-omgeving, moet die omgeving worden opgeschoond. Stel bijvoorbeeld een datawarehouse moet worden geladen met vijf jaar gegevens historisch terwijl het ERP hiervan maximaal zes maanden bewaart gegevens. Zolang het bedrijf tevreden is om een ​​aantal te verzamelen gegevens naarmate de tijd verstrijkt, is het geen probleem om de ERP als bron voor de datawarehouse. Maar wanneer de datawarehouse moet teruggaan in de tijd en goden nemen gegevens geschiedenis die niet eerder door het ERP is verzameld en opgeslagen, dan wordt de ERP-omgeving inefficiënt.

ERP EN METADATA

Een andere overweging die u moet maken over ERP e datawarehouse is die op de bestaande metadata in de ERP-omgeving. Net zoals metadata van de ERP-omgeving naar de datawarehouse, moeten de metadata op dezelfde manier worden verplaatst. Daarnaast moeten de metadata worden omgezet in het formaat en de structuur die de infrastructuur nodig heeft datawarehouse. Er is een groot verschil tussen operationele metadata en DSS-metadata. Operationele metadata is meestal voor de ontwikkelaar en voor de

programmeur. DSS-metadata zijn er in de eerste plaats voor de eindgebruiker. Bestaande metadata in ERP-applicaties of ODS'en moeten worden geconverteerd en deze conversie is niet altijd eenvoudig en rechtlijnig.

ZOEKEN VAN DE ERP-GEGEVENS

Als het ERP wordt gebruikt als leverancier van gegevens de datawarehouse er moet een solide interface zijn die i beweegt gegevens van de ERP-omgeving naar de omgeving datawarehouse. De interface moet:

  • ▪ gebruiksvriendelijk zijn
  • ▪ toegang verlenen tot gegevens van het ERP
  • ▪ de betekenis oppikken van gegevens waarnaar wordt verhuisd datawarehouse
  • ▪ de beperkingen van het ERP kennen die kunnen optreden bij de toegang tot het gegevens van het ERP:
  • ▪ referentiële integriteit
  • ▪ hiërarchische relaties
  • ▪ impliciete logische relaties
  • ▪ toepassingsconventie
  • ▪ alle structuren van gegevens ondersteund door het ERP, enzovoort...
  • ▪ efficiënt zijn in toegang gegevens, door aan te bieden:
  • ▪ directe verplaatsing van gegevens
  • ▪ acquisitie van wisselgeld gegevens
  • ▪ ondersteuning van tijdige toegang tot gegevens
  • ▪ het formaat van de gegevens, enzovoorts… INTERFACE MET SAP De interface kan van twee soorten zijn, van eigen bodem of commercieel. Enkele van de belangrijkste commerciële interfaces zijn:
  • ▪ SAS
  • ▪ Eersteklas oplossingen
  • ▪ D2k, enzovoort... MEERDERE ERP-TECHNOLOGIEËN De ERP-omgeving behandelen alsof het één technologie is, is een grote vergissing. Er zijn veel ERP-technologieën, elk met zijn sterke punten. De bekendste leveranciers op de markt zijn:
  • ▪ SAP
  • ▪ Oracle Financieel
  • ▪ PeopleSoft
  • JD Edwards
  • ▪ Baans SAP SAP is de grootste en meest uitgebreide ERP-software. SAP-toepassingen omvatten veel soorten toepassingen op veel gebieden. SAP staat bekend als:
  • ▪ erg groot
  • ▪ erg moeilijk en duur om te implementeren
  • ▪ heeft veel mensen en consultants nodig om te implementeren
  • ▪ heeft gespecialiseerde mensen nodig voor de uitvoering
  • ▪ kost veel tijd om te implementeren Ook SAP heeft de reputatie om zijn gegevens nauwlettend in de gaten, waardoor het moeilijk wordt voor iemand buiten het SAP-gebied om er toegang toe te krijgen. De kracht van SAP is dat het in staat is om een ​​grote hoeveelheid data vast te leggen en op te slaan gegevens. SAP heeft onlangs de intentie aangekondigd om haar applicaties uit te breiden naar datawarehouse. Er zijn veel voor- en nadelen aan het gebruik van SAP als leverancier datawarehouse. Een voordeel is dat SAP al is geïnstalleerd en de meeste consultants al bekend zijn met SAP.
    De nadelen van het hebben van SAP als leverancier van datawarehouse zijn er veel: SAP heeft geen ervaring in de wereld van datawarehouse Als SAP de leverancier is van datawarehouse, is het noodzakelijk om i gegevens van SAP naar datawarehouse. Dato a SAP's staat van dienst van een gesloten systeem, is het onwaarschijnlijk dat het gemakkelijk zal zijn om i van SAP erin te krijgen (???). Er zijn veel legacy-omgevingen die SAP aandrijven, zoals IMS, VSAM, ADABAS, ORACLE, DB2, enzovoort. SAP dringt aan op een "niet uitgevonden hier"-benadering. SAP wil niet samenwerken met andere leveranciers om het datawarehouse. SAP staat erop al zijn software zelf te genereren.

Hoewel SAP een groot en machtig bedrijf is, is het feit dat men probeert de technologie van ELT, OLAP, systeembeheer en zelfs de codebasis van de dbm's het is gewoon krankzinnig. In plaats van een coöperatieve houding aan te nemen met de leveranciers datawarehouse SAP volgt al lang de aanpak die zij "het beste weten". Deze houding belemmert het succes dat SAP zou kunnen hebben op het gebied van datawarehouse.
De weigering van SAP om externe leveranciers snel en gracieus toegang te geven tot die van hen gegevens. De essentie van het gebruik van een datawarehouse is gemakkelijk toegankelijk gegevens. Het hele verhaal van SAP is gebaseerd op het moeilijk toegankelijk maken ervan gegevens.
Het gebrek aan ervaring van SAP met het omgaan met grote hoeveelheden gegevens; op het gebied van datawarehouse er zijn volumes van gegevens nog nooit van SAP gezien en om deze grote hoeveelheden te verwerken gegevens je moet over de juiste technologie beschikken. SAP is zich blijkbaar niet bewust van deze technologische barrière die bestaat om het gebied van te betreden datawarehouse.
De bedrijfscultuur van SAP: SAP heeft een bedrijf opgebouwd om i gegevens uit het systeem. Maar daarvoor moet je wel een andere mentaliteit hebben. Van oudsher zijn softwarebedrijven die goed waren in het invoeren van gegevens in een omgeving, niet goed in het de andere kant op krijgen van gegevens. Als SAP erin slaagt om zo'n overstap te maken, zal het het eerste bedrijf zijn dat dat doet.

Kortom, het is de vraag of een bedrijf SAP als leverancier moet kiezen datawarehouse. Aan de ene kant zijn er zeer ernstige risico's en aan de andere kant zeer weinig beloningen. Maar er is nog een andere reden die de keuze voor SAP als leverancier ontmoedigt datawarehouse. Omdat elk bedrijf hetzelfde zou moeten hebben datawarehouse van alle andere bedrijven? De datawarehouse het is de kern van concurrentievoordeel. Als elk bedrijf hetzelfde adopteerde datawarehouse het zou moeilijk zijn, maar niet onmogelijk, om een ​​concurrentievoordeel te behalen. SAP lijkt te denken dat a datawarehouse kan worden gezien als een cookie en dit is nog een ander teken van hun mentaliteit van "haal de gegevens in" applicaties.

Geen enkele andere ERP-leverancier is zo dominant als SAP. Ongetwijfeld zullen er bedrijven zijn die voor hun SAP de weg op gaan datawarehouse maar vermoedelijk deze datawarehouse SAP's zullen groot, duur en tijdrovend zijn om te maken.

Deze omgevingen omvatten activiteiten zoals het verwerken van bankkassa's, reserveringsprocessen voor luchtvaartmaatschappijen, klachtenprocedures voor verzekeringen, enzovoort. Hoe beter het transactiesysteem presteerde, des te duidelijker werd de noodzaak van scheiding tussen het operationele proces en het DSS (Decision Support System). Met HR- en personeelssystemen heb je echter nooit te maken met grote hoeveelheden transacties. En natuurlijk, wanneer een persoon wordt aangenomen of het bedrijf verlaat, is dit natuurlijk een record van een transactie. Maar in vergelijking met andere systemen hebben HR- en personeelssystemen simpelweg niet veel transacties. In HR- en personeelssystemen is het daarom niet helemaal vanzelfsprekend dat er behoefte is aan een DataWarehouse. In veel opzichten zijn deze systemen samensmeltingen van DSS-systemen.

Maar er is nog een andere factor waarmee rekening moet worden gehouden bij het omgaan met datawarehouse en PeopleSoft. In veel kringen, i gegevens HR en persoonlijke middelen zijn ondergeschikt aan de primaire activiteiten van het bedrijf. De meeste bedrijven produceren, verkopen, leveren diensten enzovoort. HR- en personeelssystemen zijn meestal ondergeschikt aan (of ondersteunend aan) de hoofdactiviteit van het bedrijf. Daarom is het dubbelzinnig en ongemakkelijk a datawarehouse gescheiden voor ondersteuning van HR en persoonlijke hulpbronnen.

Hierin verschilt PeopleSoft sterk van SAP. Bij SAP is het verplicht dat er een datawarehouse. Bij PeopleSoft is het allemaal niet zo duidelijk. Een datawarehouse is optioneel bij PeopleSoft.

Het beste dat kan worden gezegd voor de gegevens PeopleSoft is dat de datawarehouse kan worden gebruikt om i te archiveren gegevens gerelateerd aan oude menselijke en persoonlijke hulpbronnen. Een tweede reden waarom een ​​bedrijf een datawarehouse a

nadeel van de PeopleSoft-omgeving is de toegang en vrije toegang tot analysetools, ai gegevens door PeopleSoft. Maar afgezien van deze redenen kunnen er gevallen zijn waarin het beter is om geen datawarehouse te hebben gegevens MensenZacht.

In samenvatting

Er zijn veel ideeën die betrekking hebben op de bouw van een datawarehouse binnen een ERP-software.
Enkele hiervan zijn:

  • ▪ Het is zinvol om een datawarehouse wie lijkt op een ander in de branche?
  • ▪ Hoe flexibel een ERP is datawarehouse software?
  • ▪ Een ERP datawarehouse software kan een volume van gegevens die is gevestigd in eendatawarehouse arena"?
  • ▪ Wat is de trace logging die de ERP-leverancier doet in het licht van gemakkelijke en goedkope, tijdrovende, ai gegevens? (wat is het trackrecord van de ERP-leveranciers wat betreft de levering van goedkope, tijdige en gemakkelijk toegankelijke gegevens?)
  • ▪ Wat is het begrip van de ERP-leverancier van de DSS-architectuur en de bedrijfsinformatiefabriek?
  • ▪ ERP-leveranciers begrijpen hoe ze kunnen krijgen gegevens binnen de omgeving, maar ook begrijpen hoe ze te exporteren?
  • ▪ Hoe open staat de ERP-leverancier voor tools voor datawarehousing?
    Al deze overwegingen moeten worden gemaakt bij het bepalen waar de datawarehouse die i zal hosten gegevens van het ERP en anderen gegevens. In het algemeen is bouwen aan te bevelen, tenzij er een dwingende reden is om het anders te doen datawarehouse buiten de ERP-leveranciersomgeving. HOOFDSTUK 1 Overzicht van de BI-organisatie Kernpunten:
    Informatieopslagplaatsen werken op de tegenovergestelde manier van business intelligence (BI)-architectuur:
    Bedrijfscultuur en IT kunnen het succes van het bouwen van BI-organisaties beperken.

Technologie is niet langer de beperkende factor voor BI-organisaties. Het probleem voor architecten en projectplanners is niet of de technologie bestaat, maar of ze de beschikbare technologie effectief kunnen implementeren.

Voor veel bedrijven a datawarehouse is weinig meer dan een passieve storting die i verdeelt gegevens aan gebruikers die het nodig hebben. DE gegevens worden uit bronsystemen geëxtraheerd en door doelstructuren bevolkt datawarehouse. De gegevens ze kunnen ook met een beetje geluk worden schoongemaakt. Er wordt echter geen toegevoegde waarde toegevoegd of geïnd door de gegevens tijdens dit proces.

In wezen biedt passieve dw op zijn best alleen i gegevens schoon en operationeel voor gebruikersverenigingen. Informatiecreatie en analytisch inzicht zijn volledig afhankelijk van gebruikers. Beoordelen of de DW (Gegevens magazijn) of een succes subjectief is. Als we succes beoordelen op het vermogen om efficiënt i gegevens corporate op voorspelbare basis, ja, dan is de DW een succes. Aan de andere kant, als we kijken naar het verzamelen, consolideren en exploiteren van informatie door de organisatie als geheel, dan is de DW een mislukking. Een DW geeft weinig of geen informatiewaarde. Als gevolg hiervan moeten gebruikers het doen, waardoor informatiesilo's ontstaan. Dit hoofdstuk presenteert een alomvattende visie om de enterprise BI (Business Intelligence) architectuur samen te vatten. We beginnen met een beschrijving van BI en gaan dan in op de discussies over het ontwerp en de ontwikkeling van informatie, in tegenstelling tot simpelweg het verstrekken ervan gegevens aan gebruikers. Discussies concentreren zich vervolgens op het berekenen van de waarde van uw BI-inspanningen. We sluiten af ​​door te definiëren hoe IBM omgaat met de BI-architectuurvereisten van uw organisatie.

Architectuurbeschrijving van BI-organisatie

Krachtige transactiegerichte informatiesystemen zijn nu aan de orde van de dag in elke grote onderneming, waardoor het speelveld voor bedrijven over de hele wereld effectief gelijk wordt.

Concurrerend blijven vereist nu echter analytisch georiënteerde systemen die een revolutie teweeg kunnen brengen in het vermogen van het bedrijf om de informatie die ze al hebben te herontdekken en te gebruiken. Deze analytische systemen komen voort uit begrip van de rijkdom van gegevens beschikbaar. BI kan de prestaties van alle informatie in de hele onderneming verbeteren. Bedrijven kunnen klant-leverancierrelaties verbeteren, de winstgevendheid van producten en diensten verbeteren, nieuwe en betere deals genereren, risico's beheersen en onder andere de kosten drastisch verlagen. Met BI begint uw bedrijf eindelijk klantinformatie te gebruiken als concurrentievoordeel dankzij toepassingen die marktdoelstellingen hebben.

Het hebben van de juiste middelen van zaken betekent definitieve antwoorden hebben op belangrijke vragen zoals:

  • ▪ Welke van ons klanten Zorgen ze ervoor dat we meer verdienen, of laten ze ons geld verliezen?
  • ▪ Waar onze besten wonen klanten in relatie tot winkel/ magazijn die ze vaak bezoeken?
  • ▪ Welke van onze producten en diensten kunnen het meest effectief worden verkocht en aan wie?
  • ▪ Welke producten kunnen het meest effectief worden verkocht en aan wie?
  • ▪ Welke verkoopcampagne is succesvoller en waarom?
  • ▪ Welke verkoopkanalen zijn het meest effectief voor welke producten?
  • ▪ Hoe we relaties met onze besten kunnen verbeteren klanten? De meeste bedrijven hebben gegevens moeilijk om deze vragen te beantwoorden.
    Operationele systemen genereren grote hoeveelheden producten, klanten en kosten gegevens van de verkooppunten, reserveringen, klantenservice en technische ondersteuningssystemen. De uitdaging is om deze informatie te extraheren en te exploiteren. Veel bedrijven profiteren slechts van kleine fracties van die van hen gegevens voor strategische analyses.
    I gegevens resterende, vaak gecombineerd met i gegevens het afleiden van externe bronnen zoals overheidsrapporten en andere gekochte informatie, zijn een goudmijn die wacht om ontdekt te worden, en gegevens ze moeten alleen worden verfijnd in de informatieve context van uw organisatie.

Deze kennis kan op verschillende manieren worden toegepast, variërend van het ontwerpen van een algemene bedrijfsstrategie tot persoonlijke communicatie met leveranciers, via callcenters, facturering, Internet en andere punten. De huidige zakelijke omgeving dicteert dat DW en gerelateerde BI-oplossingen zich verder ontwikkelen dan het runnen van traditionele bedrijfsstructuren. gegevens zoals ik gegevens genormaliseerd op atomair niveau en "star/cube farms".

Wat nodig is om concurrerend te blijven, is een samensmelting van traditionele en geavanceerde technologieën om een ​​breed analytisch landschap te ondersteunen.
Ten slotte moet de algemene omgeving de kennis van het bedrijf als geheel verbeteren en ervoor zorgen dat de acties die worden ondernomen als resultaat van de uitgevoerde analyses nuttig zijn, zodat iedereen er baat bij heeft.

Stel dat u uw eigen rangschikking heeft klanten in categorieën met een hoog of laag risico.
Of deze informatie nu wordt gegenereerd door een mining-model of op een andere manier, deze moet in de DW worden ingevoerd en voor iedereen toegankelijk worden gemaakt door middel van een toegangstool, zoals statische rapporten, spreadsheets, tabellen of online analytische verwerking (OLAP).

Momenteel blijft veel van dit soort informatie echter in silo's gegevens van de personen of afdelingen die de analyse genereren. De organisatie als geheel heeft weinig tot geen zicht op begrip. Alleen door dit type informatie-inhoud in uw bedrijfs-DW te integreren, kunt u informatiesilo's elimineren en uw DW-omgeving naar een hoger niveau tillen.
Er zijn twee grote hindernissen bij het ontwikkelen van een BI-organisatie.
Ten eerste hebben we het probleem van de organisatie zelf en haar discipline.
Hoewel we u niet kunnen helpen met wijzigingen in het organisatiebeleid, kunnen we u wel helpen inzicht te krijgen in de componenten van de BI van een organisatie, de architectuur ervan en hoe de technologie van IBM de ontwikkeling ervan mogelijk maakt.
De tweede barrière die moet worden overwonnen, is het gebrek aan geïntegreerde technologie en de kennis van een methode die de hele BI-ruimte oproept in plaats van slechts een klein onderdeel.

IBM speelt in op veranderingen in de integratie van technologie. Het is jouw verantwoordelijkheid om bewust te ontwerpen. Deze architectuur moet worden ontwikkeld met technologie die is gekozen voor onbeperkte integratie, of op zijn minst met technologie die voldoet aan open standaarden. Ook moet uw bedrijfsmanagement ervoor zorgen dat de Bi-onderneming volgens schema wordt uitgevoerd en niet dat de ontwikkeling van informatiesilo's mogelijk wordt gemaakt die voortkomen uit egoïstische agenda's of doelen.
Dit wil niet zeggen dat de BI-omgeving niet gevoelig is om te reageren op de verschillende behoeften en vereisten van verschillende gebruikers; in plaats daarvan betekent het dat de implementatie van die individuele wensen en eisen wordt gedaan ten behoeve van de gehele BI-organisatie.
Een beschrijving van de architectuur van de BI-organisatie is te vinden op pagina 9 in figuur 1.1 De architectuur laat een rijke mix van technologieën en technieken zien.
Vanuit de traditionele weergave omvat de architectuur de volgende magazijncomponenten

Atomaire laag (Atoomlaag).

Dit is het fundament, het hart van de gehele Dw en daarmee van de strategische rapportage.
I gegevens hier opgeslagen zal de historische integriteit behouden, rapporten van gegevens en inclusief afgeleide statistieken, maar ook worden opgeschoond, geïntegreerd en opgeslagen met behulp van mijnbouwmodellen.
Al het latere gebruik hiervan gegevens en gerelateerde informatie is afgeleid van deze structuur. Dit is een uitstekende bron voor mijnbouw gegevens en voor rapporten met gestructureerde SQL-query's

Operationeel magazijn van gegevens of rapporteer basis van gegevens(Operational data store (ODS) of rapportage databank.)

Dit is een structuur van gegevens speciaal ontworpen voor technische rapportage.

I gegevens opgeslagen en gerapporteerd boven kunnen deze structuren zich uiteindelijk verspreiden naar het magazijn via de verzamelplaats, waar ze kunnen worden gebruikt voor strategische signalering.

Verzamelplaats.

Voor de meesten de eerste stop gegevens bedoeld voor de magazijnomgeving is de organisatiezone.
Hier Ik gegevens worden geïntegreerd, opgeschoond en omgevormd tot gegevens winsten die de magazijnstructuur zullen bevolken

Datum marts.

Dit deel van de architectuur vertegenwoordigt de structuur van gegevens specifiek gebruikt voor OLAP. De aanwezigheid van datamarts, als i gegevens ze zijn opgeslagen in de sterrenschema's die ze overlappen gegevens multidimensionaal in een relationele omgeving, of in de bestanden van gegevens eigen gebruik door specifieke OLAP-technologie, zoals DB2 OLAP Server, is niet relevant.

De enige beperking is dat de architectuur het gebruik van faciliteert gegevens multidimensionaal.
De architectuur omvat ook kritische Bi-technologieën en -technieken die worden onderscheiden als:

Spatiële analyse

Ruimte is een informatiemeevaller voor de analist en is van cruciaal belang voor een volledige oplossing. Ruimte kan informatie weergeven over de mensen die op een bepaalde locatie wonen, maar ook informatie over waar die locatie zich fysiek bevindt ten opzichte van de rest van de wereld.

Om deze analyse uit te voeren, moet u beginnen met het koppelen van uw informatie aan breedtegraad- en lengtegraadcoördinaten. Dit wordt "geocodering" genoemd en moet deel uitmaken van het extractie-, transformatie- en laadproces (ETL) op atomair niveau van uw magazijn.

Datamining.

De extractie van gegevens stelt onze bedrijven in staat om het aantal te laten groeien klanten, om verkooptrends te voorspellen en relatiebeheer mogelijk te maken met i klanten (CRM), naast andere BI-initiatieven.

De extractie van gegevens het moet daarom worden geïntegreerd met de structuren van gegevens magazijn en ondersteund door magazijnprocessen om zowel effectief als efficiënt gebruik van technologie en aanverwante technieken te waarborgen.

Zoals aangegeven in de BI-architectuur, is het atomaire niveau Dwhouse, evenals datamarts, een uitstekende bron van gegevens voor extractie. Diezelfde eigendommen moeten ook ontvangers zijn van extractieresultaten om beschikbaarheid voor het breedste publiek te garanderen.

Agenten.

Er zijn verschillende "agenten" om de klant te onderzoeken op elk punt, zoals de besturingssystemen van het bedrijf en de dw zelf. Deze agenten kunnen geavanceerde neurale netwerken zijn die zijn getraind om op elk punt trends te leren kennen, zoals toekomstige productvraag op basis van verkooppromoties, op regels gebaseerde motoren om te reageren op een dato samenloop van omstandigheden, of zelfs eenvoudige agenten die uitzonderingen melden aan topmanagers. Deze processen vinden over het algemeen in realtime plaats en moeten daarom nauw gekoppeld zijn aan de beweging van de processen gegevens. Al deze structuren van gegevens, technologieën en technieken zorgen ervoor dat u niet de hele nacht bezig bent met het organiseren van uw BI.

Deze activiteit zal in oplopende stappen worden ontwikkeld, voor kleine punten.
Elke stap is een onafhankelijke projectinspanning en wordt een iteratie genoemd in uw BI dw of initiatief. Iteraties kunnen het implementeren van nieuwe technologieën omvatten, beginnend met nieuwe technieken, toevoegen van nieuwe kaders gegevens , laden i gegevens extra, of met de analyse-uitbreiding van uw omgeving. Op deze paragraaf wordt in hoofdstuk 3 nader ingegaan.

Naast traditionele DW-frameworks en BI-tools zijn er nog andere aspecten van uw BI-organisatie waarvoor u moet ontwerpen, zoals:

Klantcontactpunten (Klantcontact punten).

Zoals bij elke moderne organisatie zijn er een aantal klantcontactpunten die aangeven hoe u een positieve ervaring voor uw bedrijf kunt hebben klanten. Er zijn traditionele kanalen zoals handelaren, telefonistes, direct mail, multimedia en gedrukte advertenties, maar ook modernere kanalen zoals e-mail en internet, gegevens producten met een bepaald contactpunt moeten worden gekocht, vervoerd, schoongemaakt, verwerkt en vervolgens in faciliteiten worden geplaatst gegevens van de BI.

Basis van gegevens operationele en gebruikersverenigingen (Operationeel

databases en gebruikersgemeenschappen).
Aan het einde van de contactpunten van de klanten de fundamenten zijn gevonden gegevens van de applicatie- en gebruikersgemeenschappen van het bedrijf. DE gegevens bestaande zijn gegevens traditionele die moet worden samengebracht en samengevoegd met de gegevens stromend van de touchpoints om aan de nodige informatie te voldoen.

analisten. (analisten)

De belangrijkste begunstigde van de BI-omgeving is de analist. Hij is het die profiteert van de huidige extractie van gegevens operationeel, geïntegreerd met verschillende bronnen van gegevens , aangevuld met functies zoals geografische analyse (geocodering) en gepresenteerd in BI-technologieën die mining, OLAP, geavanceerde SQL-rapportage en geografische analyse mogelijk maken. De primaire interface voor de analist naar de rapportageomgeving is de BI-portal.

De analist is echter niet de enige die baat heeft bij de BI-architectuur.
Leidinggevenden, grote gebruikersverenigingen en zelfs leden, leveranciers en i klanten zouden voordelen moeten vinden in enterprise BI.

Terugvoerlus.

BI-architectuur is een leeromgeving. Een kenmerkend ontwikkelingsprincipe is het toestaan ​​van hardnekkige structuren van gegevens worden bijgewerkt door de gebruikte BI-technologie en door de acties van de gebruiker. Een voorbeeld is het scoren van klanten.

Als de verkoopafdeling een mining-model van klantscores gebruikt, zoals het gebruik van een nieuwe service, dan zou de verkoopafdeling niet de enige groep moeten zijn die profiteert van de service.

In plaats daarvan moet model mining worden uitgevoerd als een natuurlijk onderdeel van de gegevensstroom binnen de onderneming en moeten klantscores een geïntegreerd onderdeel worden van de magazijninformatiecontext, zichtbaar voor alle gebruikers. Bi-bI-centrische IBM Suite inclusief DB2 UDB, DB2 OLAP Server omvat de belangrijkste technologiecomponenten, gedefinieerd in figuur 1.1.

We gebruiken de architectuur zoals die in deze afbeelding uit het boek wordt weergegeven om ons een niveau van continuïteit te geven en te laten zien hoe elk van IBM's producten past in het algehele BI-schema.

Het verstrekken van informatie-inhoud (Providing informatieve inhoud)

Het ontwerpen, ontwikkelen en implementeren van uw BI-omgeving is een hele klus. Het ontwerp moet zowel de huidige als toekomstige zakelijke vereisten omarmen. De architectuurtekening moet alomvattend zijn om alle conclusies te bevatten die tijdens de ontwerpfase zijn gevonden. De uitvoering moet gericht blijven op één enkel doel: het ontwikkelen van de BI-architectuur zoals formeel gepresenteerd in het ontwerp en gebaseerd op zakelijke vereisten.

Het is bijzonder moeilijk te beweren dat discipline voor relatief succes zal zorgen.
Simpel, want een BI-omgeving ontwikkel je niet in één keer, maar in kleine stapjes in de tijd.

Het identificeren van de BI-componenten van uw architectuur is echter om twee redenen belangrijk: U neemt alle volgende technische architectuurbeslissingen.
U zult in staat zijn om bewust een bepaald gebruik van technologie te plannen, ook al krijgt u de technologie misschien enkele maanden niet meer nodig.

Als u uw zakelijke vereisten voldoende begrijpt, zal dit van invloed zijn op het type producten dat u aanschaft voor uw architectuur.
Het ontwerp en de ontwikkeling van uw architectuur zorgt ervoor dat uw magazijn staat

geen willekeurige gebeurtenis, maar eerder een goed doordachte, zorgvuldig opgebouwde advertentie opera van kunst als een mozaïek van gemengde technologie.

Informatie-inhoud ontwerpen

Alle initiële ontwerpen moeten zich richten op en identificeren van de belangrijkste BI-componenten die nu en in de toekomst nodig zullen zijn voor de algehele omgeving.
Het kennen van de zakelijke vereisten is belangrijk.

Nog voordat er met enige formele planning is begonnen, kan de projectplanner vaak meteen een of twee componenten identificeren.
De balans van componenten die mogelijk nodig zijn voor uw architectuur, is echter niet eenvoudig te vinden. Tijdens de ontwerpfase bindt het grootste deel van de architectuur de applicatie-ontwikkelingssessie (JAD) aan een onderzoek om zakelijke vereisten te identificeren.

Soms kunnen deze vereisten worden toevertrouwd aan query- en rapportagetools.
Gebruikers geven bijvoorbeeld aan dat als ze een huidig ​​rapport willen automatiseren, ze dit handmatig moeten genereren door twee huidige rapporten te integreren en de berekeningen toe te voegen die zijn afgeleid van de combinatie van de gegevens.
Hoewel deze vereiste eenvoudig is, definieert het een bepaalde functiefunctionaliteit die u moet opnemen bij de aanschaf van rapportagetools voor uw organisatie.

De ontwerper moet ook aanvullende eisen stellen om een ​​compleet beeld te krijgen. Willen gebruikers zich abonneren op dit rapport?
Worden subsets van rapporten gegenereerd en naar verschillende gebruikers gemaild? Dit rapport inzien in het bedrijfsportal? Al deze vereisten maken deel uit van de eenvoudige behoefte om een ​​handmatig rapport te vervangen zoals vereist door gebruikers. Het voordeel van dit soort eisen is dat iedereen, zowel gebruikers als ontwerpers, bekend zijn met het concept van rapportages.

Er zijn echter andere soorten bedrijven waar we rekening mee moeten houden. Wanneer zakelijke vereisten worden vermeld in de vorm van strategische zakelijke vragen, is het voor de ervaren planner gemakkelijk om dimensionale en meet-/feitelijke vereisten te onderscheiden.

Als JAD-gebruikers niet weten hoe ze hun vereisten in de vorm van een zakelijk probleem moeten formuleren, zal de ontwerper vaak voorbeelden geven om de sessie voor het verzamelen van vereisten over te slaan.
De deskundige planner kan gebruikers helpen niet alleen strategische zaken te begrijpen, maar ook hoe ze deze vorm kunnen geven.
De aanpak voor het verzamelen van vereisten wordt besproken in hoofdstuk 3; voor nu willen we alleen wijzen op de noodzaak om te ontwerpen voor allerlei BI-eisen.

Een strategisch bedrijfsprobleem is niet alleen een bedrijfsvereiste, maar ook een ontwerprichtsnoer. Als je een multidimensionale vraag moet beantwoorden, dan moet je die onthouden, presenteren gegevens dimensionaal, en als je nodig hebt om de te onthouden gegevens multidimensionaal, moet u beslissen welk type technologie of techniek u gaat gebruiken.

Implementeert u een gereserveerd kubussterschema, of beide? Zoals u kunt zien, kan zelfs een eenvoudig zakelijk probleem het ontwerp enorm beïnvloeden. Maar dit soort zakelijke vereisten zijn alledaags en natuurlijk in ieder geval door ervaren projectplanners en ontwerpers.

Er is genoeg gediscussieerd over OLAP-technologieën en -ondersteuning, en er is een grote verscheidenheid aan oplossingen beschikbaar. Tot nu toe hebben we het gehad over de noodzaak om eenvoudige rapportage samen te brengen met dimensionale zakelijke vereisten, en hoe deze vereisten van invloed zijn op beslissingen over technische architectuur.

Maar wat zijn de vereisten die niet gemakkelijk worden begrepen door gebruikers of het Dw-team? Heb je ooit ruimtelijke analyse (analysei ruimtelijk) nodig?
De mijnbouwmodellen van gegevens Zullen ze een noodzakelijk onderdeel van je toekomst zijn? Wie weet?

Het is belangrijk op te merken dat dit soort technologieën niet goed bekend zijn bij de algemene gebruikersgemeenschappen en DW-teamleden, deels kan dit komen omdat ze doorgaans worden afgehandeld door enkele interne of externe technische experts. Het is een randgeval van de problemen die dit soort technologieën genereren. Als gebruikers de zakelijke vereisten niet kunnen beschrijven of ze niet kunnen kaderen om ontwerpers te begeleiden, kunnen ze onopgemerkt blijven of, erger nog, gewoon genegeerd worden.

Het wordt problematischer wanneer de ontwerper en ontwikkelaar de toepassing van een van deze geavanceerde maar kritieke technologieën niet kunnen herkennen.
Zoals we de ontwerpers vaak hebben horen zeggen: “Nou, waarom stoppen we het niet weg totdat we dit andere ding hebben? “Zijn ze echt geïnteresseerd in prioriteiten, of vermijden ze simpelweg vereisten die ze niet begrijpen? Het is zeer waarschijnlijk de laatste veronderstelling. Stel dat uw verkoopteam een ​​bedrijfsvereiste heeft gecommuniceerd, zoals weergegeven in figuur 1.3, zoals u kunt zien, is de vereiste geformuleerd in de vorm van een zakelijk probleem. Het verschil tussen dit probleem en het typische dimensionale probleem is afstand. In dit geval wil het verkoopteam maandelijks de totale verkoop van producten, magazijnen en klanten die binnen 5 mijl wonen van het magazijn waar ze winkelen.

Helaas kunnen ontwerpers of architecten de ruimtelijke component gewoon negeren door te zeggen: "We hebben de klant, het product en de gegevens van de aanbetaling. Laten we de afstand afhouden tot een nieuwe iteratie.

"Verkeerd antwoord. Bij dit soort zakelijke problemen draait alles om BI. Het vertegenwoordigt een dieper begrip van ons bedrijf en een robuuste analytische ruimte voor onze analisten. BI gaat verder dan eenvoudige query's of standaardrapportage, of zelfs OLAP. Dat wil niet zeggen dat deze technologieën niet belangrijk zijn voor uw BI, maar ze vertegenwoordigen op zichzelf niet de BI-omgeving.

Ontwerp voor informatiecontext (Ontwerp voor informatie-inhoud)

Nu we de zakelijke vereisten hebben geïdentificeerd die verschillende kerncomponenten onderscheiden, moeten ze worden opgenomen in een algemene architectuurtekening. Sommige van de BI-componenten maken deel uit van onze eerste inspanningen, terwijl sommige pas enkele maanden zullen worden geïmplementeerd.

Alle bekende vereisten komen echter terug in het ontwerp, zodat wanneer we een bepaalde technologie moeten implementeren, we bereid zijn om dit te doen. Iets aan het project zal het traditionele denken weerspiegelen.

Deze set van gegevens wordt gebruikt om later gebruik van te ondersteunen gegevens dimensionaal gedreven door de zakelijke problemen die we hebben geïdentificeerd. Naarmate aanvullende documenten worden gegenereerd, zoals de projectontwikkeling van de gegevens, beginnen we met formaliseren als i gegevens ze verspreiden zich in het milieu. We hebben de noodzaak vastgesteld om i gegevens op een dimensionale manier, door ze (volgens specifieke specifieke behoeften) te verdelen in datamarts.

De volgende vraag die beantwoord moet worden is: hoe worden deze datamarts gebouwd?
Bouw je de sterren om de kubussen te ondersteunen, of alleen kubussen, of alleen de sterren? (of juiste kubussen, of juiste sterren). Genereer de architectuur voor afhankelijke datamarts die voor iedereen een atoomlaag nodig hebben gegevens verwerf je? Laat onafhankelijke datamarts i verwerven gegevens rechtstreeks van besturingssystemen?

Welke kubustechnologie ga je proberen te standaardiseren?

Je hebt enorme hoeveelheden goden gegevens vereist voor dimensionale analyse of heeft u wekelijks kubussen van uw nationale verkoopteam nodig of beide? Bouwt u een krachtig object zoals DB2 OLAP Server voor financiën of Cognos PowerPlay-kubussen voor uw verkooporganisatie of beide? Dit zijn de grote architectonische ontwerpbeslissingen die uw toekomstige BI-omgeving zullen beïnvloeden. Ja, u heeft vastgesteld dat er behoefte is aan OLAP. Hoe ga je dat soort techniek en technologie nu uitvoeren?

Welke invloed hebben enkele van de meer geavanceerde technologieën op uw ontwerpen? Laten we aannemen dat u een ruimtelijke behoefte in uw organisatie heeft geïdentificeerd. Nu moet u de edities van architectuurtekeningen terughalen, zelfs als u niet van plan bent om gedurende enkele maanden ruimtelijke componenten te maken. De architect moet vandaag ontwerpen op basis van wat nodig is. Anticipeer op de behoefte aan ruimtelijke analyse die genereert, opslaat, onderhoudt en toegang verschaft tot gegevens ruimtelijk. Dit zou op zijn beurt moeten dienen als een beperking met betrekking tot het type softwaretechnologie en platformspecificaties waarmee u momenteel rekening kunt houden. Bijvoorbeeld het administratiesysteem van database relationeel (RDBMS) dat u voor uw atoomlaag onderhoudt, moet een robuuste ruimtelijke omvang beschikbaar hebben. Dit zou zorgen voor maximale prestaties wanneer u geometrie en ruimtelijke objecten gebruikt in uw analytische toepassingen. Als uw RDBMS de gegevens (ruimtelijk centraal) intern, dus je zult een database (ruimtelijk-centrisch) extern. Dit bemoeilijkt probleembeheer en brengt uw algehele prestaties in gevaar, om nog maar te zwijgen van de extra problemen die het voor uw DBA's veroorzaakt, aangezien ze waarschijnlijk een minimaal begrip hebben van de basisprincipes van gegevens ook ruimtelijk. Aan de andere kant, als uw RDMBS-engine alle ruimtelijke componenten afhandelt en de optimalisator zich bewust is van de speciale behoeften (bijvoorbeeld indexering) van ruimtelijke objecten, dan kunnen uw DBA's beheerproblemen gemakkelijk aan en kunt u de prestaties maximaliseren.

U moet ook het verzamelgebied en de atomaire omgevingslaag aanpassen om adresopschoning (a

sleutelelement voor ruimtelijke analyse), evenals de daaropvolgende opslag van ruimtelijke objecten. De opeenvolging van designedities gaat door nu we het begrip adresreinheid hebben geïntroduceerd. Om te beginnen bepaalt deze applicatie het type software dat u nodig heeft voor uw ETL-inspanning.

Heeft u producten zoals Trillium nodig om u een schoon adres te geven, of een ETL-leverancier naar keuze om die functionaliteit te bieden?
Voor nu is het belangrijk dat u het ontwerpniveau begrijpt dat moet worden voltooid voordat u begint met het onderhoud van uw magazijn. De bovenstaande voorbeelden zouden de veelheid aan ontwerpbeslissingen moeten demonstreren die moeten volgen op de identificatie van een bepaalde zakelijke vereiste. Als ze correct worden genomen, bevorderen deze ontwerpbeslissingen de onderlinge afhankelijkheid tussen de fysieke structuren van uw omgeving, de selectie van de gebruikte technologie en de voortplantingsstroom van informatie-inhoud. Zonder deze conventionele BI-architectuur wordt uw organisatie onderworpen aan een chaotische mix van bestaande technologieën, op zijn best losjes met elkaar verweven om schijnbare stabiliteit te bieden.

Informatie-inhoud onderhouden

De waarde van informatie naar uw organisatie brengen is een zeer moeilijke taak. Zonder voldoende begrip en ervaring, of goede engineering en ontwerp, zouden zelfs de beste teams falen. Aan de andere kant, als je een geweldige intuïtie en gedetailleerd ontwerp hebt, maar geen discipline om uit te voeren, heb je gewoon je geld en tijd verspild omdat je poging gedoemd is te mislukken. De boodschap moet duidelijk zijn: als u één of meer van deze vaardigheden, begrip/ervaring of planning/ontwerp- of implementatiediscipline mist, zal dit leiden tot verlammende of vernietigende opbouw van de BI-organisatie.

Is uw team voldoende voorbereid? Begrijpt iemand in uw BI-team het enorme analytische landschap dat beschikbaar is in BI-omgevingen, en de technieken en technologieën die nodig zijn om dat landschap te onderhouden? Is er iemand in uw team die het verschil kan zien bij het toepassen van geavanceerd

statische rapportage en OLAP, of de verschillen tussen ROLAP en OLAP? Herkent een van uw teamleden duidelijk de manier van mijnbouw en hoe dit van invloed kan zijn op het magazijn of hoe het magazijn mijnprestaties kan ondersteunen? Een teamlid begrijpt de waarde van gegevens ruimte- of agentgebaseerde technologie? Heeft u iemand die de unieke toolstoepassing van ETL versus Message Broker-technologie waardeert? Als je het niet hebt, koop er dan een. BI is veel groter dan een genormaliseerde atoomlaag, OLAP, sterschema's en een ODS.

Het begrip en de ervaring hebben om BI-vereisten en hun oplossingen te herkennen, is essentieel voor uw vermogen om gebruikersbehoeften correct te formaliseren en om hun oplossingen te ontwerpen en te implementeren. Als uw gebruikersgemeenschap moeite heeft met het beschrijven van vereisten, is het aan het magazijnteam om dat inzicht te verschaffen. Maar als het team van magazijn

de specifieke toepassing van BI niet herkent - bijvoorbeeld datamining - dan is het niet goed dat BI-omgevingen zich vaak beperken tot passieve opslagplaatsen. Het negeren van deze technologieën doet echter niets af aan hun belang en het effect dat ze hebben op de opkomst van business intelligence-mogelijkheden van uw organisatie, evenals op de informatieactiva die u van plan bent te promoten.

Ontwerp moet de notie van tekenen omvatten, en beide vereisen een bekwaam persoon. Bovendien vereist planning een filosofie van het team en het naleven van normen. Als uw bedrijf bijvoorbeeld een platformstandaard heeft vastgesteld of een bepaald RDBMS heeft geïdentificeerd dat het over het hele platform wil standaardiseren, is het absoluut noodzakelijk dat iedereen in het team zich aan die standaarden houdt. Over het algemeen spreekt een team de behoefte aan standaardisatie uit (naar gebruikersgemeenschappen), maar het team zelf is niet bereid zich te houden aan de normen die in andere delen van het bedrijf of misschien zelfs in vergelijkbare bedrijven zijn vastgesteld. Dit is niet alleen hypocriet, maar het bevestigt ook dat het bedrijf niet in staat is om bestaande middelen en investeringen te exploiteren. Het betekent niet dat er geen situaties zijn die een niet-gestandaardiseerd platform of technologie rechtvaardigen; echter de inspanningen van het magazijn

ze moeten angstvallig de normen van de onderneming bewaken totdat zakelijke vereisten anders bepalen.

Het derde belangrijke onderdeel dat nodig is om een ​​BI-organisatie op te bouwen, is discipline.
Het hangt totaal af, evenzeer van individuen als van het milieu. Projectplanners, sponsors, architecten en gebruikers moeten de discipline waarderen die nodig is om de informatiemiddelen van het bedrijf op te bouwen. Ontwerpers moeten hun ontwerpinspanningen richten op andere inspanningen die nodig zijn in de samenleving.

Stel dat uw bedrijf een ERP-toepassing bouwt met een magazijncomponent.
Het is dus de verantwoordelijkheid van de ERP-ontwerpers om samen te werken met het magazijnomgevingsteam om niet te concurreren of het reeds begonnen werk te dupliceren.

Discipline is ook een onderwerp dat door de hele organisatie moet worden aangepakt en wordt meestal vastgesteld en gemandateerd op uitvoerend niveau.
Zijn leidinggevenden bereid zich te houden aan een ontworpen aanpak? Een aanpak die belooft informatie-inhoud te creëren die uiteindelijk waarde zal opleveren voor alle onderdelen van de onderneming, maar die misschien de individuele of afdelingsagenda's in gevaar brengt? Denk aan het gezegde "Aan alles denken is belangrijker dan aan één ding denken". Dit gezegde gaat op voor BI-organisaties.

Helaas richten veel magazijnen hun inspanningen op het proberen om waarde te leveren aan een bepaalde afdeling of specifieke gebruikers, zonder rekening te houden met de organisatie als geheel. Stel dat de manager assistentie vraagt ​​aan het werehouse-team. Het team reageert met een inspanning van 90 dagen, waarbij niet alleen wordt voldaan aan de door de leidinggevende gedefinieerde meldingsvereisten, maar ook wordt gezorgd dat alle gegevens basis worden gemengd in het atomaire niveau voordat ze worden geïntroduceerd in de voorgestelde kubustechnologie.
Deze technische toevoeging zorgt ervoor dat de warenhuisonderneming zal profiteren van de gegevens nodig van de beheerder.
De directeur sprak echter met externe adviesbureaus die een soortgelijke applicatie voorstelden met levering in minder dan 4 weken.

Ervan uitgaande dat het interne werehouse-team bekwaam is, heeft de leidinggevende een keuze. Wie kan de extra technische discipline ondersteunen die nodig is om de bedrijfsinformatie te laten groeien of kan ervoor kiezen om snel zijn eigen oplossing te bouwen. Het laatste lijkt veel te vaak te worden gekozen en dient alleen om containers met informatie te creëren waar enkelen of het individu baat bij hebben.

Doelen op korte en lange termijn

Architecten en projectplanners moeten een langetermijnvisie formaliseren van de algehele architectuur en plannen voor de groei van een BI-organisatie. Deze combinatie van winst op korte termijn en planning op lange termijn zijn de twee kanten van BI-inspanningen. Omzet op korte termijn is het facet van BI dat wordt geassocieerd met iteraties van uw magazijn.

Hier richten planners, architecten en sponsors zich op het voldoen aan specifieke zakelijke vereisten. Op dit niveau worden fysieke structuren gebouwd, technologie aangekocht en technieken geïmplementeerd. Ze zijn geenszins gemaakt om te voldoen aan specifieke vereisten zoals gedefinieerd door bepaalde gebruikersgemeenschappen. Alles wordt gedaan met het doel om specifieke vereisten aan te pakken die door een bepaalde gemeenschap zijn gedefinieerd.
Langetermijnplanning is echter het andere facet van BI. Dit is waar de plannen en ontwerpen ervoor zorgden dat elke fysieke structuur werd gebouwd, de geselecteerde technologieën en de uitgevoerde technieken werden gemaakt met het oog op de onderneming. Het is langetermijnplanning die zorgt voor de samenhang die nodig is om ervoor te zorgen dat bedrijfswinsten worden afgeleid van gevonden kortetermijnwinsten.

Rechtvaardig uw BI-inspanning

Un datawarehouse op zichzelf heeft het geen intrinsieke waarde. Met andere woorden, er is geen inherente waarde tussen magazijntechnologieën en implementatietechnieken.

De waarde van elke magazijninspanning wordt gevonden in de acties die worden uitgevoerd als resultaat van de magazijnomgeving en informatie-inhoud die in de loop van de tijd is gecultiveerd. Dit is een cruciaal punt dat u moet begrijpen voordat u ooit probeert de waarde van een wherehouse-initiatief in te schatten.

Te vaak proberen architecten en planners waarde toe te passen op de fysieke en technische componenten van het magazijn, terwijl de waarde in feite is gebaseerd op de bedrijfsprocessen die positief worden beïnvloed door het magazijn en goed vastgelegde informatie.

Hierin ligt de uitdaging voor het oprichten van BI: Hoe verantwoord je de investering? Als het magazijn zelf geen intrinsieke waarde heeft, moeten projectplanners de voordelen onderzoeken, definiëren en formaliseren voor die personen die het magazijn zullen gebruiken om specifieke bedrijfsprocessen of de waarde van beschermde informatie, of beide, te verbeteren.

Om de zaken nog ingewikkelder te maken, kan elk bedrijfsproces dat wordt beïnvloed door magazijninspanningen "substantiële" of "milde" voordelen opleveren. Aanzienlijke voordelen bieden een tastbare maatstaf voor het meten van het rendement op investering (ROI) - bijvoorbeeld voorraad gedurende een specifieke periode een extra tijd omdraaien of lagere transportkosten per zending. Het is moeilijker om subtiele voordelen, zoals verbeterde toegang tot informatie, te definiëren in termen van tastbare waarde.

Verbind uw project om de zakelijke verzoeken

Te vaak proberen projectplanners magazijnwaarde te koppelen aan amorfe bedrijfsdoelen. Door te verklaren dat "de waarde van een magazijn is gebaseerd op ons vermogen om aan strategische verzoeken te voldoen", openen we de discussie op een prettige manier. Maar dat alleen is niet genoeg om te bepalen of investeren in het magazijn zin heeft. Het is het beste om magazijnmedewerkers te verbinden met specifieke zakelijke vragen en notities.

Meet de ROI

Het berekenen van de ROI in een magazijnomgeving kan bijzonder moeilijk zijn. Het is vooral moeilijk als de leiding

van een bepaalde herhaling is iets ongrijpbaars of gemakkelijk te meten. Uit een onderzoek bleek dat gebruikers de twee belangrijkste voordelen van BI-initiatieven zien:

  • ▪ Creëer de mogelijkheid om beslissingen te nemen
  • ▪ Creëer toegang tot informatie
    Deze voordelen zijn zachte (of milde) voordelen. Het is gemakkelijk te zien hoe we een ROI kunnen berekenen op basis van een hard (of groter) voordeel, zoals lagere vrachtkosten, maar hoe meten we het vermogen om betere beslissingen te nemen?
    Dit is absoluut een uitdaging voor projectplanners wanneer ze proberen het bedrijf te laten investeren in een bepaalde magazijninspanning. Stijgende verkopen of dalende kosten zijn niet langer de centrale thema's die de BI-omgeving aansturen.
    In plaats daarvan kijk je naar zakelijke verzoeken om betere toegang tot informatie, zodat een bepaalde afdeling sneller beslissingen kan nemen. Dit zijn strategische drijfveren die even belangrijk zijn voor de onderneming, maar dubbelzinniger en moeilijker te karakteriseren in een tastbare maatstaf. In dit geval kan het berekenen van de ROI misleidend, zo niet irrelevant zijn.
    Projectontwerpers moeten tastbare waarde kunnen aantonen voor leidinggevenden om te beslissen of de investering in een bepaalde iteratie de moeite waard is. We zullen echter geen nieuwe methode voor het berekenen van de ROI voorstellen, noch zullen we argumenten voor of tegen geven.
    Er zijn veel artikelen en boeken beschikbaar die de grondbeginselen van het berekenen van ROI bespreken. Er zijn speciale waardeproposities zoals value on investment (VOI), aangeboden door groepen zoals Gartner, die u kunt onderzoeken. In plaats daarvan zullen we ons concentreren op de kernaspecten van elke ROI of andere waardeproposities die u moet overwegen. ROI toepassen Naast het argument over de "harde" versus "zachte" voordelen van BI-inspanningen, zijn er nog andere zaken waarmee rekening moet worden gehouden bij het toepassen van ROI. Bijvoorbeeld:

Te veel besparingen toeschrijven aan DW-inspanningen die hoe dan ook zouden komen
Stel dat uw bedrijf is overgestapt van een mainframe-architectuur naar een gedistribueerde UNIX-omgeving. Dus eventuele besparingen die al dan niet worden gerealiseerd door die inspanning, moeten niet alleen of helemaal niet (?) Aan het magazijn worden toegeschreven.

Niet alles verantwoorden is duur. En er zijn veel dingen om rekening mee te houden. Beschouw de volgende lijst:

  • ▪ Opstartkosten, inclusief haalbaarheid.
  • ▪ Kosten van speciale hardware met bijbehorende opslag en communicatie
  • ▪ Kosten van de software, inclusief beheer van gegevens en client/server-extensies, ETL-software, DSS-technologieën, visualisatietools, plannings- en workflowtoepassingen en monitoringsoftware, .
  • ▪ Ontwerpkosten structuur gegevens, met de creatie en optimalisatie van
  • ▪ Kosten voor softwareontwikkeling die rechtstreeks verband houden met de BI-inspanning
  • ▪ Kosten van thuisondersteuning, inclusief prestatieoptimalisatie, inclusief softwareversiebeheer en hulpoperaties Pas "Big-Bang" ROI toe. Het magazijn bouwen als een enkele, gigantische inspanning is gedoemd te mislukken, dus bereken ook de ROI voor een groot ondernemingsinitiatief. Het aanbod is verrassend, en dat de planners zwakke pogingen blijven doen om de waarde van de hele inspanning in te schatten. Waarom proberen planners zakelijke initiatieven in geld te waarderen als het algemeen bekend en geaccepteerd is dat het moeilijk is om specifieke iteraties in te schatten? Hoe is het mogelijk? Op enkele uitzonderingen na is het niet mogelijk. Doe het niet. Nu we hebben vastgesteld wat u niet moet doen bij het berekenen van de ROI, volgen hier enkele punten die u kunnen helpen bij het opzetten van een betrouwbaar proces voor het inschatten van de waarde van uw BI-inspanningen.

ROI-toestemming verkrijgen. Welke techniek u ook kiest om de waarde van uw BI-inspanningen in te schatten, alle partijen moeten het ermee eens zijn, inclusief projectplanners, sponsors en bedrijfsleiders.

Verdeel de ROI in identificeerbare delen. Een noodzakelijke stap in de richting van een redelijke ROI-berekening is om die berekening te richten op een specifiek project. Hierdoor kunt u vervolgens een waarde schatten op basis van specifieke zakelijke vereisten waaraan wordt voldaan

Definieer de kosten. Zoals gezegd, moet met tal van kosten rekening worden gehouden. Bovendien moeten de kosten niet alleen de kosten omvatten die verband houden met de individuele iteratie, maar ook de kosten die verband houden met het waarborgen van de naleving van bedrijfsnormen.

Definieer voordelen. Door ROI duidelijk te koppelen aan specifieke zakelijke vereisten, zouden we in staat moeten zijn de voordelen te identificeren die zullen leiden tot het voldoen aan de vereisten.

Verlaag kosten en baten bij op handen zijnde winsten. Het is de beste manier om uw waarderingen te baseren op de netto contante waarde (NPV) in plaats van te proberen toekomstige waarde in toekomstige inkomsten te voorspellen.

Beperk de tijd om uw ROI op te splitsen tot een minimum. Het is goed gedocumenteerd in de lange termijn dat het is gebruikt in uw ROI.

Gebruik meer dan één ROI-formule. Er zijn tal van methoden om de ROI te voorspellen, en u moet van plan zijn er een of meer te gebruiken, waaronder de netto contante waarde, het interne rendement (IRR) en de terugverdientijd.

Definieer herhaalbaar proces. Dit is cruciaal voor het berekenen van een langetermijnwaarde. Er moet een enkel herhaalbaar proces worden gedocumenteerd voor alle volgende subreeksen van het project.

De genoemde problemen zijn de meest voorkomende problemen die zijn gedefinieerd door de omgevingsexperts van Werehouse. De aandrang van het management om een ​​"Big-Bang" ROI te leveren, is erg verwarrend. Als u al uw ROI-berekeningen begint door ze op te splitsen in identificeerbare, tastbare delen, heeft u een goede kans om een ​​nauwkeurige ROI-schatting te maken.

Vragen over ROI-voordelen

Wat uw voordelen ook zijn, zacht of hard, u kunt een paar basisvragen gebruiken om hun waarde te bepalen. Als u bijvoorbeeld een eenvoudig schaalsysteem gebruikt, van 1 tot 10, kunt u de impact van elke inspanning meten aan de hand van de volgende vragen:

  • Hoe zou u het begrip van gegevens dit project van uw bedrijf volgen?
  • Hoe zou u de procesverbeteringen als resultaat van dit project beoordelen?
  • Hoe zou u de impact meten van nieuwe inzichten en gevolgtrekkingen die nu door deze iteratie beschikbaar worden gesteld?
  • Wat was de impact van nieuwe en betere computeromgevingen als gevolg van het geleerde? Als er maar weinig antwoorden op deze vragen zijn, is het mogelijk dat de onderneming de gedane investering niet waard is. Hoog scorende vragen wijzen op aanzienlijke waardewinsten en dienen als leidraad voor verder onderzoek. Zo zou een hoge score op procesverbetering ontwerpers ertoe moeten aanzetten te onderzoeken hoe processen zijn verbeterd. Het kan zijn dat sommige of alle gemaakte winsten tastbaar zijn en dat daarom gemakkelijk een geldwaarde kan worden toegepast. Haal het meeste uit de eerste iteratie van de magazijn De grootste winst van uw ondernemingsinspanningen zit vaak in de eerste paar iteraties. Deze vroege inspanningen zorgen traditioneel voor de meest bruikbare informatie-inhoud voor het publiek en helpen bij het leggen van de technologische basis voor latere BI-toepassingen. Gewoonlijk elke volgende volgreeks van gegevens van de magazijnprojecten levert steeds minder toegevoegde waarde op voor de onderneming als geheel. Dit geldt met name als de iteratie geen nieuwe onderwerpen toevoegt of niet voldoet aan de behoeften van een nieuwe gebruikersgemeenschap.

Deze opslagfunctie is ook van toepassing op groeiende stapels gegevens historici. Omdat latere inspanningen meer vereisen gegevens en hoe meer gegevens worden na verloop van tijd in het magazijn gegoten, de meeste gegevens het wordt minder relevant voor de gebruikte analyse. Deze gegevens ze worden vaak genoemd gegevens slapend en het is altijd duur om ze te bewaren omdat ze bijna nooit gebruikt worden.

Wat betekent dit voor projectsponsors? In wezen delen de eerste sponsors meer dan de investeringskosten. Dit is in de eerste plaats omdat ze de aanzet vormen voor het opzetten van de brede technologische en resource-omgevingslaag van het magazijn, inclusief organisch.

Maar deze eerste stappen hebben de meeste waarde en daarom moeten projectplanners de investering vaak rechtvaardigen.
Projecten die na uw BI-initiatief worden uitgevoerd, hebben mogelijk lagere (vergeleken met het eerste) en directe kosten, maar leveren minder waarde op voor de onderneming.

En organisatie-eigenaren moeten beginnen te overwegen om de opbouw weg te gooien gegevens en minder relevante technologieën.

Datamining: extractie Geven

Veel architectonische componenten vereisen variaties van dataminingtechnologieën en -technieken—
bijvoorbeeld de verschillende "agenten" voor het onderzoeken van de aandachtspunten van de klanten, de besturingssystemen van het bedrijf en voor dezelfde dw. Deze agenten kunnen geavanceerde neurale netwerken zijn die zijn getraind op wiettrends, zoals toekomstige productvraag op basis van verkooppromoties; op regels gebaseerde motoren om op een set te reageren dato van omstandigheden, bijvoorbeeld medische diagnose en behandeladviezen; of zelfs eenvoudige agenten met de rol om uitzonderingen te melden aan topmanagers. Over het algemeen deze extractieprocessen gegevens si

in realtime verifiëren; daarom moeten ze volledig worden verenigd met de beweging van de gegevens zichzelf.

Online analytische verwerking Verwerking

Online analyses

De mogelijkheid om te slicen, dice, roll, drill-down en analyses uit te voeren
what-if, valt binnen de reikwijdte, de reikwijdte van de IBM-technologiesuite. Er bestaan ​​bijvoorbeeld online analytische verwerkingsfuncties (OLAP) voor DB2 die dimensionale analyse in de engine van het databank dezelfde.

Functies voegen dimensionaal nut toe aan SQL terwijl ze alle voordelen plukken van een natuurlijk onderdeel van DB2. Een ander voorbeeld van OLAP-integratie is de extractor, DB2 OLAP Analyzer Server. Met deze technologie kunnen DB2 OLAP Server-kubussen snel en automatisch worden gescand om de waarden van gegevens ongebruikelijk of onverwacht voor een kubus voor de handelsanalist. En tot slot bieden de DW Center-functies een middel voor architecten om onder andere het profiel van een DB2 OLAP-kubusserver te controleren als een natuurlijk onderdeel van ETL-processen.

Ruimtelijke Analyse Ruimtelijke Analyse

Ruimte vertegenwoordigt de helft van de analytische ankers (geleidingen) die nodig zijn voor een panorama
breed analytisch (tijd vertegenwoordigt de andere helft). Het atomaire niveau van het pakhuis, weergegeven in figuur 1.1, bevat de fundamenten voor zowel tijd als ruimte. Tijdstempels ankeranalyses op tijd en adresinformatie ankeranalyses op ruimte. Tijdstempels voeren de analyse per tijd uit en adresinformatie voert de analyse per ruimte uit. Het diagram toont geocodering - het proces van het converteren van adressen naar punten op een kaart of punten in de ruimte zodat concepten als afstand en binnen/buiten kunnen worden gebruikt in de analyse - uitgevoerd op atomair niveau en ruimtelijke analyse wordt beschikbaar gesteld aan de analist. IBM biedt ruimtelijke uitbreidingen, ontwikkeld met het Environmental System Research Institute (ESRI), al databank DB2 zodat ruimtelijke objecten kunnen worden onderhouden als een normaal onderdeel van de databank relationeel. db2

Spatial Extenders bieden ook alle SQL-extensies om te profiteren van ruimtelijke analyse. Bijvoorbeeld de SQL-extensies om op te zoeken
afstand tussen adressen of dat een punt zich binnen of buiten een gedefinieerd veelhoekig gebied bevindt, zijn een analytische standaard met de Spatial Extender. Zie hoofdstuk 16 voor meer informatie.

Database-Resident Gereedschap Gereedschap Database-Inwoner

DB2 heeft veel SQL BI-residente functies die helpen bij het ontleden. Deze omvatten:

  • Recursiefuncties om analyses uit te voeren, zoals "vind alle mogelijke vliegroutes van San Francisco a New York'.
  • Analytische functies voor classificatie-, cumulatieve-, kubus- en rollup-functies om taken te vergemakkelijken die normaal gesproken alleen met OLAP-technologie plaatsvinden, zijn nu een natuurlijk onderdeel van de engine van de databank
  • De mogelijkheid om tabellen te maken die resultaten bevatten
    Verkopers van databank leiders mixen meer van de BI-functies in de databank hetzelfde.
    De belangrijkste leveranciers van database ze combineren meer BI-functies in de databank hetzelfde.
    Dit zorgt voor betere prestaties en meer uitvoeringsmogelijkheden voor BI-oplossingen.
    De kenmerken en functies van DB2 V8 worden in detail besproken in de volgende hoofdstukken:
    Fundamenten voor technische architectuur en gegevensbeheer (hoofdstuk 5)
  • DB2 BI-grondbeginselen (hoofdstuk 6)
  • DB2 Gematerialiseerde querytabellen (hoofdstuk 7)
  • DB2 OLAP-functies (hoofdstuk 13)
  • Functies en kenmerken van DB2 Enhanced BI (hoofdstuk 15) Vereenvoudigd systeem voor gegevenslevering Leveringssysteem van gegevens vereenvoudigd

De architectuur weergegeven in figuur 1.1 bevat tal van constructies gegevens fysiek. Een daarvan is het magazijn van gegevens werkend. Over het algemeen is een ODS objectgeoriënteerd, geïntegreerd en actueel. Je zou een ODS bouwen ter ondersteuning van bijvoorbeeld het verkoopbureau. ODS-verkoop zou aanvullen gegevens uit veel verschillende systemen, maar zou bijvoorbeeld alleen de transacties van vandaag bewaren. De ODS kan ook vele malen per dag worden bijgewerkt. Tegelijkertijd duwen de processen i gegevens geïntegreerd in andere toepassingen. Deze structuur is specifiek ontworpen om te integreren gegevens actueel en dynamisch en zou een waarschijnlijke kandidaat zijn om real-time analyses te ondersteunen, zoals het leveren van serviceagenten klanten de huidige verkoopinformatie van een klant door verkooptrendinformatie uit de voorraad zelf te halen. Een andere structuur in figuur 1.1 is een formele toestand voor de dw. Niet alleen is dit de plek voor de uitvoering van de noodzakelijke integratie, van de kwaliteit van gegevens, en van de transformatie van gegevens van inkomend magazijn, maar is ook een betrouwbare en tijdelijke opslagruimte voor gegevens replicaties die kunnen worden gebruikt in real-time analyse. Als u besluit een ODS of staging area te gebruiken, is dit een van de beste tools om deze structuren te bevolken gegevens het gebruik van verschillende operationele bronnen is de heterogene gedistribueerde query van DB2. Deze mogelijkheid wordt geboden door de optionele DB2-functie DB2 Relational Connect (alleen query's) en door DB2 DataJoiner (een apart product dat query-, insert-, update- en delete-mogelijkheden levert aan heterogeen gedistribueerde RDBMS'en).

Deze technologie stelt architecten in staat om gegevens vastbinden gegevens productie met analytische processen. De technologie kan zich niet alleen aanpassen aan vrijwel alle replicatie-eisen die zich kunnen voordoen met real-time analyses, maar kan ook verbinding maken met een breed scala aan gegevens meest populaire, waaronder DB2, Oracle, Sybase, SQL Server, Informix en anderen. DB2 DataJoiner kan worden gebruikt om een ​​structuur te vullen gegevens formeel zoals een ODS of zelfs een permanente tafel die wordt weergegeven in het magazijn dat is ontworpen voor snel herstel van onmiddellijke updates of voor verkoop. Natuurlijk, deze structuren zelf gegevens kan worden ingevuld met behulp van

een andere belangrijke technologie ontworpen voor replicatie van gegevens, IBM DataPropagator relationeel. (DataPropagator is een apart product voor centrale systemen. DB2 UNIX, Linux, Windows en OS/2 bevatten replicatieservices van gegevens als standaardfunctie).
Een andere manier van verhuizen gegevens operating around the enterprise is een enterprise application integrator, ook wel bekend als een message broker. Deze unieke technologie maakt ongeëvenaarde controle mogelijk voor het targeten en verplaatsen gegevens rondom het bedrijf. IBM heeft de meest gebruikte berichtenmakelaar, MQSeries, of een variant van het product met de vereisten voor e-commerce, IBM WebSphereMQ.
Per più discussione su come sfruttare MQ per sostenere un magazzino e un ambiente BI, visitare website del libro. Per ora, è sufficiente dire che questa tecnologia è un mezzo eccellente per catturare e trasformare (utilizzando MQSeries Integrator) gegevens gerichte agenten geworven voor BI-oplossingen. MQ-technologie is geïntegreerd en verpakt in UDB V8, wat betekent dat berichtenwachtrijen nu kunnen worden beheerd alsof het DB2-tabellen zijn. Het concept van laswachtrijberichten en het universum van databank relationeel leidt naar een krachtige omgeving van levering van gegevens.

Geen latentie Geen latentie

Het ultieme strategische doel voor IBM is analyse zonder latentie. Zoals gedefinieerd door
Gartner moet een BI-systeem in staat zijn om op verzoek informatie af te leiden, op te nemen en aan analisten te verstrekken. De uitdaging is natuurlijk hoe je moet mixen gegevens actueel en real-time met de nodige historische informatie, zoals i gegevens gerelateerde trend/patroon, of geëxtraheerd inzicht, zoals klantprofilering.

Dergelijke informatie omvat bijvoorbeeld de identificatie van klanten hoog of laag risico of welke producten i klanten ze zullen hoogstwaarschijnlijk kopen als ze al kaas in hun winkelwagentje hebben.

Het verkrijgen van nul latency is eigenlijk afhankelijk van twee fundamentele mechanismen:

  • Volledige vereniging van gegevens die worden geanalyseerd met de gevestigde technieken en met de tools die door de BI zijn gemaakt
  • Een afleversysteem van gegevens efficiënt om ervoor te zorgen dat real-time analyses echt beschikbaar zijn. Deze vereisten voor zero latency zijn niet anders dan de twee doelen die door IBM zijn vastgesteld en hierboven zijn beschreven. De strakke koppeling van de gegevens het maakt deel uit van het naadloze integratieprogramma van IBM. En creëer een bezorgsysteem van gegevens efficiënt is volledig afhankelijk van de beschikbare technologie wat het leveringsproces vereenvoudigt gegevens. Bijgevolg zijn twee van de drie doelstellingen van IBM cruciaal voor het bereiken van de derde. IBM ontwikkelt zijn technologie bewust om ervoor te zorgen dat zero latency een realiteit is voor magazijninspanningen. Samenvatting / Synthese Uw BI-organisatie levert een stappenplan voor het bouwen van uw omgeving
    iteratief. Het moet worden aangepast aan de behoeften van uw bedrijf, zowel nu als in de toekomst. Zonder een brede architectonische visie zijn magazijnherhalingen weinig meer dan lukrake implementaties van het centrale magazijn die weinig bijdragen aan het creëren van een grote, informatieve onderneming. De eerste hindernis voor projectleiders is hoe ze de investering kunnen rechtvaardigen die nodig is om de BI-organisatie te laten groeien. Hoewel ROI-berekeningen een steunpilaar zijn gebleven van inventarisprestaties, wordt het steeds moeilijker om precies te voorspellen. Dit heeft geleid tot andere methoden om te bepalen of u waar voor uw geld krijgt. Zo wordt Value on Investment2 (VOI) als oplossing ingekocht. Het is de taak van de architecten van gegevens en op projectplanners genereren en verstrekken bewust informatie aan gebruikersverenigingen en geven niet zomaar een dienst op gegevens. Er is een enorm verschil tussen de twee. Informatie is iets dat een verschil maakt in besluitvorming en effectiviteit; relatief, ik gegevens het zijn bouwstenen om die informatie af te leiden.

Zelfs als ze kritisch zijn over de bron gegevens om aan zakelijke eisen te voldoen, zou de BI-omgeving een grotere rol moeten spelen bij het creëren van informatie-inhoud. We moeten de extra stappen nemen om informatie-inhoud op te schonen, te integreren, te transformeren of anderszins te creëren waarop gebruikers kunnen reageren, en vervolgens moeten we ervoor zorgen dat die acties en beslissingen, waar redelijk, worden weerspiegeld in de BI-omgeving. Als we het magazijn degraderen om alleen op te dienen gegevens, wees gerust dat gebruikersverenigingen de informatie-inhoud zullen creëren die nodig is om actie te ondernemen. Dit zorgt ervoor dat hun gemeenschap betere beslissingen kan nemen, maar de onderneming lijdt aan een gebrek aan kennis die ze hebben gebruikt. Dato dat architecten en projectplanners specifieke projecten in de BI-omgeving initiëren, blijven ze verantwoordelijk voor de onderneming als geheel. Een eenvoudig voorbeeld van deze tweezijdige eigenschap van BI-iteraties is te vinden in de broncode gegevens. alle gegevens ontvangen voor specifieke commerciële verzoeken moeten worden ingevuld in de eerste atoomlaag. Dit zorgt ervoor dat zowel de ontwikkeling van het bedrijfsinformatiemiddel als het beheer ervan de specifieke gebruikersverzoeken aanpakken die in de iteratie zijn gedefinieerd.

Wat is een datawarehouse?

Gegevens magazijn is sinds 1990 het hart van de architectuur van informatiesystemen en ondersteunt informatieprocessen door een solide geïntegreerd platform van te bieden gegevens geschiedenis als basis voor latere analyses. DE datawarehouse ze bieden gemakkelijke integratie in een wereld van incompatibele applicatiesystemen. Gegevens magazijn het is geëvolueerd tot een bevlieging. Gegevens magazijn organiseren en onthouden i gegevens noodzakelijk voor informatie en analytische processen op basis van een lang historisch tijdsperspectief. Dit alles brengt een aanzienlijke en constante inspanning met zich mee bij de aanleg en het onderhoud van de datawarehouse.

Dus wat is een datawarehouse? Een datawarehouse het is:

  • ▪ vakgericht
  • ▪ geïntegreerd systeem
  • ▪ tijdsvariatie
  • ▪ niet-vluchtig (niet annuleren)

een verzameling van gegevens gebruikt om managementbeslissingen te ondersteunen bij de implementatie van processen.
I gegevens ingebracht datawarehouse ze komen in de meeste gevallen voort uit operationele omgevingen. De datawarehouse het is gemaakt van een opslageenheid, fysiek gescheiden van de rest van het systeem dat het bevat gegevens voorheen getransformeerd door applicaties die werken op informatie die afkomstig is van de besturingsomgeving.

De letterlijke definitie van a datawarehouse het verdient een grondige uitleg omdat er belangrijke motivaties en onderliggende betekenissen zijn die de kenmerken van een magazijn beschrijven.

ONDERWERP ORIËNTATIE ORIËNTATIE THEMATISCH

Het eerste kenmerk van een datawarehouse is dat het gericht is op de belangrijkste onderwerpen van een bedrijf. De gids van de processen door de gegevens het staat in contrast met de meer klassieke methode die voorziet in de oriëntatie van applicaties op processen en functies, een methode die grotendeels wordt gedeeld door de meeste minder recente managementsystemen.

De operationele wereld is ontworpen rond toepassingen en functies zoals leningen, sparen, bankpassen en vertrouwen voor een financiële instelling. De wereld van dw is georganiseerd rond hoofdonderwerpen als de klant, de verkoper, het product en de activiteit. Afstemming rond onderwerpen beïnvloedt het ontwerp en de implementatie van gegevens gevonden in dw. Het belangrijkste is dat het hoofdonderwerp van invloed is op het belangrijkste deel van de sleutelstructuur.

De wereld van applicaties wordt beïnvloed door zowel database-ontwerp als procesontwerp. De wereld van dw is uitsluitend gericht op videomodellering gegevens en op het ontwerp van de databank. Procesontwerp (in zijn klassieke vorm) maakt geen deel uit van de dw-omgeving.

De verschillen tussen de keuze van proces/functietoepassing en de keuze van het onderwerp komen ook naar voren als verschillen in de inhoud van het gegevens op detailniveau. DE gegevens del dw exclusief i gegevens die niet zal worden gebruikt om DSS te verwerken tijdens toepassingen

operationeel gericht gegevens bevatten ik gegevens om onmiddellijk te voldoen aan functionele/verwerkingsvereisten die al dan niet van nut zijn voor de DSS-analist.
Een andere belangrijke manier waarop operationeel gerichte applicaties voor gegevens verschillen van gegevens van dw staat in de rapporten van gegevens. De gegevens medewerkers onderhouden een doorlopende relatie tussen twee of meer tafels op basis van een actieve bedrijfsregel. DE gegevens van dw bestrijken een spectrum van tijd en de rapporten die in de dw worden gevonden zijn talrijk. Veel handelsregels (en navenant veel meldingen van gegevens ) zijn vertegenwoordigd in de voorraad van gegevens tussen twee of meer tafels.

(Voor een gedetailleerde uitleg van hoe de relaties tussen de gegevens worden beheerd in de DW, raadpleeg het technische onderwerp over dat probleem.)
Is er vanuit geen ander perspectief dan dat van het fundamentele verschil tussen een functionele/procestoepassingskeuze en een onderwerpkeuze een groot verschil tussen besturingssystemen en gegevens en de DW.

INTEGRATIE INTEGRATIE

Het belangrijkste aspect van de dw-omgeving is dat i gegevens gevonden binnen de dw zijn eenvoudig te integreren. ALTIJD. ZONDER UITZONDERINGEN. De essentie van de dw-omgeving is dat i gegevens binnen de grenzen van het magazijn zijn geïntegreerd.

Integratie openbaart zich op veel verschillende manieren - in consistent geïdentificeerde conventies, in consistente meting van variabelen, in consistente gecodeerde structuren, in fysieke attributen van gegevens consequent, enzovoort.

Door de jaren heen hebben de ontwerpers van verschillende applicaties veel beslissingen genomen over hoe een applicatie ontwikkeld moet worden. De stijl en geïndividualiseerde ontwerpbeslissingen van de applicaties van de ontwerpers worden op honderd manieren onthuld: in verschillen in codering, sleutelstructuur, fysieke kenmerken, identificatieconventies, enzovoort. Het collectieve vermogen van veel applicatieontwerpers om inconsistente applicaties te creëren is legendarisch. Afbeelding 3 laat enkele van de belangrijkste verschillen zien in hoe applicaties worden ontworpen.

Coderen: Coderen:

Applicatieontwerpers hebben op verschillende manieren gekozen voor veldcodering – geslacht –. Een ontwerper vertegenwoordigt geslacht als een "m" en "f". Een andere ontwerper vertegenwoordigt geslacht als een "1" en een "0". Een andere ontwerper vertegenwoordigt geslacht als een "x" en "y". Een andere ontwerper stelt gender voor als 'mannelijk' en 'vrouwelijk'. Het maakt echt niet uit hoe de seks in de DW komt. De "M" en "F" zijn waarschijnlijk net zo goed als elke weergave.

Waar het om gaat, is dat ongeacht de bron waar het geslachtsveld vandaan komt, dat veld in een consistente geïntegreerde staat in de DW aankomt. Dus wanneer het veld in de DW wordt geladen vanuit een applicatie waar het buiten is weergegeven in het formaat "M" en "F", gegevens moet worden geconverteerd naar DW-formaat.

Meting van attributen: meting van attributen:

Applicatieontwerpers hebben er in de loop der jaren voor gekozen om de pijplijn op verschillende manieren te meten. Een ontwerper slaat i gegevens van de leiding in centimeters. Een andere applicatieontwerper slaat het gegevens van de pijpleiding in inches. Een andere applicatieontwerper slaat het gegevens van de pijpleiding in miljoen kubieke voet per seconde. En een andere ontwerper slaat pijplijninformatie op in termen van werven. Wat de bron ook is, wanneer pijplijninformatie in de DW aankomt, moet deze op dezelfde manier worden gemeten.

Zoals te zien is in figuur 3, hebben integratieproblemen invloed op bijna elk aspect van het project – de fysieke kenmerken van de gegevens, het dilemma van het hebben van meer dan één bron van gegevens, de kwestie van inconsistent geïdentificeerde monsters, formaten van gegevens inconsistent, enzovoort.

Wat het ontwerpargument ook is, het resultaat is hetzelfde - i gegevens moet op een unieke en wereldwijd aanvaardbare manier in de DW worden opgeslagen, zelfs wanneer onderliggende besturingssystemen i gegevens.

Wanneer de DSS-analist naar de DW kijkt, moet de focus van de analist liggen op de exploitatie van gegevens die in het magazijn liggen,

in plaats van zich af te vragen over de geloofwaardigheid of consistentie van de gegevens.

TIJDSVERSCHILLEN

alle gegevens in de DW zijn ze tot op een bepaald moment nauwkeurig. Dit basiskenmerk van de gegevens in DW is heel anders dan gegevens gevonden in de besturingsomgeving. DE gegevens van de besturingsomgeving even nauwkeurig zijn als op het moment van toegang. Met andere woorden, in de besturingsomgeving wanneer toegang tot een eenheid wordt verkregen gegevens, wordt verwacht dat het waarden zo nauwkeurig weergeeft als op het moment van toegang. Waarom ik gegevens in de DW zijn nauwkeurig zoals op een bepaald moment (d.w.z. niet "nu"), i gegevens gevonden in de DW zijn "tijdsvariantie".
Het tijdsverschil van gegevens door DW wordt op tal van manieren genoemd.
De eenvoudigste manier is dat ik gegevens van een DW vertegenwoordigen gegevens over een lange tijdshorizon – vijf tot tien jaar. De weergegeven tijdshorizon voor de bedrijfsomgeving is veel korter dan de huidige waarden van vandaag, tot wel zestig negentig
Applicaties die goed moeten werken en beschikbaar moeten zijn voor transactieverwerking, moeten een minimum aan gegevens als ze enige mate van flexibiliteit toelaten. Operationele toepassingen hebben dus een korte tijdshorizon, zoals een ontwerponderwerp voor audiotoepassingen.
De tweede manier waarop 'tijdsvariantie' in de DW verschijnt, is in de sleutelstructuur. Elke sleutelstructuur in de DW bevat, impliciet of expliciet, een tijdselement, zoals dag, week, maand, etc. Het tijdselement staat bijna altijd onderaan de aaneengeschakelde sleutel in de DW. Bij deze gelegenheden zal het tijdselement impliciet bestaan, bijvoorbeeld wanneer een volledig dossier aan het einde van de maand of het kwartaal wordt gedupliceerd.
De derde manier waarop tijdsverschil wordt weergegeven, is dat i gegevens van de DW, net correct geregistreerd, kan niet worden bijgewerkt. DE gegevens van de DW zijn, voor alle praktische doeleinden, een lange reeks snapshots. Als de momentopname verkeerd is gemaakt, kunnen de momentopnamen natuurlijk worden gewijzigd. Maar ervan uitgaande dat de momentopnamen correct zijn gemaakt, worden ze niet gewijzigd zodra ze zijn gemaakt. In bepaalde

gevallen kan het onethisch of zelfs ongeldig zijn dat de snapshots in de DW worden gewijzigd. DE gegevens operationeel is, even nauwkeurig is als op het moment van toegang, kan worden bijgewerkt als dat nodig is.

NIET VLUCHTIG

Het vierde belangrijke kenmerk van DW is dat het niet-vluchtig is.
Updates, toevoegingen, verwijderingen en wijzigingen worden regelmatig record voor record in de operationele omgevingen aangebracht. Maar de fundamentele manipulatie van de gegevens nodig is in de DW is veel eenvoudiger. Er zijn slechts twee soorten bewerkingen die plaatsvinden in de DW - het initiële laden van de gegevens en toegang tot gegevens. Er is geen update van de gegevens (in de algemene zin van bijwerken) in het DW als een normale verwerkingshandeling. Er zijn enkele zeer krachtige gevolgen van dit fundamentele verschil tussen operationele verwerking en DW-verwerking. Op ontwerpniveau is de noodzaak om voorzichtig te zijn met crashupdates geen factor in de DW, sinds de update van gegevens het wordt niet uitgevoerd. Dit betekent dat op het fysieke niveau van het ontwerp vrijheden kunnen worden genomen om de toegang tot te optimaliseren gegevens, in het bijzonder bij het omgaan met de onderwerpen normalisatie en fysieke denormalisatie. Een ander gevolg van de eenvoud van DW is de onderliggende technologie die wordt gebruikt om de DW-omgeving te laten draaien. Om online record-voor-record updates te ondersteunen (zoals vaak het geval is bij operationele verwerking) moet de technologie een zeer complexe basis hebben achter ogenschijnlijke eenvoud.
De technologie die back-up en herstel, transacties en gegevensintegriteit ondersteunt gegevens en deadlock-detectie en -remedie is vrij complex en niet nodig voor DW-verwerking. De kenmerken van een DW, ontwerporiëntatie, integratie van gegevens binnen de DW, tijdsverschil en beheergemak van gegevens, het leidt allemaal tot een omgeving die heel, heel anders is dan de klassieke besturingsomgeving. De bron van bijna alles gegevens van DW zijn de besturingsomgeving. Het is verleidelijk om te denken dat er een enorme redundantie is van gegevens tussen de twee omgevingen.
De eerste indruk die veel mensen hebben, is inderdaad die van grote redundantie gegevens tussen de werkomgeving en de omgeving van

DW-extensie. Een dergelijke interpretatie is oppervlakkig en getuigt van een gebrek aan begrip van wat er in de DW gebeurt.
Er is inderdaad een minimum aan redundantie gegevens tussen de besturingsomgeving en i gegevens van de DW. Denk aan het volgende: I gegevens ze worden gefilterd dato dat u overschakelt van de besturingsomgeving naar de DW-omgeving. Veel gegevens ze gaan nooit buiten de werkomgeving. Alleen dat ik gegevens die nodig zijn voor DSS-verwerking vinden hun richting in de omgeving

▪ de tijdshorizon van gegevens het is heel verschillend van de ene omgeving tot de andere. DE gegevens in de werkomgeving zijn ze erg vers. DE gegevens in de DW zijn ze veel ouder. Alleen al vanuit het perspectief van de tijdshorizon is er zeer weinig overlap tussen de besturingsomgeving en de DW.

▪ De DW bevat gegevens samenvatting die nooit in het milieu zijn

▪ Ik gegevens ondergaan een fundamentele transformatie terwijl ze overgaan naar figuur 3 illustreert dat de meeste van de gegevens zijn aanzienlijk gewijzigd, op voorwaarde dat ze worden geselecteerd en naar de DW worden verplaatst. Anders gezegd, de meeste gegevens het wordt fysiek en radicaal veranderd als het naar de DW wordt verplaatst. Vanuit het oogpunt van integratie zijn ze niet hetzelfde gegevens woonachtig in de operationele omgeving. Gezien deze factoren, de redundantie van gegevens tussen de twee omgevingen is een zeldzame gebeurtenis, wat leidt tot minder dan 1% redundantie tussen de twee omgevingen. DE STRUCTUUR VAN HET MAGAZIJN DW's hebben een aparte structuur. Er zijn verschillende niveaus van samenvatting en detail die de DW's afbakenen.
De verschillende onderdelen van een DW zijn:

  • Metadata
  • Geven actuele gegevens
  • Geven van oude details
  • Geven enigszins samengevat
  • Geven sterk samengevat

Verreweg de belangrijkste zorg is voor i gegevens actuele gegevens. Het is de eerste zorg omdat:

  • I gegevens Actuele details weerspiegelen de meest recente gebeurtenissen, die altijd van groot belang zijn en
  • i gegevens huidige detailgegevens zijn omvangrijk omdat ze zijn opgeslagen op het laagste niveau van granulariteit en
  • i gegevens van de huidige details worden bijna altijd opgeslagen in schijfgeheugen, dat snel toegankelijk is, maar duur en complex van I gegevens van detail zijn ouder gegevens die zijn opgeslagen in een geheugen van massa. Het wordt sporadisch geopend en opgeslagen op een detailniveau dat compatibel is met gegevens actuele gegevens. Hoewel het niet verplicht is om op een alternatief opslagmedium op te slaan, vanwege het grote volume van gegevens verenigd met de sporadische toegang van de gegevens, het opslagmedium voor gegevens van ouder detail wordt meestal niet op schijf opgeslagen. DE gegevens licht samengevat zijn ze gegevens die zijn gedestilleerd van het gevonden lage detailniveau naar het huidige detailniveau. Dit DW-niveau wordt bijna altijd opgeslagen in het schijfgeheugen. De ontwerpproblemen die zich voordoen bij de architect van de gegevens bij de constructie van dit niveau van de DW zijn:
  • Welke tijdseenheid is de bovenstaande samenvatting
  • Welke inhoud, attributen zullen de inhoud van de gegevens Het volgende niveau van gegevens gevonden in de DW is die van gegevens sterk samengevat. DE gegevens sterk samengevat zijn compact en gemakkelijk toegankelijk. DE gegevens sterk samengevat worden soms aangetroffen in de DW-omgeving en andere gevallen i gegevens zeer geabstraheerd zijn te vinden buiten de directe muren van de technologie die de DW host. (in ieder geval i gegevens sterk samengevat maken deel uit van de DW, ongeacht waar i gegevens zijn fysiek gehuisvest). Het laatste onderdeel van de DW is de metadatacomponent. Metadata zit in veel opzichten in een andere dimensie dan andere gegevens van de DW, omdat de metadata er geen bevatten dato rechtstreeks overgenomen uit de werkomgeving. Metadata heeft een bijzondere en zeer belangrijke rol in DW. Metagegevens worden gebruikt als:
  • een map om de DSS-analist te helpen de inhoud van de DW te vinden,
  • een gids voor het in kaart brengen gegevens van hoe ik gegevens zijn getransformeerd van de besturingsomgeving naar de DW-omgeving,
  • een gids voor de algoritmen die worden gebruikt voor samenvatting tussen i gegevens actuele gegevens bijv gegevens enigszins samengevat, i gegevens Kortom, Metadata speelt een veel grotere rol in de DW-omgeving dan ooit in de operationele omgeving OUD DETAILOPSLAGMIDDEL Magneetband kan worden gebruikt om dat soort op te slaan gegevens. Er is inderdaad een grote verscheidenheid aan opslagmedia die moeten worden overwogen voor het opslaan van oude gegevens van details. Afhankelijk van het volume van gegevens, frequentie van toegang, kosten van tools en type toegang, is het zeer waarschijnlijk dat andere tools het oude detailniveau in de DW nodig zullen hebben. STROOM VAN GEGEVENS Er is een normale en voorspelbare stroom van de gegevens binnen de DW.
    I gegevens ze komen de DW binnen vanuit de besturingsomgeving. (OPMERKING: er zijn enkele zeer interessante uitzonderingen op deze regel. Bijna allemaal echter gegevens voer de DW in vanuit de besturingsomgeving). Dato dat gegevens ze de DW binnenkomen vanuit de besturingsomgeving, wordt deze getransformeerd zoals hierboven beschreven. Op voorwaarde dat u de DW invoert, i gegevens voer het huidige detailniveau in, zoals weergegeven. Het bevindt zich daar en wordt gebruikt totdat een van de volgende drie gebeurtenissen plaatsvindt:
  • wordt gezuiverd,
  • wordt samengevat, en/of ▪is Het verouderde proces binnen een DW beweegt i gegevens actuele gegevens a gegevens van detail oud, volgens de leeftijd van gegevens. Het proces

samenvatting maakt gebruik van de details van gegevens om de te berekenen gegevens licht samengevatte en sterk samengevatte niveaus van de gegevens. Er zijn enkele uitzonderingen op de getoonde stroom (wordt later besproken). Echter, meestal, voor de overgrote meerderheid van gegevens gevonden binnen een DW, de stroom van gegevens het is zoals weergegeven.

GEBRUIK VAN HET DATAWAREHOUSE

Niet verrassend zijn de verschillende niveaus van gegevens binnen de DW krijgen ze geen verschillende gebruiksniveaus. In de regel geldt: hoe hoger het niveau van samenvatting, hoe meer i gegevens Ze zijn gebruikt.
Veel toepassingen komen voor in de gegevens sterk samengevat, terwijl de oude gegevens van detail worden bijna nooit gebruikt. Er is een goede reden om de organisatie te verschuiven naar het paradigma van het gebruik van hulpbronnen. Meer samengevat i gegevens, hoe sneller en efficiënter het is om aan te komen gegevens. Als een winkel constateert dat het veel verwerking van de DW op detailniveau uitvoert, waarna een navenant grote hoeveelheid machinebronnen wordt verbruikt. Het is in ieders belang om zo'n hoog niveau van samenvatting zo snel mogelijk te verwerken.

Voor veel winkels heeft de DSS-analist in een pre-DW-omgeving gewerkt gegevens op detailniveau. In veel opzichten is de aankomst bij gegevens gedetailleerd ziet eruit als een veiligheidsdeken, zelfs als er andere samenvattingsniveaus beschikbaar zijn. Een van de activiteiten van de architect van gegevens is om de DSS-gebruiker te ontwennen van constant gebruik van gegevens op het laagste detailniveau. Er zijn twee motivaties beschikbaar voor de architect gegevens:

  • het installeren van een terugboekingssysteem, waarbij de eindgebruiker betaalt voor de verbruikte middelen e
  • die aangeven dat een zeer goede responstijd kan worden verkregen wanneer het gedrag met i gegevens is op een hoog niveau van samenvatting, terwijl de slechte responstijd voortkomt uit het gedrag van de gegevens op een laag pitje ANDERE OVERWEGINGEN Er zijn een paar andere DW-constructie- en beheeroverwegingen.
    De eerste overweging is die van indices. DE gegevens op hogere niveaus van samenvatting kunnen ze vrij worden geïndexeerd, terwijl i gegevens

op lagere detailniveaus zijn ze zo omvangrijk dat ze spaarzaam kunnen worden geïndexeerd. Van hetzelfde teken, i gegevens op hoge detailniveaus kan relatief eenvoudig worden geherstructureerd, terwijl het volume van gegevens op de lagere niveaus is het zo groot dat i gegevens ze kunnen niet gemakkelijk worden opgeknapt. Bijgevolg is het model van de gegevens en het formele werk dat door het ontwerp is gedaan, legt de basis voor DW, bijna uitsluitend toegepast op het huidige detailniveau. Met andere woorden, de modelleringsactiviteiten van de gegevens ze zijn in bijna alle gevallen niet van toepassing op samenvattingsniveaus. Een andere structurele overweging is die van de onderverdeling van gegevens door DW.

Partitioneren kan op twee niveaus: op het niveau van dbm's en op toepassingsniveau. In de divisie op het niveau dbm's, The dbm's wordt geïnformeerd over de divisies en controleert deze dienovereenkomstig. In het geval van een divisie op applicatieniveau kent alleen de programmeur de divisies en wordt de verantwoordelijkheid voor het beheer ervan aan hem overgelaten

Onder niveau dbm's, wordt veel werk automatisch gedaan. Er is veel inflexibiliteit verbonden aan zelfbeheer van divisies. In het geval van de divisie-niveau toepassing van de gegevens del datawarehouse, valt veel werk op de programmeur, maar het eindresultaat is flexibiliteit bij het beheer van de gegevens in datawarehouse

ANDERE AFWIJKINGEN

Terwijl de componenten van de datawarehouse werken zoals beschreven voor bijna iedereen gegevens, zijn er enkele nuttige uitzonderingen die moeten worden besproken. Een uitzondering is die van gegevens openbare samenvattingen (openbare samenvattingsgegevens). Dit zijn gegevens samenvattingen die zijn berekend uit de datawarehouse maar ze worden gebruikt door de samenleving. DE gegevens openbare samenvattingen worden opgeslagen en beheerd in de datawarehouse, hoewel ze, zoals hierboven vermeld, zijn bedacht. Accountants werken om zo'n kwartaal te produceren gegevens zoals inkomsten, driemaandelijkse uitgaven, driemaandelijkse winst, enzovoort. Het werk van accountants is extern aan de datawarehouse. Hoewel, ik gegevens worden “intern” binnen het bedrijf gebruikt – vanaf marketing, verkoop, enz. Een andere anomalie, die niet zal worden besproken, is die van gegevens extern.

Een ander uitstekend type gegevens die te vinden is in a datawarehouse is die van permanente detailgegevens. Deze veroorzaken de noodzaak om het permanent op te slaan gegevens op een gedetailleerd niveau om ethische of juridische redenen. Als een bedrijf zijn werknemers blootstelt aan gevaarlijke stoffen, is daar behoefte aan gegevens gedetailleerd en permanent. Als een bedrijf een product vervaardigt waarbij de openbare veiligheid betrokken is, zoals onderdelen voor een vliegtuig, dan is daar behoefte aan gegevens permanente details, maar ook als een bedrijf gevaarlijke contracten aangaat.

Het bedrijf kan het zich niet veroorloven om de details over het hoofd te zien, want de komende jaren, in het geval van een rechtszaak, terugroepactie, betwiste constructiefout, enz. de blootstelling van het bedrijf kan groot zijn. Hierdoor is er een uniek type ontstaan gegevens bekend als permanente detailgegevens.

OVERZICHT

Un datawarehouse het is een objectgeoriënteerde, geïntegreerde, gespannen variant, een verzameling van gegevens niet-vluchtig ter ondersteuning van de besluitvormingsbehoeften van de administratie. Elk van de meest opvallende functies van a datawarehouse heeft zijn implicaties. Daarnaast zijn er vier niveaus van gegevens del datawarehouse:

  • Oude details
  • Huidig ​​detail
  • Geven enigszins samengevat
  • Geven sterk samengevat Metadata is ook een belangrijk onderdeel van de datawarehouse. ABSTRACT Het concept van de opslag van gegevens het heeft de laatste tijd veel aandacht gekregen en is een trend geworden van de jaren 90. Dit komt door het vermogen van een datawarehouse om de beperkingen van managementondersteunende systemen zoals beslissingsondersteunende systemen (DSS) en uitvoerende informatiesystemen (EIS) te overwinnen. Hoewel het concept van de datawarehouse ziet er veelbelovend uit, implementeer i datawarehouse kan problematisch zijn vanwege grootschalige opslagprocessen. Ondanks de complexiteit van warehousingprojecten van gegevens, veel leveranciers en adviseurs die voorraad gegevens beweren dat de opslag van gegevens geen probleem vormen. Aan het begin van dit onderzoeksproject was er echter nauwelijks onafhankelijk, rigoureus en systematisch onderzoek gedaan. Daarom is het moeilijk te zeggen wat er werkelijk gebeurt in de industrie wanneer ze worden gebouwd datawarehouse. In dit onderzoek is gekeken naar de warehousing praktijk van gegevens tijdgenoten die tot doel heeft een beter begrip van de Australische praktijk te ontwikkelen. Het literatuuronderzoek vormde de context en basis voor het empirische onderzoek. Er zijn een aantal resultaten uit dit onderzoek. Ten eerste onthulde deze studie de activiteiten die plaatsvonden tijdens de ontwikkeling van de datawarehouse. Op veel gebieden, i gegevens verzameld bevestigde de in de literatuur gerapporteerde praktijk. Ten tweede, de kwesties en problemen die van invloed kunnen zijn op de ontwikkeling van de datawarehouse werden geïdentificeerd door deze studie. Tot slot, voordelen behaald door Australische organisaties in verband met het gebruik van datawarehouse zijn onthuld.

Hoofdstuk 1

Zoekcontext

Het concept van datawarehousing kreeg veel aandacht en werd een opkomende trend in de jaren negentig (McFadden 90, TDWI 1996, Shah en Milstein 1996, Shanks et al. 1997, Eckerson 1997, Adelman en Oates 1998). Dit blijkt uit het groeiende aantal artikelen over datawarehousing in vakbladen (Little en Gibson 2000). Veel artikelen (zie bijvoorbeeld Fisher 1999, Hackathorn 1995, Morris 1995a, Bramblett en King 1995, Graham et al. 1996, Sakaguchi en Frolick 1996, Alvarez 1996, Brousell 1997, Clarke 1997, McCarthy 1997, O' Donnell 1997, Edwards 1997, TDWI 1998) hebben melding gemaakt van aanzienlijke voordelen voor organisaties die implementeren datawarehouse. Ze ondersteunden hun theorie met anekdotisch bewijs van succesvolle implementaties, hoge ROI-cijfers (Return on Investment) en ook door richtlijnen of methodologieën te geven voor het ontwikkelen van datawarehouse

(Shanks et al. 1997, Seddon en Benjamin 1998, Little en Gibson 1999). In een extreem geval, Graham et al. (1996) rapporteerden een gemiddeld rendement op een driejarige investering van 401%.

Veel van de huidige literatuur heeft echter de complexiteit over het hoofd gezien die gepaard gaat met het uitvoeren van dergelijke projecten. De projecten van datawarehouse ze zijn meestal complex en grootschalig en hebben daarom een ​​grote kans op mislukking als ze niet zorgvuldig worden gecontroleerd (Shah en Milstein 1997, Eckerson 1997, Foley 1997b, Zimmer 1997, Bort 1998, Gibbs en Clymer 1998, Rao 1998). Ze vereisen enorme hoeveelheden zowel menselijke als financiële middelen, tijd en moeite om ze op te bouwen (Hill 1998, Crofts 1998). De benodigde tijd en financiële middelen zijn respectievelijk ongeveer twee jaar en twee tot drie miljoen dollar (Braly 1995, Foley 1997b, Bort 1998, Humphries et al. 1999). Deze tijd en financiële middelen zijn nodig om veel verschillende aspecten van datawarehousing te beheersen en te consolideren (Cafasso 1995, Hill 1998). Naast de hardware- en softwareoverwegingen, andere functies, die variëren van de extractie van gegevens naar de laadprocessen van gegevens, de geheugencapaciteit om updates te beheren en de meta gegevens voor gebruikerstraining, moet worden overwogen.

Op het moment dat dit onderzoeksproject begon, was er zeer weinig academisch onderzoek op het gebied van datawarehousing, vooral in Australië. Dit bleek uit het gebrek aan artikelen over datawarehousing in tijdschriften of andere academische geschriften van die tijd. Veel van de beschikbare academische geschriften beschreven de ervaringen in de VS. Het gebrek aan academisch onderzoek op het gebied van datawarehousing heeft geleid tot een vraag naar rigoureus onderzoek en empirische studies (McFadden 1996, Shanks et al. 1997, Little en Gibson 1999). Met name onderzoeken naar het implementatieproces van datawarehouse moet worden gedaan om de algemene kennis over de implementatie van uit te breiden datawarehouse en zal dienen als basis voor toekomstig onderzoek (Shanks et al. 1997, Little en Gibson 1999).

Het doel van dit onderzoek is dan ook om te onderzoeken wat er daadwerkelijk gebeurt als organisaties i datawarehouse in Australië. Concreet zal deze studie een analyse inhouden van een heel proces van het ontwikkelen van een datawarehouse, beginnend met initiatie en ontwerp via ontwerp en implementatie en vervolgens gebruik binnen Australische organisaties. Daarnaast zal het onderzoek ook bijdragen aan de huidige praktijk door gebieden te identificeren waar de praktijk verder kan worden verbeterd en inefficiënties en risico's kunnen worden geminimaliseerd of vermeden. Bovendien zal het als basis dienen voor andere studies over datawarehouse in Australië en zal het gat vullen dat momenteel in de literatuur bestaat.

Onderzoeksvragen

Het doel van dit onderzoek is het bestuderen van de activiteiten die betrokken zijn bij de implementatie van datawarehouse en het gebruik ervan door Australische organisaties. Met name elementen met betrekking tot projectplanning, ontwikkeling, exploitatie, gebruik en de daaraan verbonden risico's worden bestudeerd. De vraag van dit onderzoek is dus:

“Hoe is de huidige praktijk van de datawarehouse in Australië?"

Om deze vraag goed te kunnen beantwoorden is een aantal deelonderzoeksvragen nodig. In het bijzonder zijn er drie subvragen uit de literatuur geïdentificeerd, die in hoofdstuk 2 worden gepresenteerd, om dit onderzoeksproject te begeleiden: Hoe zijn de datawarehouse door Australische organisaties? Wat zijn de ondervonden problemen?

Wat zijn de ervaren voordelen?
Bij het beantwoorden van deze vragen is gebruik gemaakt van een verkennend onderzoeksdesign met een enquête. Als verkennend onderzoek zijn de antwoorden op bovenstaande vragen niet volledig (Shanks et al. 1993, Denscombe 1998). In dit geval is enige triangulatie vereist om de antwoorden op deze vragen te verbeteren. Het onderzoek zal echter een solide basis vormen voor toekomstig onderzoek naar deze vragen. Een gedetailleerde bespreking van de rechtvaardiging en het ontwerp van onderzoeksmethoden wordt gepresenteerd in hoofdstuk 3.

Structuur van het onderzoeksproject

Dit onderzoeksproject is verdeeld in twee delen: de contextuele studie van het datawarehousing-concept en het empirisch onderzoek (zie figuur 1.1), die beide hieronder worden besproken.

Deel I: Contextuele studie

Het eerste deel van het onderzoek bestond uit een overzicht van de huidige literatuur over verschillende soorten datawarehousing, waaronder beslissingsondersteunende systemen (DSS), uitvoerende informatiesystemen (EIS), casestudy's van datawarehouse en de concepten van datawarehouse. Ook de resultaten van de forums op datawarehouse en expert- en praktijkbijeenkomsten onder leiding van de onderzoeksgroep Monash DSS, hebben bijgedragen aan deze fase van het onderzoek die bedoeld was om inzicht te krijgen in de praktijk van datawarehouse en om de risico's die verbonden zijn aan de acceptatie ervan te identificeren. Tijdens deze periode van contextuele studie werd inzicht in het probleemgebied verkregen om de kennisbasis te verschaffen voor later empirisch onderzoek. Dit was echter een continu proces terwijl het onderzoek werd uitgevoerd.

Deel II: Empirisch onderzoek

Het relatief nieuwe concept van datawarehousing, vooral in Australië, heeft de behoefte aan een enquête gecreëerd om een ​​breed beeld te krijgen van de gebruikservaring. Dit onderdeel is uitgevoerd nadat het probleemdomein was vastgesteld door middel van een uitgebreid literatuuronderzoek. Het concept van datawarehousing dat tijdens de contextuele studiefase werd gevormd, werd gebruikt als input voor de initiële vragenlijst van dit onderzoek. Hierna is de vragenlijst doorgenomen. Ben jij een expert op het gebied van datawarehouse deelgenomen aan de proef. Het doel van het testen van de initiële vragenlijst was om de volledigheid en juistheid van de vragen te controleren. Op basis van de testresultaten is de vragenlijst aangepast en is de aangepaste versie gemaild naar de deelnemers aan het onderzoek. De geretourneerde vragenlijsten zijn vervolgens geanalyseerd op i gegevens in tabellen, diagrammen en andere formaten. DE

analyseresultaten van gegevens vormen een momentopname van datawarehousingpraktijken in Australië.

DATA WAREHOUSING OVERZICHT

Het concept van datawarehousing is geëvolueerd met verbeteringen in computertechnologie.
Het is bedoeld om de problemen op te lossen die worden ondervonden door ondersteuningsgroepen voor toepassingen, zoals het Decision Support System (DSS) en het Executive Information System (EIS).

In het verleden was het grootste obstakel van deze toepassingen het onvermogen van deze toepassingen om een database nodig voor de analyse.
Dit wordt met name veroorzaakt door de aard van de werkzaamheden van het management. De belangen van het management van een bedrijf variëren voortdurend, afhankelijk van het bestreken gebied. Daarom, ik gegevens fundamenteel voor deze toepassingen moeten snel kunnen veranderen, afhankelijk van het te behandelen onderdeel.
Dit betekent dat ik gegevens moet beschikbaar zijn in de juiste vorm voor de vereiste analyses. Sterker nog, aanvraagondersteuningsgroepen vonden het in het verleden erg moeilijk om te verzamelen en te integreren gegevens uit complexe en diverse bronnen.

De rest van deze sectie geeft een overzicht van het concept van data warehousing en bespreekt hoe de datawarehouse kan de problemen van toepassingsondersteuningsgroepen overwinnen.
De term "Datawarehousewerd gepopulariseerd door William Inmon in 1990. Zijn vaak geciteerde definitie ziet de Datawarehouse als een verzameling van gegevens vakgericht, geïntegreerd, niet-vluchtig en variabel in de tijd, ter ondersteuning van managementbeslissingen.

Met behulp van deze definitie wijst Inmon erop dat i gegevens woonachtig in een datawarehouse moet de volgende 4 kenmerken bezitten:

  • ▪ Vakgericht
  • ▪ Geïntegreerd
  • ▪ Niet vluchtig
  • ▪ Variabel in de tijd Met vakgericht bedoelt Inmon dat i gegevens in datawarehouse in de grootste organisatorische gebieden die er zijn geweest

gedefinieerd in het model gegevens. Bijvoorbeeld allemaal gegevens betreffende i klanten zijn opgenomen in het onderwerpgebied KLANTEN. Evenzo alle gegevens met betrekking tot de producten zijn opgenomen in het onderwerpgebied PRODUCTEN.

Met Geïntegreerd bedoelt Inmon dat i gegevens van verschillende platformen, systemen en locaties worden gecombineerd en op één plek opgeslagen. Bijgevolg gegevens soortgelijke moeten worden omgezet in consistente formaten om gemakkelijk te kunnen worden toegevoegd en vergeleken.
Het mannelijk en vrouwelijk geslacht wordt bijvoorbeeld weergegeven door de letters M en F in het ene systeem en door 1 en 0 in het andere. Om ze goed te integreren, moeten één of beide formaten worden getransformeerd zodat de twee formaten gelijk zijn. In dit geval kunnen we M veranderen in 1 en F in 0 of vice versa. Vakgericht en Geïntegreerd geven aan dat de datawarehouse is ontworpen om een ​​functionele en transversale visie te geven gegevens van het bedrijf.

Met niet-vluchtig bedoelt hij dat i gegevens in datawarehouse blijf consistent en update van gegevens Het is niet noodzakelijk. In plaats daarvan wordt elke wijziging in de gegevens originelen wordt toegevoegd databank del datawarehouse. Dit betekent dat de historicus van de gegevens zit erin datawarehouse.

Voor variabelen met tijd geeft Inmon aan dat i gegevens in datawarehouse bevatten altijd de tempo-indicatoren ei gegevens ze overschrijden normaal gesproken een bepaalde tijdshorizon. Bijvoorbeeld een
datawarehouse kan 5 jaar aan historische waarden bevatten van klanten van 1993 tot 1997. De beschikbaarheid van de historische en een tijdreeks van de gegevens stelt u in staat om trends te analyseren.

Un datawarehouse hij kan zijn eigen verzamelen gegevens van OLTP-systemen; van oorsprong gegevens extern aan de organisatie en/of van andere speciale vangsysteemprojecten gegevens.
I gegevens extracten kunnen een reinigingsproces ondergaan, in dit geval i gegevens worden getransformeerd en geïntegreerd voordat ze worden opgeslagen in de databank del datawarehouse. Dan, ik gegevens

woonachtig binnen de databank del datawarehouse worden beschikbaar gesteld voor logins van eindgebruikers en hersteltools. Met behulp van deze tools heeft de eindgebruiker toegang tot het geïntegreerde overzicht van de organisatie van de gegevens.

I gegevens woonachtig binnen de databank del datawarehouse ze worden opgeslagen in zowel gedetailleerde als samenvattende formaten.
Het niveau van samenvatting kan afhangen van de aard van de gegevens. De gegevens gedetailleerd kan bestaan ​​uit gegevens huidige en gegevens historici
I gegevens real zijn niet inbegrepen in de datawarehouse totdat ik gegevens in datawarehouse worden opnieuw bijgewerkt.
Naast het opbergen van de gegevens zelf, een datawarehouse het kan ook een ander soort opslaan dato genaamd METADATA beschrijven i gegevens woonachtig in zijn databank.
Er zijn twee soorten metadata: ontwikkelingsmetadata en analysemetadata.
Ontwikkelingsmetadata worden gebruikt om de processen van extraheren, opschonen, in kaart brengen en uploaden te beheren en te automatiseren gegevens in datawarehouse.
De informatie in de ontwikkelingsmetadata kan details bevatten van besturingssystemen, details van de te extraheren elementen, het model gegevens del datawarehouse en bedrijfsregels voor het converteren van gegevens gegevens.

Het tweede type metadata, ook wel analytische metadata genoemd, stelt de eindgebruiker in staat om de inhoud van de datawarehouse om de te vinden gegevens beschikbare informatie en hun betekenis in duidelijke, niet-technische termen.

De analytische metadata werken dus als een brug tussen de datawarehouse en eindgebruikerstoepassingen. Deze metadata kunnen het businessmodel, beschrijvingen van gegevens overeenkomend met het bedrijfsmodel, vooraf gedefinieerde query's en rapporten, informatie voor gebruikerstoegang en de index.

Metadata voor analyse en ontwikkeling moeten worden gecombineerd tot één geïntegreerde inperkingsmetadata om goed te kunnen functioneren.

Helaas hebben veel van de bestaande tools hun eigen metadata en momenteel zijn er geen bestaande standaarden

datawarehousingtools toestaan ​​om deze metadata te integreren. Om deze situatie te verhelpen, vormden veel leveranciers van toonaangevende tools voor datawarehousing de Meta Data Council, die later de Meta Data Coalition werd.

Het doel van deze coalitie is om een ​​standaard metadataset te bouwen waarmee verschillende datawarehousingtools metadata kunnen converteren
Hun inspanningen resulteerden in de geboorte van de Meta Data Interchange Specification (MDIS) die de uitwisseling van informatie tussen Microsoft-archieven en gerelateerde MDIS-bestanden mogelijk maakt.

Het bestaan ​​van gegevens zowel samengevat/geïndexeerd als gedetailleerd, geeft het de gebruiker de mogelijkheid om een ​​DRILL DROWN (boren) uit te voeren gegevens geïndexeerd naar gedetailleerd en vice versa. Het bestaan ​​van gegevens gedetailleerde geschiedenis maakt het mogelijk trendanalyses in de loop van de tijd te maken. Daarnaast kunnen de metadata van de analyse worden gebruikt als een del-directory databank del datawarehouse om eindgebruikers te helpen i gegevens vereist.

In vergelijking met OLTP-systemen, met hun vermogen om analyse van te ondersteunen gegevens en rapportage, de datawarehouse het wordt gezien als een geschikter systeem voor informatieprocessen zoals het maken en beantwoorden van vragen en het maken van rapporten. In het volgende gedeelte zullen de verschillen tussen de twee systemen in detail worden belicht.

GEGEVENS MAGAZIJN TEGEN OLTP-SYSTEMEN

Veel van de informatiesystemen binnen organisaties zijn bedoeld om de dagelijkse bedrijfsvoering te ondersteunen. Deze systemen, bekend als OLTP-SYSTEMEN, leggen dagelijkse transacties vast die continu worden bijgewerkt.

I gegevens binnen deze systemen worden ze vaak gewijzigd, toegevoegd of verwijderd. Het adres van een klant verandert bijvoorbeeld wanneer hij van plaats naar plaats verhuist. In dit geval wordt het nieuwe adres geregistreerd door het adresveld van te wijzigen databank. Het belangrijkste doel van deze systemen is om transactiekosten te verlagen en tegelijkertijd de verwerkingstijd te verkorten. Voorbeelden van OLTP-systemen zijn kritieke acties zoals orderjournaling, salarisadministratie, facturen, productie en klantenservice klanten.

In tegenstelling tot OLTP-systemen, die zijn gemaakt voor op transacties en gebeurtenissen gebaseerde processen, i datawarehouse zijn gemaakt om op analyse gebaseerde procesondersteuning te bieden gegevens en besluitvormingsprocessen.

Dit wordt normaal gesproken bereikt door i te integreren gegevens van verschillende OLTP- en externe systemen in één "container" van gegevens, zoals besproken in de vorige sectie.

Monash Data Warehousing Procesmodel

Het procesmodel voor datawarehouse Monash is ontwikkeld door onderzoekers van de Monash DSS Research Group en is gebaseerd op de literatuur van datawarehouse, ervaring op het gebied van ontwikkelingsondersteunende systemen, besprekingen met applicatieleveranciers voor gebruik op datawarehouse, op een groep experts in het gebruik van datawarehouse.

De fasen zijn: Initiatie, Planning, Ontwikkeling, Operatie en Toelichting. Het diagram verklaart de iteratieve of evolutionaire aard van het ontwikkelen van een datawarehouse proces met behulp van tweerichtingspijlen die tussen de verschillende fasen zijn geplaatst. In deze context betekenen 'iteratief' en 'evolutionair' dat implementatieactiviteiten bij elke stap van het proces altijd terug kunnen gaan naar de vorige fase. Dit heeft te maken met de aard van een project datawarehouse waarin op elk moment aanvullende verzoeken van de eindgebruiker voorkomen. Bijvoorbeeld tijdens de ontwikkelfase van een proces datawarehouseAls een nieuwe onderwerpsgrootte of oppervlakte wordt aangevraagd door de eindgebruiker, die geen deel uitmaakte van het oorspronkelijke plan, moet deze worden toegevoegd aan het systeem. Dit zorgt voor een verandering in het project. Het resultaat is dat het ontwerpteam tijdens de ontwerpfase de vereisten van de documenten die tot nu toe zijn gemaakt, moet wijzigen. In veel gevallen moet de huidige staat van het project helemaal teruggaan naar de ontwerpfase, waar de nieuwe eis moet worden toegevoegd en gedocumenteerd. De eindgebruiker moet de specifieke documentatie die is beoordeeld en de wijzigingen die in de ontwikkelingsfase zijn aangebracht, kunnen zien. Aan het einde van deze ontwikkelingscyclus moet het project goede feedback krijgen van zowel het ontwikkel- als het gebruikersteam. Feedback wordt vervolgens hergebruikt om een ​​toekomstig project te verbeteren.

Capaciteits planning
dw hebben de neiging erg groot te zijn en erg snel te groeien (Best 1995, Rudin 1997a) vanwege de hoeveelheid gegevens historisch dat ze behouden van hun duur. Groei kan ook worden veroorzaakt door gegevens add-ons die door gebruikers zijn aangevraagd om de waarde van te verhogen gegevens die ze al hebben. Bijgevolg zijn de opslagvereisten voor gegevens kan aanzienlijk worden verbeterd (Eckerson 1997). Het is dus essentieel om ervoor te zorgen, door capaciteitsplanning uit te voeren, dat het te bouwen systeem kan groeien naarmate de behoeften groeien (Best 1995, LaPlante 1996, Lang 1997, Eckerson 1997, Rudin 1997a, Foley 1997a).
Bij het plannen van de schaalbaarheid van datawarehouses moet men de verwachte groei van de grootte van het magazijn kennen, de soorten vragen die waarschijnlijk zullen worden gesteld en het aantal ondersteunde eindgebruikers (Best 1995, Rudin 1997b, Foley 1997a). Het bouwen van schaalbare applicaties vereist een combinatie van schaalbare servertechnologieën en schaalbare applicatieontwerptechnieken (Best 1995, Rudin 1997b. Beide zijn nodig bij het bouwen van een zeer schaalbare applicatie. Schaalbare servertechnologieën kunnen het gemakkelijk en kosteneffectief maken om opslag, geheugen en CPU toe te voegen zonder verslechterende prestaties (Lang 1997, Telefonie 1997).

Er zijn twee belangrijke schaalbare servertechnologieën: symmetrische meervoudige verwerking (SMP) en massaal parallelle verwerking (MPP) (IDC 1997, Humphries et al. 1999). Een SMP-server heeft doorgaans meerdere processors die geheugen, systeembussen en andere bronnen delen (IDC 1997, Humphries et al. 1999). Er kunnen extra processors worden toegevoegd om de prestaties te verbeteren potenza rekenkundig. Een andere methode om de potenza berekening van de SMP-server, is het combineren van talrijke SMP-machines. Deze techniek staat bekend als clustering (Humphries et al. 1999). Een MPP-server daarentegen heeft meerdere processors, elk met zijn eigen geheugen, bussysteem en andere bronnen (IDC 1997, Humphries et al. 1999). Elke processor wordt een knooppunt genoemd. Een verhoging van de potenza rekenkundig kan worden verkregen

het toevoegen van extra knooppunten aan MPP-servers (Humphries et al. 1999).

Een zwak punt van SMP-servers is dat te veel input-output (I/O)-bewerkingen het bussysteem kunnen overbelasten (IDC 1997). Dit probleem doet zich niet voor binnen MPP-servers omdat elke processor zijn eigen bussysteem heeft. De onderlinge verbindingen tussen elk knooppunt zijn echter over het algemeen veel langzamer dan het SMP-bussysteem. Bovendien kunnen MPP-servers een extra laag complexiteit toevoegen aan applicatieontwikkelaars (IDC 1997). De keuze tussen SMP- en MPP-servers kan dus worden beïnvloed door vele factoren, waaronder de complexiteit van de applicaties, de prijs/prestatieverhouding, de vereiste doorvoer, de verhinderde dw-applicaties en de toename in omvang van de server. databank van dw en in het aantal eindgebruikers.

Bij capaciteitsplanning kan een aantal schaalbare applicatieontwerptechnieken worden gebruikt. Men hanteert verschillende rapportageperioden zoals dagen, weken, maanden en jaren. Met verschillende meldingstermijnen kan de databank kunnen worden opgedeeld in overzichtelijk gegroepeerde stukken (Inmon et al. 1997). Een andere techniek is het gebruik van overzichtstabellen die zijn opgebouwd door samen te vatten gegevens da gegevens gedetailleerd. Dus ik gegevens samenvattingen zijn compacter dan gedetailleerd, waardoor er minder geheugenruimte nodig is. Dus de gegevens details kunnen worden gearchiveerd naar een goedkopere opslageenheid, wat nog meer opslagruimte bespaart. Hoewel het gebruik van overzichtstabellen opslagruimte kan besparen, vergen ze veel moeite om ze actueel en in overeenstemming met de bedrijfsbehoeften te houden. Deze techniek wordt echter veel gebruikt en vaak gebruikt in combinatie met de vorige techniek (Best 1995, Inmon 1996a, Chauduri en Dayal
1997).

Het definiëren Datawarehouse Technische architecturen Definitie van dw-architectuurtechnieken

Early adopters van datawarehousing hadden in de eerste plaats een gecentraliseerde datawarehouse-implementatie voor ogen waar alles mogelijk was gegevens, waaronder ik gegevens externe, werden geïntegreerd in een enkele,
fysieke opslagplaats (Inmon 1996a, Bresnahan 1996, Peacock 1998).

Het belangrijkste voordeel van deze aanpak is dat eindgebruikers toegang hebben tot de bedrijfsbrede weergave van de gegevens organisatorisch (Ovum 1998). Een ander pluspunt is dat het standaardisatie biedt van gegevens in de hele organisatie, wat betekent dat er slechts één versie of definitie is voor elke terminologie die wordt gebruikt in de metadata van de repository (Flanagan en Safdie 1997, Ovum 1998). Het nadeel van deze benadering is daarentegen dat deze duur en moeilijk te construeren is (Flanagan en Safdie 1997, Ovum 1998, Inmon et al. 1998). Niet lang na de opslagarchitectuur gegevens gecentraliseerd populair werd, evolueerde het concept van het minen van de kleinste subsets van goden gegevens om de behoeften van specifieke toepassingen te ondersteunen (Varney 1996, IDC 1997, Berson en Smith 1997, peacock 1998). Deze kleine systemen zijn afgeleid van de grotere datawarehouse gecentraliseerd. Ze zijn genoemd datawarehouse medewerker afdeling of werknemer datamarts. De afhankelijke datamart-architectuur staat bekend als drieledige architectuur waarbij de eerste laag bestaat uit de datawarehouse gecentraliseerd, de tweede bestaat uit de deposito's van gegevens departementaal en de derde bestaat uit toegang tot gegevens en door analysetools (Demarest 1994, Inmon et al. 1997).

Datamarts worden normaal gesproken gebouwd na de datawarehouse gecentraliseerd werd gebouwd om aan de behoeften van specifieke eenheden te voldoen (White 1995, Varney 1996).
Datamarts winkel i gegevens relevant voor bepaalde eenheden (Inmon et al. 1997, Inmon et al. 1998, IA 1998).

Het voordeel van deze methode is dat er geen dato niet geïntegreerd en dat i gegevens zal minder overbodig zijn binnen datamarts sinds alle gegevens komen uit een storting van gegevens geïntegreerd. Een ander voordeel is dat er minder koppelingen zijn tussen elke datamart en zijn bronnen gegevens omdat elke datamart slechts één bron van heeft gegevens. Bovendien hebben eindgebruikers met deze architectuur nog steeds toegang tot het gegevens

bedrijfsorganisaties. Deze methode staat bekend als de top-down methode, waarbij datamarts worden gebouwd na de datawarehouse (pauw 1998, Goff 1998).
Door de noodzaak om vroegtijdig resultaten te laten zien, zijn sommige organisaties begonnen met het bouwen van onafhankelijke datamarts (Flanagan en Safdie 1997, White 2000). In dit geval krijgen de datamarts die van hen gegevens rechtstreeks uit de basis van gegevens OLTP en niet-OLTP uit de gecentraliseerde en geïntegreerde repository, waardoor er geen centrale repository meer nodig is.

Elke datamart vereist minstens één link naar zijn bronnen gegevens. Een nadeel van het hebben van meerdere koppelingen naar elke datamart is dat, in vergelijking met de vorige twee architecturen, de overvloed aan gegevens neemt aanzienlijk toe.

Elke datamart moet alle gegevens opslaan gegevens lokaal vereist om geen invloed te hebben op OLTP-systemen. Dit veroorzaakt i gegevens ze zijn opgeslagen in verschillende datamarts (Inmon et al. 1997). Een ander nadeel van deze architectuur is dat het leidt tot het ontstaan ​​van complexe verbindingen tussen datamarts en hun databronnen. gegevens die moeilijk te implementeren en te beheersen zijn (Inmon et al. 1997).

Een ander nadeel is dat eindgebruikers mogelijk niet bij het bedrijfsinformatieoverzicht kunnen omdat i gegevens van de verschillende datamarts zijn niet geïntegreerd (Ovum 1998).
Nog een ander nadeel is dat er meer dan één definitie kan zijn voor elke terminologie die wordt gebruikt in datamarts die data-inconsistenties genereert. gegevens in organisatie (Ovum 1998).
Ondanks de hierboven besproken nadelen trekken stand-alone datamarts nog steeds de aandacht van veel organisaties (IDC 1997). Een factor die ze aantrekkelijk maakt, is dat ze zich sneller ontwikkelen en minder tijd en middelen vergen (Bresnahan 1996, Berson en Smith 1997, Ovum 1998). Bijgevolg dienen ze vooral als testontwerpen die kunnen worden gebruikt om snel voordelen en/of tekortkomingen in het ontwerp te identificeren (Parsaye 1995, Braly 1995, Newing 1996). In dit geval moet het deel dat in het proefproject moet worden geïmplementeerd klein maar belangrijk zijn voor de organisatie (Newing 1996, Mansell-Lewis 1996).

Door het prototype te onderzoeken, kunnen eindgebruikers en het management beslissen of ze het project voortzetten of stoppen (Flanagan en Safdie 1997).
Als de beslissing is om door te gaan, moeten datamarts voor andere industrieën één voor één worden gebouwd. Er zijn twee opties voor eindgebruikers op basis van hun behoeften bij het bouwen van onafhankelijke gegevensmatrixen: geïntegreerd/gefedereerd en niet-geïntegreerd (Ovum 1998)

Bij de eerste methode moet elke nieuwe datamart worden gebouwd op basis van de huidige datamarts en het huidige model gegevens gebruikt door het bedrijf (Varney 1996, Berson en Smith 1997, Peacock 1998). De noodzaak om het model te gebruiken gegevens van de onderneming betekent dat men ervoor moet zorgen dat er slechts één definitie is voor elke terminologie die in datamarts wordt gebruikt, ook om ervoor te zorgen dat verschillende datamarts kunnen worden samengevoegd om een ​​overzicht van bedrijfsinformatie te geven (Bresnahan 1996). Deze methode wordt de bottom-up methode genoemd en kan het beste worden gebruikt wanneer er een beperking is op het gebied van financiële middelen en tijd (Flanagan en Safdie 1997, Ovum 1998, peacock 1998, Goff 1998). Bij de tweede methode kunnen de gebouwde datamarts alleen voldoen aan de behoeften van een specifieke eenheid. Een variant van de gefedereerde datamart is de datawarehouse uitgedeeld waarin de databank hubserver-middleware wordt gebruikt om veel datamarts samen te voegen tot één repository gegevens gedistribueerd (White 1995). In dit geval, ik gegevens zaken zijn verdeeld over verschillende datamarts. Verzoeken van eindgebruikers worden doorgestuurd naar databank hub-servermiddleware, die alle gegevens opgevraagd door datamarts en de resultaten terugkoppelen naar toepassingen van eindgebruikers. Deze methode levert bedrijfsinformatie aan eindgebruikers. De problemen van onafhankelijke datamarts zijn echter nog steeds niet verholpen. Er is een andere architectuur die kan worden gebruikt, genaamd de datawarehouse virtueel (White 1995). Deze architectuur, die wordt weergegeven in figuur 2.9, is echter geen architectuur voor gegevensopslag gegevens real omdat het de belasting niet verplaatst van OLTP-systemen naar datawarehouse (Demarest 1994).

In feite verzoeken om gegevens door eindgebruikers worden ze doorgegeven aan OLTP-systemen die resultaten retourneren na verwerking van gebruikersverzoeken. Hoewel deze architectuur eindgebruikers in staat stelt rapporten te genereren en verzoeken in te dienen, kan het geen i

gegevens geschiedenis en overzicht van bedrijfsinformatie sinds i gegevens aangezien de verschillende OLTP-systemen niet geïntegreerd zijn. Daarom kan deze architectuur niet voldoen aan de analyse van gegevens zoals voorspellingen.

Selectie van toepassingen voor toegang en gegevensherstel gegevens

Het doel van het bouwen van een datawarehouse is om informatie over te brengen aan eindgebruikers (Inmon et al. 1997, Poe 1996, McFadden 1996, Shanks et al. 1997, Hammergren 1998); een of meer toegangs- en hersteltoepassingen gegevens moet worden verstrekt. Tot op heden is er een grote verscheidenheid aan dergelijke toepassingen waaruit de gebruiker kan kiezen (Hammergren 1998, Humphries et al. 1999). De geselecteerde applicaties bepalen het succes van de warehousing-inspanning gegevens in een organisatie omdat de applicaties het meest zichtbare onderdeel zijn van de datawarehouse aan de eindgebruiker (Inmon et al. 1997, Poe 1996). Om succesvol te zijn A datawarehouse, moet data-analyseactiviteiten kunnen ondersteunen gegevens van de eindgebruiker (Poe 1996, Seddon en Benjamin 1998, Eckerson 1999). Het "niveau" van wat de eindgebruiker wil, moet dus worden geïdentificeerd (Poe 1996, Mattison 1996, Inmon et al. 1997, Humphries et al. 1999).

Over het algemeen kunnen eindgebruikers in drie categorieën worden ingedeeld: uitvoerende gebruikers, bedrijfsanalisten en hoofdgebruikers (Poe 1996, Humphries et al. 1999). Uitvoerende gebruikers hebben gemakkelijke toegang nodig tot vooraf gedefinieerde sets rapporten (Humphries et al. 1999). Deze rapporten zijn gemakkelijk toegankelijk via menunavigatie (Poe 1996). Bovendien moeten rapporten informatie presenteren met behulp van grafische weergave zoals tabellen en sjablonen om de informatie snel over te brengen (Humphries et al. 1999). Bedrijfsanalisten, die misschien niet over de technische capaciteiten beschikken om zelf rapporten vanaf nul te ontwikkelen, moeten de huidige rapporten kunnen aanpassen om aan hun specifieke behoeften te voldoen (Poe 1996, Humphries et al. 1999). Krachtige gebruikers daarentegen zijn het type eindgebruiker dat de mogelijkheid heeft om vanuit het niets verzoeken en rapporten te genereren en te schrijven (Poe 1996, Humphries et al. 1999). Zij zijn degenen die

ze bouwen relaties op voor andere typen gebruikers (Poe 1996, Humphries et al. 1999).

Nadat de eindgebruikerseisen zijn bepaald, moet een selectie van toegangs- en hersteltoepassingen worden gemaakt gegevens onder alle beschikbare (Poe 1996, Inmon et al. 1997).
Toegang tot gegevens en ophaaltools kunnen worden ingedeeld in 4 typen: OLAP-tool, EIS/DSS-tool, query- en rapportagetool en dataminingtool.

Met OLAP-tools kunnen gebruikers zowel ad-hocquery's maken als die op de databank del datawarehouse. Bovendien stellen deze producten gebruikers in staat om in te zoomen gegevens algemeen tot gedetailleerd.

EIS/DSS-tools bieden uitvoerende rapportage zoals "wat als"-analyse en toegang tot menugestuurde rapporten. Rapporten moeten vooraf worden gedefinieerd en worden samengevoegd met menu's voor eenvoudigere navigatie.
Query- en rapportagetools stellen gebruikers in staat vooraf gedefinieerde en specifieke rapporten te produceren.

Dataminingtools worden gebruikt om verbanden te identificeren die een nieuw licht kunnen werpen op vergeten operaties gegevens van het datawarehouse.

Naast het optimaliseren van de vereisten van elk type gebruiker, moeten de geselecteerde tools intuïtief, efficiënt en gebruiksvriendelijk zijn. Ze moeten ook compatibel zijn met andere delen van de architectuur en kunnen werken met bestaande systemen. Er wordt ook voorgesteld om tools voor gegevenstoegang en -herstel te kiezen met een redelijke prijs en prestatie. Andere criteria waarmee rekening moet worden gehouden, zijn onder meer de toewijding van de toolleverancier om hun product te ondersteunen en de ontwikkelingen die het in toekomstige releases zal hebben. Om gebruikersbetrokkenheid bij het gebruik van het datawarehouse te garanderen, betrekt het ontwikkelingsteam gebruikers bij het selectieproces van de tool. In dit geval moet een praktische evaluatie van de gebruiker worden uitgevoerd.

Om de waarde van het datawarehouse te vergroten, kan het ontwikkelingsteam ook webtoegang bieden tot hun datawarehouses. Een web-enabled datawarehouse geeft gebruikers toegang tot de gegevens van afgelegen plaatsen of tijdens het reizen. Ook de informatie kan

worden aangeboden tegen lagere kosten door een verlaging van de opleidingskosten.

2.4.3 Datawarehouse Operatie Fase

Deze fase bestaat uit drie activiteiten: definitie van dataverversingsstrategieën, controle van datawarehouse-activiteiten en beheer van datawarehouse-beveiliging.

Definitie van strategieën voor het vernieuwen van gegevens

Na de eerste keer laden, i gegevens in databank van het datawarehouse moet periodiek worden vernieuwd om de aangebrachte wijzigingen op de gegevens originelen. U moet dus beslissen wanneer u wilt vernieuwen, hoe vaak de vernieuwing moet worden gepland en hoe u de gegevens. Er wordt voorgesteld om de gegevens wanneer het systeem offline kan worden gehaald. De verversingssnelheid wordt bepaald door het ontwikkelingsteam op basis van gebruikersvereisten. Er zijn twee manieren om het datawarehouse te vernieuwen: volledig vernieuwen en continu uploaden van wijzigingen.

De eerste benadering, volledige verversing, vereist alles opnieuw laden gegevens helemaal opnieuw. Dit betekent dat alle gegevens vereist moet worden geëxtraheerd, schoongemaakt, getransformeerd en geïntegreerd in elke verversing. Deze aanpak moet waar mogelijk worden vermeden, omdat het tijdrovend en arbeidsintensief is.

Een alternatieve benadering is om continu wijzigingen te uploaden. Dit voegt i gegevens die zijn gewijzigd sinds de laatste vernieuwingscyclus van het datawarehouse. Het identificeren van nieuwe of gewijzigde records vermindert de hoeveelheid gegevens die in elke update als enige naar het datawarehouse moeten worden doorgegeven gegevens zal worden toegevoegd databank van het datawarehouse.

Er zijn ten minste 5 benaderingen die kunnen worden gebruikt om i in te trekken gegevens nieuw of aangepast. Om een ​​efficiënte strategie voor het vernieuwen van video's te bereiken gegevens een combinatie van deze benaderingen die alle wijzigingen in het systeem ophalen, kan nuttig zijn.

De eerste benadering, die tijdstempels gebruikt, gaat ervan uit dat iedereen is toegewezen gegevens een tijdstempel bewerkt en bijgewerkt, zodat u alles gemakkelijk kunt identificeren gegevens aangepast en nieuw. Deze benadering wordt tegenwoordig echter niet algemeen gebruikt in de meeste besturingssystemen.
De tweede benadering is het gebruik van een door de toepassing gegenereerd deltabestand dat alleen de wijzigingen bevat die zijn aangebracht in het gegevens. Het gebruik van dit bestand versterkt ook de updatecyclus. Zelfs deze methode is echter niet in veel toepassingen gebruikt.
De derde benadering is het scannen van een logbestand, dat in feite informatie bevat die vergelijkbaar is met het deltabestand. Het enige verschil is dat er een logbestand wordt gemaakt voor het herstelproces en dat kan moeilijk te begrijpen zijn.
De vierde benadering is het wijzigen van de applicatiecode. De meeste applicatiecode is echter oud en broos; daarom moet deze techniek worden vermeden.
De laatste benadering is om i gegevens bronnen met het hoofdbestand dei gegevens.

Bewaken van datawarehouse-activiteiten

Zodra het datawarehouse is vrijgegeven aan gebruikers, moet het in de loop van de tijd worden gecontroleerd. In dit geval kan de datawarehousebeheerder één of meerdere beheer- en controletools inzetten om het gebruik van het datawarehouse te monitoren. Er kan met name informatie worden verzameld over personen en over het tijdstip waarop zij toegang krijgen tot het datawarehouse. Kom op gegevens verzameld, kan een profiel van het uitgevoerde werk worden gemaakt dat kan worden gebruikt als input voor de implementatie van de terugboeking door de gebruiker. Door terugboeking kunnen gebruikers worden geïnformeerd over de verwerkingskosten van het datawarehouse.

Daarnaast kan datawarehouse-audit ook worden gebruikt om querytypen, hun grootte, aantal query's per dag, reactietijden van query's, bereikte sectoren en het aantal gegevens verwerkt. Een ander doel van datawarehouse-auditing is het identificeren van de gegevens die niet in gebruik zijn. Deze gegevens ze kunnen uit het datawarehouse worden verwijderd om de tijd te verbeteren

van reactie op query-uitvoering en controle over de groei van gegevens die verblijven binnen de database van het datawarehouse.

Beveiligingsbeheer van datawarehouses

Een datawarehouse bevat gegevens geïntegreerd, kritisch, gevoelig dat gemakkelijk te bereiken is. Om deze reden moet het worden beschermd tegen onbevoegde gebruikers. Een manier om beveiliging te implementeren, is door de del-functie te gebruiken dbms om verschillende rechten toe te kennen aan verschillende soorten gebruikers. Zo moet voor elk type gebruiker een toegangsprofiel worden bijgehouden. Een andere manier om het datawarehouse te beveiligen is door het te coderen zoals geschreven in de database van het datawarehouse. Toegang tot gegevens en de ophaaltools moeten de gegevens alvorens de resultaten aan gebruikers te presenteren.

2.4.4 Datawarehouse Implementatiefase:

Het is de laatste fase in de implementatiecyclus van het datawarehouse. De in deze fase uit te voeren werkzaamheden zijn onder meer het trainen van gebruikers in het gebruik van het datawarehouse en het uitvoeren van reviews van het datawarehouse.

Gebruikerstraining

Gebruikerstraining moet worden gedaan voordat toegang wordt verkregen gegevens van het datawarehouse en het gebruik van retrieval tools. Over het algemeen zouden sessies moeten beginnen met een inleiding tot het concept van opslag gegevens, de inhoud van het datawarehouse, de meta gegevens en de basisfuncties van de tools. Vervolgens kunnen meer gevorderde gebruikers ook de fysieke tabellen en kenmerken van gebruikers van tools voor gegevenstoegang en -opvraging bestuderen.

Er zijn veel benaderingen om gebruikerstraining te doen. Een daarvan omvat een selectie van vele gebruikers of analisten die worden gekozen uit een pool van gebruikers, op basis van hun leiderschaps- en communicatieve vaardigheden. Deze zijn persoonlijk getraind in alles wat ze moeten weten om vertrouwd te raken met het systeem. Na de training gaan ze terug naar hun werk en beginnen ze andere gebruikers te leren hoe ze het systeem moeten gebruiken. Op de

Op basis van wat ze hebben geleerd, kunnen andere gebruikers het datawarehouse gaan verkennen.
Een andere benadering is om veel gebruikers tegelijkertijd te trainen, alsof u in een klaslokaal traint. Deze methode is geschikt wanneer er veel gebruikers tegelijkertijd getraind moeten worden. Nog een andere methode is om elke gebruiker afzonderlijk te trainen, één voor één. Deze methode is geschikt wanneer er weinig gebruikers zijn.

Het doel van gebruikerstraining is om vertrouwd te raken met toegang gegevens en ophaaltools, evenals de inhoud van datawarehouses. Sommige gebruikers kunnen echter overweldigd raken door de hoeveelheid informatie die tijdens de trainingssessie wordt verstrekt. Daarna dienen er een aantal opfrissessies gedaan te worden voor blijvende ondersteuning en om specifieke vragen te beantwoorden. In sommige gevallen wordt voor deze vorm van ondersteuning een gebruikersgroep gevormd.

Feedback verzamelen

Zodra het datawarehouse is uitgerold, kunnen gebruikers i gegevens voor verschillende doeleinden in het datawarehouse verblijven. Meestal gebruiken analisten of gebruikers i gegevens in het datawarehouse voor:

  1. 1 Identificeer bedrijfstrends
  2. 2 Analyseer de inkoopprofielen van klanten
  3. 3 Splits ik klanten en
  4. 4 Bied de beste services aan klanten – diensten aanpassen
  5. 5 Formuleer strategieën marketing
  6. 6 Maak scherpe offertes voor kostenanalyses en help controle
  7. 7 Ondersteun strategische besluitvorming
  8. 8 Identificeer kansen om te ontstaan
  9. 9 Verbeter de kwaliteit van de huidige bedrijfsprocessen
  10. 10 Controleer de winst

In navolging van de ontwikkelingsrichting van het datawarehouse zou een reeks beoordelingen van het systeem kunnen worden uitgevoerd om feedback te verkrijgen

zowel door het ontwikkelteam als door de eindgebruikersgemeenschap.
De verkregen resultaten kunnen worden meegenomen in de volgende ontwikkelingscyclus.

Omdat het datawarehouse een incrementele aanpak heeft, is het essentieel om te leren van de successen en fouten van eerdere ontwikkelingen.

2.5 Samenvatting

In dit hoofdstuk zijn de in de literatuur aanwezige benaderingen besproken. In sectie 1 werd het concept van datawarehouse en zijn rol in de beslissingswetenschap besproken. Hoofdstuk 2 beschreef de belangrijkste verschillen tussen datawarehouses en OLTP-systemen. Sectie 3 besprak het Monash datawarehouse-model dat in sectie 4 werd gebruikt om de activiteiten te beschrijven die betrokken zijn bij het proces van het ontwikkelen van een datawarehouse, deze beweringen waren niet gebaseerd op rigoureus onderzoek. Wat in werkelijkheid gebeurt, kan heel anders zijn dan wat in de literatuur wordt vermeld, maar deze resultaten kunnen worden gebruikt om een ​​basisbagage te creëren die het concept van datawarehouse voor dit onderzoek onderstreept.

Hoofdstuk 3

Onderzoeks- en ontwerpmethoden

Dit hoofdstuk behandelt de onderzoeks- en ontwerpmethoden voor dit onderzoek. Het eerste deel geeft een generiek beeld van de beschikbare onderzoeksmethoden voor informatieontsluiting, verder worden de criteria voor het selecteren van de beste methode voor een bepaald onderzoek besproken. In paragraaf 2 worden vervolgens twee methoden besproken die geselecteerd zijn op basis van bovenstaande criteria; een van deze criteria wordt gekozen en aangenomen om de redenen die worden vermeld in punt 3, waar ook de redenen voor de uitsluiting van het andere criterium worden uiteengezet. In paragraaf 4 wordt het onderzoeksproject gepresenteerd en in paragraaf 5 de conclusies.

3.1 Onderzoek in informatiesystemen

Onderzoek naar informatiesystemen is niet alleen beperkt tot het technologische domein, maar moet ook worden uitgebreid tot gedrags- en organisatiedoelen.
Dit hebben we te danken aan de stellingen van verschillende disciplines, variërend van de sociale wetenschappen tot de natuurwetenschappen; dit leidt tot de behoefte aan een bepaald spectrum van onderzoeksmethoden met kwantitatieve en kwalitatieve methoden die kunnen worden gebruikt voor informatiesystemen.
Alle beschikbare onderzoeksmethoden zijn belangrijk, in feite verschillende onderzoekers zoals Jenkins (1985), Nunamaker et al. (1991) en Galliers (1992) betogen dat er geen specifieke universele methode bestaat voor het uitvoeren van onderzoek op de verschillende terreinen van informatiesystemen; in feite kan een methode geschikt zijn voor een bepaald onderzoek, maar niet voor andere. Dit brengt ons tot de noodzaak om een ​​methode te selecteren die geschikt is voor ons specifieke onderzoeksproject: voor deze keuze hebben Benbasat et al. (1987) stellen dat er rekening moet worden gehouden met de aard en het doel van het onderzoek.

3.1.1 Aard van het onderzoek

De verschillende op de natuur gebaseerde onderzoeksmethoden kunnen worden ingedeeld in drie algemeen bekende tradities in de informatiewetenschap: positivistisch, interpretatief en kritisch onderzoek.

3.1.1.1 Positivistisch onderzoek

Positivistisch onderzoek wordt ook wel wetenschappelijk of empirisch onderzoek genoemd. Het probeert: "uit te leggen en te voorspellen wat er zal gebeuren in de sociale wereld door te kijken naar de regelmatigheden en oorzaak-gevolgrelaties tussen de elementen waaruit het bestaat" (Shanks et al 1993).

Positivistisch onderzoek wordt ook gekenmerkt door herhaalbaarheid, vereenvoudigingen en weerleggingen. Bovendien erkent positivistisch onderzoek het bestaan ​​van a priori relaties tussen de bestudeerde fenomenen.
Volgens Galliers (1992) is taxonomie een onderzoeksmethode die deel uitmaakt van het positivistische paradigma, dat echter niet hiertoe beperkt is, in feite zijn er laboratoriumexperimenten, veldexperimenten, casestudy's, demonstraties van stellingen, voorspellingen en simulaties. Met behulp van deze methoden geven onderzoekers toe dat de bestudeerde verschijnselen objectief en rigoureus kunnen worden waargenomen.

3.1.1.2 Interpretatief onderzoek

Interpretatief onderzoek, dat vaak fenomenologie of antipositivisme wordt genoemd, wordt door Neuman (1994) beschreven als "de systematische analyse van de sociale betekenis van actie door de directe en gedetailleerde observatie van mensen in natuurlijke situaties, om te komen tot begrip en de interpretatie van hoe mensen hun sociale wereld creëren en onderhouden”. Interpretatieve studies verwerpen de veronderstelling dat waargenomen verschijnselen objectief kunnen worden waargenomen. In feite zijn ze gebaseerd op subjectieve interpretaties. Bovendien leggen interpretatieve onderzoekers geen a priori betekenissen op aan de verschijnselen die ze bestuderen.

Deze methode omvat subjectieve/argumentatieve studies, actieonderzoek, beschrijvende/interpretatieve studies, toekomstig onderzoek en rollenspellen. Naast deze enquêtes kunnen ook casestudy's in deze benadering worden opgenomen, aangezien het gaat om studies van individuen of organisaties in complexe praktijksituaties.

3.1.1.3 Kritisch onderzoek

Kritisch zoeken is de minst bekende benadering in de sociale wetenschappen, maar heeft onlangs de aandacht getrokken van onderzoekers op het gebied van informatiesystemen. De filosofische veronderstelling dat de sociale realiteit historisch wordt geproduceerd en gereproduceerd door mensen, evenals door sociale systemen met hun acties en interacties. Hun vermogen wordt echter bemiddeld door een aantal sociale, culturele en politieke overwegingen.

Net als interpretatief onderzoek stelt kritisch onderzoek dat positivistisch onderzoek niets te maken heeft met de sociale context en de invloed ervan op menselijk handelen negeert.
Aan de andere kant bekritiseert kritisch onderzoek interpretatief onderzoek omdat het te subjectief is en omdat het er niet op uit is mensen te helpen hun leven te verbeteren. Het grootste verschil tussen kritisch onderzoek en de andere twee benaderingen is de evaluatieve dimensie. Terwijl de objectiviteit van de positivistische en interpretatieve tradities is om de status quo of de sociale realiteit te voorspellen of te verklaren, heeft kritisch onderzoek tot doel de bestudeerde sociale realiteit kritisch te evalueren en te transformeren.

Kritische onderzoekers verzetten zich meestal tegen de status quo om sociale verschillen weg te werken en sociale omstandigheden te verbeteren. Kritisch onderzoek verplicht zich tot een procesvisie op de verschijnselen die van belang zijn en is daarom normaal gesproken longitudinaal. Voorbeelden van onderzoeksmethoden zijn lange termijn historische studies en etnografische studies. Kritisch zoeken wordt echter niet veel gebruikt in onderzoek naar informatiesystemen

3.1.2 Doel van het onderzoek

Samen met de aard van het onderzoek kan het doel ervan gebruikt worden om de onderzoeker te begeleiden bij het kiezen van een bepaalde onderzoeksmethode. De omvang van een onderzoeksproject hangt nauw samen met de positie van het onderzoek in relatie tot de onderzoekscyclus die uit drie fasen bestaat: theorievorming, theorietoetsing en theorieverfijning. Op basis van momentum met betrekking tot de onderzoekscyclus kan een onderzoeksproject dus een verklarend, beschrijvend, verkennend of voorspellend doel hebben.

3.1.2.1 Verkennend onderzoek

Verkennend onderzoek is gericht op het onderzoeken van een totaal nieuw onderwerp en het formuleren van vragen en hypothesen voor toekomstig onderzoek. Dit type onderzoek wordt gebruikt bij theorievorming om eerste referenties op een nieuw gebied te verkrijgen. Meestal worden kwalitatieve onderzoeksmethoden gebruikt, zoals casestudy's of fenomenologische studies.

Het is echter ook mogelijk om kwantitatieve technieken toe te passen, zoals verkennende enquêtes of experimenten.

3.1.3.3 Beschrijvend zoeken

Beschrijvend onderzoek is ontworpen om een ​​bepaalde situatie of organisatiepraktijk tot in detail te analyseren en te beschrijven. Dit is geschikt voor het construeren van theorieën en kan ook worden gebruikt om hypothesen te bevestigen of uit te dagen. Bij beschrijvend onderzoek wordt meestal gebruik gemaakt van metingen en steekproeven. Geschikte onderzoeksmethoden zijn enquêtes en achtergrondanalyses.

3.1.2.3 Verklarende onderzoek

Verklarende onderzoek probeert uit te leggen waarom dingen gebeuren. Het bouwt voort op feiten die al zijn bestudeerd en probeert het waarom van die feiten te achterhalen.
Verklarende onderzoek is dus meestal gebouwd bovenop verkennend of beschrijvend onderzoek en is een ondergeschikte aan het testen en verfijnen van theorieën. Verklarende onderzoek maakt doorgaans gebruik van casestudy's of op enquêtes gebaseerde onderzoeksmethoden.

3.1.2.4 Preventief onderzoek

Preventief onderzoek is gericht op het voorspellen van de waargenomen gebeurtenissen en gedragingen die worden bestudeerd (Marshall en Rossman 1995). Voorspelling is de standaard wetenschappelijke toetsing van de waarheid. Dit type onderzoek maakt meestal gebruik van enquêtes of data-analyse gegevens historici. (Yin 1989)

Bovenstaande bespreking laat zien dat er een aantal mogelijke onderzoeksmethoden zijn die in een bepaald onderzoek kunnen worden gebruikt. Er moet echter een specifieke methode zijn die geschikter is dan de andere voor een bepaald type onderzoeksproject. (Galliers 1987, Yin 1989, De Vaus 1991). Daarom moet elke onderzoeker zorgvuldig de sterke en zwakke punten van verschillende methoden evalueren om de meest geschikte onderzoeksmethode te gebruiken die compatibel is met het onderzoeksproject. (Jenkins 1985, Pervan en Klass 1992, Bonomia 1985, Yin 1989, Himilton en Ives 1992).

3.2. Mogelijke zoekmethoden

Het doel van dit project was om de ervaring van Australische organisaties met i gegevens opgeslagen met een ontwikkeling van datawarehouse. Dato dat er momenteel een gebrek is aan onderzoek op het gebied van datawarehousing in Australië, bevindt dit onderzoeksproject zich nog in de theoretische fase van de onderzoekscyclus en heeft het een verkennend doel. Het onderzoeken van de ervaring in Australische organisaties die datawarehousing toepassen, vereist een interpretatie van de echte samenleving. Bijgevolg volgt de filosofische veronderstelling die ten grondslag ligt aan het onderzoeksproject de traditionele interpretatie.

Na grondig onderzoek van de beschikbare methoden zijn twee mogelijke onderzoeksmethoden geïdentificeerd: enquêtes en casestudy's, die kunnen worden gebruikt voor verkennend onderzoek (Shanks et al. 1993). Galliers (1992) beargumenteert de geschiktheid van deze twee methoden voor dit specifieke onderzoek in zijn herziene taxonomie door te zeggen dat ze geschikt zijn voor theorievorming. In de volgende twee subparagrafen wordt elke methode in detail besproken.

3.2.1 Enquête onderzoeksmethode

De enquête-onderzoeksmethode komt voort uit de oude volkstellingsmethode. Een volkstelling is het verzamelen van informatie van een hele bevolking. Deze methode is duur en onpraktisch, vooral als de populatie groot is. In vergelijking met een volkstelling is een enquête dus meestal gericht op het verzamelen van informatie voor een klein aantal of een kleine steekproef van de vertegenwoordigers van de bevolking (Fowler 1988, Neuman 1994). Een steekproef weerspiegelt de populatie waaruit deze is getrokken, met verschillende mate van nauwkeurigheid, afhankelijk van de steekproefstructuur, de grootte en de gebruikte selectiemethode (Fowler 1988, Babbie 1982, Neuman 1994).

De enquêtemethode wordt gedefinieerd als "snapshots van praktijken, situaties of opvattingen op een bepaald moment, gemaakt met behulp van vragenlijsten of interviews, waaruit conclusies kunnen worden getrokken
gemaakt” (Galliers 1992: 153) [snapshotfotografie van praktijken, situaties of opvattingen op een bepaald moment, genomen met behulp van vragenlijsten of interviews, waaruit gevolgtrekkingen kunnen worden gemaakt]. Enquêtes houden zich bezig met het verzamelen van informatie over bepaalde aspecten van het onderzoek van een aantal deelnemers door vragen te stellen (Fowler 1988). Deze vragenlijsten en interviews, waaronder face-to-face telefonische interviews en gestructureerde interviews, zijn ook verzameltechnieken gegevens gebruikt in enquêtes (Blalock 1970, Nachmias en Nachmias 1976, Fowler 1988), kunnen observaties en analyses worden gebruikt (Gable 1994). Van al deze methoden om goden te verzamelen gegevens, is het gebruik van de vragenlijst de meest populaire techniek, omdat het ervoor zorgt dat i gegevens

verzameld, zijn gestructureerd en geformatteerd en vergemakkelijken zo de classificatie van informatie (Hwang 1987, de Vaus 1991).

Bij het analyseren van i gegevensgebruikt een enquêtestrategie vaak kwantitatieve technieken, zoals statistische analyse, maar kwalitatieve technieken kunnen ook worden gebruikt (Galliers 1992, Pervan

en Klass 1992, Gable 1994). Normaal gesproken, ik gegevens verzameld worden gebruikt om verdelingen en associatiepatronen te analyseren (Fowler 1988).

Hoewel enquêtes over het algemeen geschikt zijn voor zoekopdrachten die te maken hebben met de vraag 'wat?' (wat) of daarvan afgeleid, zoals 'quanto' (hoeveel) en 'quant'è' (hoeveel), kunnen ze gesteld worden via de vraag 'waarom' (Sonquist en Dunkelberg 1977, Yin 1989). Volgens Sonquist en Dunkelberg (1977) is onderzoeksonderzoek gericht op harde hypothesen, evaluatieprogramma's, het beschrijven van de bevolking en het ontwikkelen van modellen van menselijk gedrag. Bovendien kunnen enquêtes worden gebruikt om de mening, omstandigheden, overtuigingen, kenmerken, verwachtingen en zelfs het vroegere of huidige gedrag van een bepaalde bevolking te bestuderen (Neuman 1994).

Enquêtes stellen de onderzoeker in staat om populatierelaties te ontdekken en de resultaten zijn meestal algemener dan andere methoden (Sonquist en Dunkelberg 1977, Gable 1994). Met enquêtes kunnen onderzoekers een groter geografisch gebied bestrijken en grote aantallen respondenten bereiken (Blalock 1970, Sonquist en Dunkelberg 1977, Hwang en Lin 1987, Gable 1994, Neuman 1994). Ten slotte kunnen enquêtes informatie opleveren die nergens anders beschikbaar is of in de vorm die nodig is voor analyses (Fowler 1988).

Er zijn echter enkele beperkingen aan het uitvoeren van een enquête. Een nadeel is dat de onderzoeker niet veel informatie kan krijgen over het bestudeerde object. Dit is te wijten aan het feit dat de enquêtes alleen op een bepaald moment worden uitgevoerd en daarom zijn er een beperkt aantal variabelen en mensen die de onderzoeker kan

studie (Yin 1989, de Vaus 1991, Gable 1994, Denscombe 1998). Een ander nadeel is dat het uitvoeren van een enquête erg kostbaar kan zijn in termen van tijd en middelen, vooral als het gaat om face-to-face interviews (Fowler 1988).

3.2.2. Onderzoeksmethode

De onderzoekende onderzoeksmethode omvat de diepgaande studie van een bepaalde situatie binnen zijn feitelijke context gedurende een bepaalde periode, zonder enige tussenkomst van de kant van de onderzoeker (Shanks & C. 1993, Eisenhardt 1989, Jenkins 1985). Deze methode wordt voornamelijk gebruikt om de relaties te beschrijven tussen de variabelen die in een bepaalde situatie worden bestudeerd (Galliers 1992). De onderzoeken kunnen betrekking hebben op enkele of meerdere gevallen, afhankelijk van het geanalyseerde fenomeen (Franz en Robey 1987, Eisenhardt 1989, Yin 1989).

De onderzoekende onderzoeksmethode wordt gedefinieerd als "een empirisch onderzoek dat een hedendaags fenomeen binnen zijn feitelijke context onderzoekt, gebruikmakend van meerdere bronnen die zijn verzameld uit een of meer entiteiten zoals mensen, groepen of organisaties" (Yin 1989). Er is geen duidelijke scheiding tussen het fenomeen en zijn context en er is geen controle of experimentele manipulatie van de variabelen (Yin 1989, Benbasat et al. 1987).

Er zijn verschillende technieken om goden te verzamelen gegevens die kunnen worden gebruikt in de onderzoeksmethode, waaronder directe observaties, beoordelingen van archiefstukken, vragenlijsten, beoordeling van documentatie en gestructureerde interviews. Het hebben van een divers scala aan oogsttechnieken gegevens, stellen enquêtes onderzoekers in staat om met beide om te gaan gegevens tegelijkertijd kwalitatief en kwantitatief (Bonoma 1985, Eisenhardt 1989, Yin 1989, Gable 1994). Net als bij de enquêtemethode fungeert een enquêteonderzoeker als waarnemer of onderzoeker en niet als actieve deelnemer in de onderzochte organisatie.

Benbasat et al. (1987) beweren dat de onderzoeksmethode bijzonder geschikt is voor het construeren van onderzoekstheorieën, die begint met een onderzoeksvraag en wordt voortgezet met training.

van een theorie tijdens het verzamelen gegevens. Ook geschikt voor toneel

van theorievorming suggereren Franz en Robey (1987) dat de onderzoeksmethode ook kan worden gebruikt voor de complexe theoriefase. In dit geval wordt op basis van het verzamelde bewijs een bepaalde theorie of hypothese geverifieerd of weerlegd. Daarnaast is onderzoek ook geschikt voor onderzoek dat zich bezighoudt met 'hoe'- of 'waarom'-vragen (Yin 1989).

In vergelijking met andere methoden stellen enquêtes de onderzoeker in staat essentiële informatie gedetailleerder vast te leggen (Galliers 1992, Shanks et al. 1993). Bovendien stellen onderzoeken de onderzoeker in staat de aard en complexiteit van de bestudeerde processen te begrijpen (Benbasat et al. 1987).

Er zijn vier belangrijke nadelen verbonden aan de onderzoeksmethode. De eerste is het ontbreken van gecontroleerde inhoudingen. De subjectiviteit van de onderzoeker kan de resultaten en conclusies van het onderzoek veranderen (Yin 1989). Het tweede nadeel is het gebrek aan gecontroleerde observatie. In tegenstelling tot experimentele methoden kan de onderzoekende onderzoeker de bestudeerde fenomenen niet beheersen, omdat ze in hun natuurlijke context worden onderzocht (Gable 1994). Het derde nadeel is het gebrek aan repliceerbaarheid. Dit is te wijten aan het feit dat het onwaarschijnlijk is dat de onderzoeker dezelfde gebeurtenissen waarneemt en de resultaten van een bepaald onderzoek niet kan verifiëren (Lee 1989). Ten slotte is het, als gevolg van de niet-repliceerbaarheid, moeilijk om de resultaten van een of meer enquêtes te generaliseren (Galliers 1992, Shanks et al. 1993). Al deze problemen zijn echter niet onoverkomelijk en kunnen in feite door de onderzoeker worden geminimaliseerd door passende maatregelen te treffen (Lee 1989).

3.3. Motiveer de onderzoeksmethodiek geadopteerd

Van de twee mogelijke onderzoeksmethoden voor dit onderzoek wordt de enquêtemethode als de meest geschikte beschouwd. De onderzoekende werd afgewezen na een zorgvuldige overweging van de verwante

verdiensten en zwakheden. Het gemak of de ongeschiktheid van elke methode voor dit onderzoek wordt hieronder besproken.

3.3.1. Ongepaste onderzoeksmethode van onderzoek

De onderzoeksmethode vereist de diepgaande studie van een bepaalde situatie binnen een of meer organisaties gedurende een bepaalde periode (Eisenhardt 1989). In dit geval kan de periode langer zijn dan het tijdsbestek dat voor dit onderzoek is gegeven. Een andere reden om de onderzoeksmethode niet toe te passen, is dat de resultaten te lijden kunnen hebben onder een gebrek aan nauwkeurigheid (Yin 1989). De subjectiviteit van de onderzoeker kan de resultaten en conclusies beïnvloeden. Een andere reden is dat deze methode meer geschikt is voor onderzoeksvragen van het 'hoe'- of 'waarom'-type (Yin 1989), terwijl de onderzoeksvraag voor dit onderzoek het 'wat'-type is. Last but not least is het moeilijk om bevindingen uit slechts één of enkele onderzoeken te generaliseren (Galliers 1992, Shanks et al. 1993). Op basis van deze redenering is er niet gekozen voor de survey-onderzoeksmethode, omdat deze niet geschikt was voor dit onderzoek.

3.3.2. Gemak van de zoekmethode van overzicht

Toen dit onderzoek werd uitgevoerd, was de praktijk van datawarehousing nog niet algemeen aanvaard door Australische organisaties. Daarom was er niet veel informatie over de implementatie ervan binnen Australische organisaties. De beschikbare informatie was afkomstig van organisaties die een datawarehouse. In dit geval is de survey-onderzoeksmethode het meest geschikt, omdat hiermee informatie kan worden verkregen die nergens anders of in de voor analyse vereiste vorm beschikbaar is (Fowler 1988). Daarnaast stelt de onderzoekende onderzoeksmethode de onderzoeker in staat een goed inzicht te krijgen in praktijken, situaties of opvattingen op een bepaald moment (Galliers 1992, Denscombe 1998). Er werd om een ​​overzicht gevraagd om de Australische ervaring met datawarehousing onder de aandacht te brengen.

Bovendien stellen Sonquist en Dunkelberg (1977) dat de resultaten van enquêteonderzoek algemener zijn dan andere methoden.

3.4. Enquête Onderzoeksontwerp

Het praktijkonderzoek naar datawarehousing werd uitgevoerd in 1999. De doelgroep bestond uit Australische organisaties die geïnteresseerd waren in datawarehousing-onderzoeken, aangezien zij waarschijnlijk al op de hoogte waren van de gegevens die ze opslaan en daarom de nuttige informatie voor dit onderzoek kunnen opleveren. De doelgroep werd geïdentificeerd met een eerste enquête onder alle Australische leden van 'The Data Warehousing Institute' (Tdwi-aap). In deze paragraaf wordt de opzet van de empirische onderzoeksfase van deze studie besproken.

3.4.1. Verzamel techniek gegevens

Van de drie technieken die gewoonlijk worden gebruikt in survey-onderzoek (dwz vragenlijst per post, telefonisch interview en persoonlijk interview) (Nachmias 1976, Fowler 1988, de Vaus 1991), werd voor dit onderzoek de vragenlijst per post overgenomen. De eerste reden voor het gebruik van de laatste is dat het een geografisch verspreide bevolking kan bereiken (Blalock 1970, Nachmias en Nachmias 1976, Hwang en Lin 1987, de Vaus 1991, Gable 1994). Ten tweede is de mailenquête geschikt voor hoogopgeleide deelnemers (Fowler 1988). De mailenquête voor dit onderzoek was gericht aan de sponsors, directeuren en/of projectmanagers van het datawarehousingproject. Ten derde zijn vragenlijsten per post geschikt als er een beveiligde lijst met adressen beschikbaar is (Salant en Dilman 1994). TDWI, in dit geval een vertrouwde datawarehousingvereniging, leverde de mailinglijst van haar Australische leden. Een ander voordeel van de vragenlijst per post ten opzichte van telefonische vragenlijsten of persoonlijke interviews is dat respondenten hierdoor nauwkeuriger kunnen reageren, met name wanneer respondenten documenten moeten raadplegen of vragen met andere mensen moeten bespreken (Fowler 1988).

Een mogelijk nadeel kan de tijd zijn die nodig is om vragenlijsten per post af te nemen. Normaal gesproken wordt een vragenlijst per post in deze volgorde uitgevoerd: brieven versturen, wachten op antwoorden en bevestiging sturen (Fowler 1988, Bainbridge 1989). De totale tijd kan dus langer zijn dan de tijd die nodig is voor face-to-face interviews of telefonische interviews. De totale tijd kan echter van tevoren bekend zijn (Fowler 1988, Denscombe 1998). De tijd die besteed wordt aan het afnemen van de persoonlijke interviews kan niet op voorhand bekend zijn aangezien dit van interview tot interview verschilt (Fowler 1988). Telefonische interviews kunnen sneller zijn dan e-mailenquêtes en persoonlijke interviews, maar kunnen een hoog onbeantwoord percentage hebben vanwege de onbeschikbaarheid van sommige mensen (Fowler 1988). Bovendien zijn telefonische interviews over het algemeen beperkt tot relatief korte vragenlijsten (Bainbridge 1989).

Een andere zwakte van een vragenlijst per post is de hoge non-respons (Fowler 1988, Bainbridge 1989, Neuman 1994). Er werden echter tegenmaatregelen genomen door deze studie te associëren met een vertrouwde datawarehousing-instelling (d.w.z. TDWI) (Bainbridge 1989, Neuman 1994), die twee herinneringsbrieven uitstuurt naar non-responders (Fowler 1988, Neuman 1994) en ook een aanvullende brief bevat met uitleg het doel van de studie (Neuman 1994).

3.4.2. Analyse eenheid

Het doel van dit onderzoek is om informatie te verkrijgen over de implementatie van datawarehousing en het gebruik ervan binnen Australische organisaties. De doelgroep zijn alle Australische organisaties die i datawarehouse. Vervolgens worden de individuele organisaties geregistreerd. De vragenlijst is gemaild naar de organisaties die geïnteresseerd zijn in adoptie datawarehouse. Deze methode zorgt ervoor dat de verzamelde informatie afkomstig is van de meest geschikte bronnen van elke deelnemende organisatie.

3.4.3. Enquête steekproef

De mailinglijst van deelnemers aan de enquête is verkregen van TDWI. Uit deze lijst werden 3000 Australische organisaties geselecteerd als basis voor steekproeven. Een vervolgbrief met uitleg over het project en het doel van de enquête, samen met een antwoordformulier en een gefrankeerde envelop om de ingevulde vragenlijst terug te sturen, werden naar de steekproef gestuurd. Van de 3000 organisaties stemden er 198 in met deelname aan het onderzoek. Zo'n klein aantal reacties was verwacht dato het grote aantal Australische organisaties dat toen de datawarehousingstrategie binnen hun organisaties omarmde of omarmde. De doelgroep voor dit onderzoek bestaat dus uit slechts 198 organisaties.

3.4.4. Inhoud van de vragenlijst

Het ontwerp van de vragenlijst was gebaseerd op het datawarehousingmodel van Monash (eerder besproken in deel 2.3). De inhoud van de vragenlijst is gebaseerd op het literatuuronderzoek gepresenteerd in hoofdstuk 2. Een kopie van de vragenlijst die naar de deelnemers aan de enquête is gestuurd, is te vinden in bijlage B. De vragenlijst bestaat uit zes delen, die de stappen van het behandelde model volgen. De volgende zes alinea's vatten kort de inhoud van elke sectie samen.

Sectie A: Basisinformatie over de organisatie
In dit onderdeel staan ​​vragen over het profiel van de deelnemende organisaties. Daarnaast hebben sommige vragen betrekking op de status van het datawarehousingproject van de deelnemer. Vertrouwelijke informatie, zoals de naam van de organisatie, is niet bekendgemaakt in de enquêteanalyse.

Sectie B: Begin
De vragen in deze sectie hebben betrekking op het aan de slag gaan met datawarehousing. Er werden vragen gesteld over de initiatiefnemers van het project, sponsors, vereiste vaardigheden en kennis, de doelstellingen van de ontwikkeling van datawarehousing en de verwachtingen van de eindgebruikers.

Sectie C: Ontwerp
Dit gedeelte bevat vragen met betrekking tot de planningsactiviteiten van de datawarehouse. De vragen gingen met name over de reikwijdte van de uitvoering, de duur van het project, de kosten van het project en de kosten-batenanalyse.

Sectie D: Ontwikkeling
In de ontwikkelingssectie zijn er vragen met betrekking tot de ontwikkelingsactiviteiten van de datawarehouse: verzameling van eisen van eindgebruikers, bronnen van gegevens, het logische model van gegevens, prototypes, capaciteitsplanning, technische architecturen en selectie van ontwikkelingstools voor datawarehousing.

Sectie E: Bediening
Operationele vragen met betrekking tot de werking en uitbreidbaarheid van de datawarehouse, zoals het evolueert in de volgende ontwikkelingsfase. Daar data kwaliteit, de vernieuwingsstrategieën van de gegevens, de granulariteit van gegevens, schaalbaarheid van datawarehouse en veiligheidskwesties datawarehouse behoorden tot de soorten vragen die werden gesteld.

Sectie F: Ontwikkeling
Dit gedeelte bevat vragen over het gebruik van de datawarehouse door eindgebruikers. De onderzoeker was geïnteresseerd in het doel en nut van de datawarehouse, de vastgestelde evaluatie- en opleidingsstrategieën en de controlestrategie van de datawarehouse aangenomen.

3.4.5. Responspercentage

Hoewel enquêtes per post worden bekritiseerd vanwege het lage responspercentage, zijn er stappen ondernomen om het rendement te verhogen (zoals hierboven besproken in paragraaf 3.4.1). De term 'responspercentage' verwijst naar het percentage mensen in een bepaalde enquêtesteekproef dat de vragenlijst beantwoordt (Denscombe 1998). De volgende formule is gebruikt om het responspercentage voor dit onderzoek te berekenen:

Aantal mensen dat heeft gereageerd
Responspercentage = ————————————————————————– X 100 Totaal aantal verzonden vragenlijsten

3.4.6. Test piloot

Voordat de vragenlijst naar de steekproef werd gestuurd, werden de vragen getest door proefproeven uit te voeren, zoals voorgesteld door Luck en Rubin (1987), Jackson (1988) en de Vaus (1991). Het doel van pilotproeven is om lastige, dubbelzinnige uitdrukkingen en moeilijk te interpreteren vragen aan het licht te brengen, om definities en gebruikte termen te verduidelijken en om vast te stellen hoeveel tijd er ongeveer nodig is om de vragenlijst in te vullen (Warwick en Lininger 1975, Jackson 1988, Salant en Dilman 1994). De pilootproeven werden uitgevoerd door proefpersonen te selecteren met kenmerken die vergelijkbaar waren met die van de laatste proefpersonen, zoals gesuggereerd door Davis e Cosenza (1993). In dit onderzoek zijn zes datawarehousingprofessionals geselecteerd als proefpersonen. Na elke piloottest werden de nodige correcties aangebracht. Uit de uitgevoerde pilottests hebben de deelnemers bijgedragen aan het hermodelleren en resetten van de definitieve versie van de vragenlijst.

3.4.7. Analysemethoden van Geven

I gegevens De enquêtegegevens verzameld uit de gesloten vragenlijsten werden geanalyseerd met behulp van een statistisch softwarepakket genaamd SPSS. Veel van de antwoorden werden geanalyseerd met behulp van beschrijvende statistieken. Een aantal vragenlijsten is onvolledig teruggekomen. Deze zijn zorgvuldiger behandeld om ervoor te zorgen dat i gegevens ontbreken waren niet het gevolg van invoerfouten, maar omdat de vragen niet geschikt waren voor de registrant, of de registrant besloot een of meer specifieke vragen niet te beantwoorden. Deze ontbrekende antwoorden werden genegeerd bij het ontleden van de gegevens gegevens en werden gecodeerd als '-9' om hun uitsluiting van het analyseproces te garanderen.

Bij het opstellen van de vragenlijst werden de gesloten vragen vooraf gecodeerd door aan elke optie een nummer toe te kennen. Het nummer werd vervolgens gebruikt om i te trainen gegevens tijdens de analyse (Denscombe 1998, Sapsford en Jupp 1996). Er waren bijvoorbeeld zes opties vermeld in vraag 1 van deel B: raad van bestuur, senior executive, IT-afdeling, business unit, consultants en anderen. In het bestand van gegevens van SPSS werd een variabele gegenereerd voor 'projectinitiator', met zes waardelabels: '1' voor 'board', '2' voor 'senior executive', enzovoort Street. Het gebruik van de Likertin-schaal in sommige van de gesloten vragen maakte ook een moeiteloze identificatie mogelijk door de overeenkomstige numerieke waarden te gebruiken die in SPSS waren ingevoerd. Voor vragen met niet-uitputtende antwoorden, die elkaar niet uitsloten, werd elke optie behandeld als een enkele variabele met twee waardelabels: '1' voor 'aangevinkt' en '2' voor 'niet aangevinkt'.

Open vragen werden anders behandeld dan gesloten vragen. De antwoorden op deze vragen zijn niet ingevoerd in SPSS. In plaats daarvan werden ze met de hand geanalyseerd. Het gebruik van dit type vraag maakt het mogelijk om informatie te verkrijgen over vrijuit geuite ideeën en persoonlijke ervaringen van de respondenten (Bainbridge 1989, Denscombe 1998). Waar mogelijk is een categorisering van de antwoorden gemaakt.

Voor de analyse van gegevensmethoden van eenvoudige statistische analyse worden gebruikt, zoals de responsfrequentie, het gemiddelde, de standaarddeviatie en de mediaan (Argyrous 1996, Denscombe 1998).
De Gamma-test was performant voor het verkrijgen van kwantitatieve metingen van de associaties tussen gegevens rangtelwoorden (Norusis 1983, Argyrous 1996). Deze tests waren geschikt omdat de gebruikte ordinale schalen niet veel categorieën hadden en in een tabel konden worden weergegeven (Norusis 1983).

3.5 Samenvatting

In dit hoofdstuk werden de onderzoeksmethodiek en het ontwerp van dit onderzoek besproken.

Het selecteren van de meest geschikte onderzoeksmethode voor een bepaalde studie duurt
overweging van een aantal regels, waaronder de aard en het type onderzoek, evenals de verdiensten en zwakheden van elke mogelijke methode (Jenkins 1985, Benbasat et al. 1097, Galliers and Land 1987, yin 1989, Hamilton and ives 1992, 1992, Neuman 1994). Gezien het gebrek aan bestaande kennis en theorie over de adoptie van datawarehousing in Australië, vraagt ​​dit onderzoek om een ​​interpretatieve onderzoeksmethode met een verkennend vermogen om de ervaringen van Australische organisaties te onderzoeken. De gekozen onderzoeksmethode is gekozen om informatie te verzamelen over de adoptie van het data warehousing concept door Australische organisaties. Als verzameltechniek werd gekozen voor een vragenlijst per post gegevens. De onderbouwing van de onderzoeksmethode en verzameltechniek gegevens selecties worden in dit hoofdstuk gegeven. Verder werd er gediscussieerd over de analyse-eenheid, de gebruikte steekproef, de percentages antwoorden, de inhoud van de vragenlijst, de pre-test van de vragenlijst en de analysemethode van de gegevens.

Het ontwerpen van een Datawarehouse:

Combinatie van entiteitsrelaties en dimensionale modellering

SAMENVATTING
Winkel ik gegevens is voor veel organisaties een actueel thema. Een belangrijk probleem bij de ontwikkeling van warehousing gegevens het is zijn ontwerp.
De tekening moet de detectie van concepten in de datawarehouse naar legacy-systeem en andere bronnen van gegevens en ook een gemakkelijk begrip en efficiëntie bij de uitvoering van datawarehouse.
Een groot deel van de magazijnliteratuur gegevens beveelt het gebruik van entiteitsrelatiemodellering of dimensionale modellering aan om het ontwerp van weer te geven datawarehouse.
In dit artikel laten we zien hoe beide representaties kunnen worden gecombineerd in een benadering van het ontwerp van datawarehouse. De gehanteerde aanpak is systematisch

onderzocht in een casestudy en wordt geïdentificeerd in een aantal belangrijke implicaties met professionals.

DATA OPSLAGPLAATS

Un datawarehouse het wordt meestal gedefinieerd als een "onderwerp-georiënteerde, geïntegreerde, tijdsafhankelijke en niet-vluchtige verzameling gegevens ter ondersteuning van de beslissingen van het management" (Inmon en Hackathorn, 1994). Vakgericht en geïntegreerd geeft aan dat de datawarehouse is ontworpen om de functionele grenzen van legacy-systemen te overschrijden om een ​​geïntegreerd perspectief te bieden gegevens.
Tijdvariant houdt zich bezig met het historische of tijdreekskarakter van video gegevens in een datawarehouse, waarmee trends kunnen worden geanalyseerd. Niet-vluchtig geeft aan dat de datawarehouse het wordt niet continu bijgewerkt zoals een databank van OLTP. Het wordt eerder periodiek bijgewerkt, met gegevens uit interne en externe bronnen. De datawarehouse het is specifiek ontworpen voor onderzoek in plaats van voor het updaten van integriteit en operationele prestaties.
Het idee om i gegevens is niet nieuw, het was een van de doelstellingen van het management gegevens sinds de jaren zestig (Il Martin, 1982).
I datawarehouse zij bieden de infrastructuur gegevens voor managementondersteunende systemen. Managementondersteunende systemen omvatten beslissingsondersteunende systemen (DSS) en uitvoerende informatiesystemen (EIS). Een DSS is een computergebaseerd informatiesysteem dat is ontworpen om het proces en daarmee de menselijke besluitvorming te verbeteren. Een EIS is typisch een leveringssysteem gegevens waarmee bedrijfsleiders gemakkelijk toegang hebben tot de weergave van gegevens.
De algemene architectuur van een datawarehouse benadrukt de rol van datawarehouse op het gebied van managementondersteuning. Naast het aanbieden van de infrastructuur gegevens voor EIS en DSS, al datawarehouse het is rechtstreeks toegankelijk via vragen. DE gegevens opgenomen in een datawarehouse zijn gebaseerd op een analyse van de managementinformatiebehoefte en zijn verkregen uit drie bronnen: interne legacy-systemen, speciale systemen voor het vastleggen van gegevens en externe gegevensbronnen. DE gegevens in interne verouderde systemen zijn vaak redundant, inconsistent, van lage kwaliteit en opgeslagen in verschillende formaten, zodat ze moeten worden afgestemd en opgeschoond voordat ze in de database kunnen worden geladen

datawarehouse (Inmon, 1992; McFadden, 1996). DE gegevens van opslagsystemen gegevens ad hoc en uit bronnen gegevens extern worden vaak gebruikt om i te vergroten (bijwerken, vervangen). gegevens uit verouderde systemen.

Er zijn veel dwingende redenen om een datawarehouse, waaronder verbeterde besluitvorming door het effectieve gebruik van meer informatie (Ives 1995), ondersteuning voor een focus op het geheel (Graham 1996) en vermindering van besluitvormingskosten gegevens voor EIS en DSS (Graham 1996, McFadden 1996).

Een recente empirische studie vond gemiddeld een rendement op investering voor i datawarehouse met 401% na drie jaar (Graham, 1996). Echter, de andere empirische studies van datawarehouse vond aanzienlijke problemen, waaronder moeilijkheden bij het meten en toewijzen van voordelen, gebrek aan duidelijk doel, onderschatting van de reikwijdte en complexiteit van het opslagproces gegevens, vooral met betrekking tot de bronnen en de netheid van de gegevens. Winkel ik gegevens kan worden beschouwd als een oplossing voor het managementprobleem gegevens tussen organisaties. De manipulatie van gegevens als sociale hulpbron is het jarenlang een van de belangrijkste problemen gebleven bij het beheer van informatiesystemen wereldwijd (Brancheau et al. 1996, Galliers et al. 1994, Niederman et al. 1990, Pervan 1993).

Een populaire benadering van vermogensbeheer gegevens in de jaren tachtig was de ontwikkeling van een model gegevens sociaal. Model gegevens social is ontworpen om een ​​stabiele basis te bieden voor de ontwikkeling van nieuwe applicatiesystemen e databank en de reconstructie en integratie van legacy-systemen (Brancheau et al.

1989, Goodhue et al. 1988: 1992, Kim en Everest 1994). Er zijn echter verschillende problemen met deze benadering, met name de complexiteit en de kosten van elke taak, en de lange tijd die nodig is om tastbare resultaten te bereiken (Beynon-Davies 1994, Earl 1993, Goodhue et al. 1992, Periasamy 1994, Shanks 1997). ).

Il datawarehouse het is een afzonderlijke database die naast de oude databases bestaat in plaats van ze te vervangen. Het stelt u dus in staat om het beheer van te sturen gegevens en kostbare herbouw van verouderde systemen voorkomen.

BESTAANDE BENADERINGEN VAN DATA DESIGN

MAGAZIJN

Het proces van bouwen en perfectioneren van een datawarehouse moet meer worden opgevat als een evolutionair proces dan als een traditionele levenscyclus van systeemontwikkeling (Desio, 1995, Shanks, O'Donnell en Arnott 1997a). Bij een project komen veel processen kijken datawarehouse zoals initialisatie, planning; informatie verkregen uit de eisen die worden gevraagd aan bedrijfsleiders; bronnen, transformaties, schoonmaken van gegevens en synchronisatie van verouderde systemen en andere bronnen gegevens; afleversystemen in ontwikkeling; Toezicht houden op datawarehouse; en zinloosheid van het evolutieproces en van het bouwen van een datawarehouse (Stinchi, O'Donnell en Arnott 1997b). In dit dagboek concentreren we ons op het tekenen van i gegevens opgeslagen in de context van deze andere processen. Er zijn een aantal voorgestelde benaderingen van video-architectuur datawarehouse in de literatuur (Inmon 1994, Ives 1995, Kimball 1994, McFadden 1996). Elk van deze methodologieën heeft een kort overzicht met een analyse van hun sterke en zwakke punten.

Inmon's (1994) benadering voor Datawarehouse Design

Inmon (1994) stelde vier iteratieve stappen voor om a datawarehouse (zie figuur 2). De eerste stap is het ontwerpen van een sjabloon gegevens sociaal om te begrijpen hoe ik gegevens kan worden geïntegreerd in functionele gebieden binnen een organisatie door i gegevens opslaan in gebieden. Model gegevens het is gemaakt voor opslag gegevens met betrekking tot besluitvorming, inclusief gegevens historisch, en inbegrepen gegevens afgetrokken en opgeteld. De tweede stap is het identificeren van onderwerpen voor implementatie. Deze zijn gebaseerd op prioriteiten bepaald door een bepaalde organisatie. De derde stap omvat het tekenen van een databank voor het vakgebied bijzondere aandacht besteden aan het opnemen van passende niveaus van granulariteit. Inmon raadt aan om het entiteits- en relatiemodel te gebruiken. De vierde stap is het identificeren van bronsystemen gegevens vereist en ontwikkel transformatieprocessen om i. vast te leggen, op te schonen en te formatteren gegevens.

De sterke punten van de aanpak van Inmon zijn dat het model gegevens sociaal biedt de basis voor de integratie van gegevens binnen de organisatie en planning ondersteunt bij het iteratief ontwikkelen van datawarehouse. De nadelen zijn de moeilijkheid en de kosten van het ontwerpen van het model gegevens sociaal, de moeilijkheid om modellen van entiteiten en relaties te begrijpen die in beide modellen worden gebruikt, dat gegevens sociaal en dat van gegevens opgeslagen per onderwerp, en de geschiktheid van de gegevens van de tekening van datawarehouse voor de realisatie van databank relationeel maar niet voor databank multidimensionaal.

Ives' (1995) benadering van Datawarehouse Design

Ives (1995) stelt een vierstappenbenadering voor voor het ontwerpen van een informatiesysteem waarvan hij gelooft dat deze van toepassing is op het ontwerp van een datawarehouse (zie figuur 3). De benadering is sterk gebaseerd op Information Engineering voor de ontwikkeling van informatiesystemen (Martin 1990). De eerste stap is het bepalen van uw doelen, succes- en kritieke factoren en key performance indicators. De belangrijkste bedrijfsprocessen en de benodigde informatie worden gemodelleerd om ons naar een model te leiden gegevens sociaal. De tweede stap omvat het ontwikkelen van een bepalende architectuur gegevens opgeslagen per gebied, databank di datawarehouse, de technologiecomponenten die nodig zijn, de set organisatorische ondersteuning die nodig is om te implementeren en ermee te werken datawarehouse. De derde stap omvat de selectie van benodigde softwarepakketten en tools. De vierde stap is het gedetailleerde ontwerp en de constructie van de datawarehouse. Ives merkt die winkel op gegevens het is een beperkt iteratief proces.

De sterke punten van de Ives-aanpak zijn het gebruik van technische specificaties om informatiebehoeften te bepalen, het gebruik van een gestructureerd proces om de integratie van datawarehouse, de juiste hardware- en softwareselectie en het gebruik van meerdere representatietechnieken voor de datawarehouse. De tekortkomingen zijn inherent aan complexiteit. Anderen omvatten de moeilijkheid om vele niveaus van te ontwikkelen databank binnen de datawarehouse binnen een redelijke tijd en kosten.

Kimball's (1994) benadering van Datawarehouse Design

Kimball (1994) stelde vijf iteratieve stappen voor voor het ontwerpen van een datawarehouse (zie figuren 4). Zijn aanpak is met name gericht op het tekenen van een solo datawarehouse en over het gebruik van dimensionale modellen in plaats van entiteits- en relatiemodellen. Kimball analyseert die dimensionale modellen omdat het voor bedrijfsleiders gemakkelijker is om zaken te begrijpen, het is efficiënter bij het omgaan met complexe raadplegingen en het ontwerp van databank fysiek is efficiënter (Kimball 1994). Kimball erkent dat het ontwikkelen van een datawarehouse is iteratief, en dat datawarehouse gescheiden kunnen worden geïntegreerd door de indeling in tabellen met gemeenschappelijke afmetingen.

De eerste stap is het identificeren van het specifieke onderwerp dat moet worden geperfectioneerd. De tweede en derde stap omvatten dimensionale vormgeving. In de tweede stap identificeren de maatregelen zaken die van belang zijn in het onderwerpgebied en groeperen ze in een feitentabel. In een onderwerpgebied voor verkoop kunnen de relevante metingen bijvoorbeeld het aantal verkochte artikelen en de dollar als verkoopvaluta omvatten. De derde stap omvat het identificeren van dimensies, de manieren waarop feiten kunnen worden gegroepeerd. In een onderwerpgebied voor verkoop kunnen relevante dimensies artikel, locatie en tijdsperiode zijn. De feitentabel heeft een meerdelige sleutel om deze te koppelen aan elk van de dimensietabellen en bevat typisch een zeer groot aantal feiten. Dimensietabellen daarentegen bevatten beschrijvende informatie over dimensies en andere attributen die kunnen worden gebruikt om feiten te groeperen. De voorgestelde bijbehorende feiten- en dimensietabel vormt vanwege zijn vorm een ​​zogenaamd sterschema. De vierde stap omvat het bouwen van een databank multidimensionaal om het patroon van de ster te perfectioneren. De laatste stap is het identificeren van bronsystemen gegevens vereist en ontwikkel transformatieprocessen om i. vast te leggen, op te schonen en te formatteren gegevens.

Sterke punten van Kimball's aanpak zijn onder meer het gebruik van dimensionale modellen om i weer te geven gegevens opgeslagen, wat het gemakkelijk te begrijpen maakt en leidt tot een efficiënt fysiek ontwerp. Een dimensionaal model dat ook gemakkelijk beide systemen gebruikt databank relationeel kan worden geperfectioneerd of systemen databank multidimensionaal. De tekortkomingen zijn onder meer het ontbreken van een aantal technieken om de planning of integratie van veel sterschema's binnen een datawarehouse en de moeilijkheid om te ontwerpen vanuit de extreem gedenormaliseerde structuur in een dimensionaal model gegevens in verouderde systemen.

McFaddens (1996) Benadering van gegevens Magazijnontwerp

McFadden (1996) stelt een aanpak in vijf stappen voor om a datawarehouse (zie figuur 5).
Zijn aanpak is gebaseerd op een synthese van ideeën uit de literatuur en is gericht op het ontwerp van een single datawarehouse. De eerste stap is een behoefteanalyse. Hoewel technische specificaties niet worden voorgeschreven, identificeren de aantekeningen van McFadden entiteiten gegevens specificaties en hun attributen, en verwijst lezers Watson en Frolick (1993) voor het vastleggen van de vereisten.
In de tweede stap wordt een entiteitsrelatiemodel getekend datawarehouse en vervolgens gevalideerd door bedrijfsleiders. De derde stap omvat het bepalen van de mapping van legacy-systemen en externe bronnen van datawarehouse. De vierde stap omvat processen bij het ontwikkelen, implementeren en synchroniseren gegevens in datawarehouse. In de laatste stap wordt de oplevering van het systeem ontwikkeld met de nadruk op een gebruikersinterface. McFadden merkt op dat het tekenproces over het algemeen iteratief is.

De sterke punten van de aanpak van McFadden zijn de betrokkenheid van bedrijfsleiders bij het bepalen van vereisten en het belang van middelen gegevenshun schoonmaak en verzameling. De tekortkomingen zijn het ontbreken van een proces voor het verdelen van een groot project datawarehouse in veel geïntegreerde stadia, en daar

moeite met het begrijpen van de entiteits- en relatiemodellen die zijn gebruikt bij het ontwerpen van datawarehouse.

Het zijn niet alleen degenen die dicht bij ons staan ​​die ons kiezen.

    0/5 (0 beoordelingen)
    0/5 (0 beoordelingen)
    0/5 (0 beoordelingen)

    Lees meer bij Online Web Agency

    Schrijf u in om de nieuwste artikelen per e-mail te ontvangen.

    auteur avatar
    beheerder CEO
    👍Online Webbureau | Webbureau-expert in digitale marketing en SEO. Webbureau Online is een Webbureau. Voor Agenzia Web Online is succes in digitale transformatie gebaseerd op de fundamenten van Iron SEO versie 3. Specialiteiten: systeemintegratie, integratie van bedrijfsapplicaties, servicegerichte architectuur, cloud computing, datawarehouse, business intelligence, big data, portals, intranetten, webapplicaties Ontwerp en beheer van relationele en multidimensionale databases Ontwerpen van interfaces voor digitale media: bruikbaarheid en graphics. Online Web Agency biedt bedrijven de volgende diensten: -SEO op Google, Amazon, Bing, Yandex; -Webanalyse: Google Analytics, Google Tag Manager, Yandex Metrica; -Gebruikersconversies: Google Analytics, Microsoft Clarity, Yandex Metrica; -SEM op Google, Bing, Amazon-advertenties; -Socialemediamarketing (Facebook, Linkedin, Youtube, Instagram).
    Mijn Agile-privacy
    Deze site maakt gebruik van technische en profileringscookies. Door op accepteren te klikken, autoriseert u alle profileringscookies. Door op weigeren of de X te klikken, worden alle profileringscookies afgewezen. Door op aanpassen te klikken, kunt u selecteren welke profileringscookies u wilt activeren.
    Deze site voldoet aan de Wet Bescherming Persoonsgegevens (LPD), de Zwitserse federale wet van 25 september 2020, en de AVG, EU-verordening 2016/679, met betrekking tot de bescherming van persoonlijke gegevens en het vrije verkeer van dergelijke gegevens.