fbpx

Datalager och Enterprise Resource Planning | DWH och ERP

Archivio DATA CENTRAL: HISTORIA ED EVOLUTIONER

De två dominerande teman för företagsteknologi på 90-talet var bl.a datalagret och ERP. Under lång tid har dessa två kraftfulla strömmar varit delar av företagens IT utan att någonsin ha korsningar. Det var nästan som om de var materia och antimateria. Men tillväxten av båda fenomenen har oundvikligen lett till att de skärs samman. Idag står företag inför problemet med vad man ska göra med ERP och datalagret. Den här artikeln kommer att beskriva vad problemen är och hur företagen tar itu med dem.

I BÖRJAN…

I början fanns det datalagret. Datalager skapades för att motverka applikationssystemet för transaktionsbearbetning. I de tidiga dagarna memorering av uppgifter det var tänkt att bara vara en motpol till ansökningar om transaktionsbearbetning. Men nuförtiden finns det mycket mer sofistikerade synpunkter på vad en datalagret. I dagens värld datalagret den infogas i en struktur som kan kallas Corporate Information Factory.

FÖRETAGSINFORMATIONSFABRIKEN (CIF)

Corporate Information Factory har standardarkitektoniska komponenter: en nivå av transformation och kodintegration som integrerar uppgifter medan jag uppgifter de går från applikationsmiljön till miljön av datalagret av företaget; a datalagret av företaget där uppgifter detaljerade och integrerade historiker. De datalagret av företaget fungerar som grunden på vilken alla andra delar av miljön kan byggas datalagret; ett operationellt datalager (ODS). En ODS är en hybridstruktur som innehåller vissa aspekter av datalagret och andra aspekter av en OLTP-miljö; data marts, där olika avdelningar kan ha sin egen version av datalagret; a datalagret av utforskning där företagets "filosofer" kan skicka in sina frågor i 72 timmar utan skadlig effekt på datalagret; och ett nära linjeminne, i vilket uppgifter gammal och uppgifter bulk detalj kan lagras billigt.

VAR KOMBINERAS ERP MED FÖRETAGSINFORMATIONSFABRIK

ERP:n går samman med Corporate Information Factory på två ställen. Först som en grundläggande applikation (baseline) som ger bl.a uppgifter av ansökan till datalagret. I detta fall jag uppgifter, som genereras som en biprodukt av en transaktionsprocess, integreras och laddas in i datalagret av företaget. Den andra unionspunkten mellan ERP och CIF och ODS. Faktum är att i många miljöer används ERP som en klassisk ODS.

Om ERP används som grundapplikation kan samma ERP också användas i CIF som ODS. I alla fall, om ERP ska användas i båda rollerna, måste det finnas en tydlig skillnad mellan de två enheterna. Med andra ord, när ERP spelar rollen som en kärnapplikation och en ODS, måste de två arkitektoniska enheterna särskiljas. Om en enda ERP-implementering försöker utföra båda rollerna samtidigt kommer det oundvikligen att uppstå problem i utformningen och implementeringen av den strukturen.

SEPARAT ODS OCH GRUNDLÄGGANDE APPLIKATIONER

Det finns många skäl som leder till uppdelningen av arkitektoniska komponenter. Den kanske mest talande frågan för att separera de olika komponenterna i en arkitektur är att varje komponent i arkitekturen har sin egen uppfattning. Baslinjeapplikationen tjänar ett annat syfte än ODS. Försök att överlappa varandra

en grundläggande applikationssyn på en ODS-värld eller vice versa är inte ett rätt sätt att arbeta.

Följaktligen är det första problemet med en ERP i CIF att verifiera om det finns en skillnad mellan baslinjeapplikationerna och ODS.

DATAMODELLER I FÖRETAGET INFORMATIONSFABRIK

För att uppnå sammanhållning mellan de olika komponenterna i CIF-arkitekturen måste det finnas en modell av uppgifter. Modellerna av uppgifter de fungerar som en länk mellan de olika komponenterna i arkitekturen, såsom baslinjeapplikationerna och ODS. Modellerna av uppgifter de blir den "intellektuella färdplanen" för att få rätt betydelse från de olika arkitektoniska komponenterna i CIF.

Går hand i hand med denna uppfattning är tanken att det ska finnas en stor och enkel modell av uppgifter. Självklart måste det finnas en modell av uppgifter för var och en av komponenterna och det måste också finnas en vettig väg som förbinder de olika modellerna. Varje komponent i arkitekturen – ODS, baslinjeapplikationer, datalagret av företaget, och så vidare.. – behöver en egen modell uppgifter. Och så det måste finnas en exakt definition av hur dessa modeller uppgifter de samverkar med varandra.

FLYTTA I DATA AV ERP I DATA LAGER

Om ursprunget till uppgifter är en baslinjeapplikation och/eller en ODS, när ERP:n infogar uppgifter nel datalagret, måste denna insättning ske på den lägsta nivån av "granularitet". Helt enkelt sammanfatta eller aggregera i uppgifter när de kommer ut ur ERP-baslinjeapplikationen eller ERP ODS är inte det rätta att göra. DE uppgifter detaljer behövs i datalagret att ligga till grund för DSS-processen. Sådan uppgifter kommer att omformas på många sätt av datamarts och utforskningar av datalagret.

Flytten av uppgifter från ERP-baslinjeapplikationsmiljön till datalagret av företaget sker på ett någorlunda avslappnat sätt. Denna flytt sker cirka 24 timmar efter uppdateringen eller skapandet i ERP. Det faktum att ha en "lat" rörelse av uppgifter nel datalagret av företaget tillåter uppgifter kommer från ERP till att "sätta in". När jag uppgifter lagras i baslinjeapplikationen, så kan du säkert flytta uppgifter av ERP i företaget. Ett annat mål som kan uppnås tack vare den "lata" rörelsen uppgifter det är den tydliga avgränsningen mellan operativa processer och DSS. Med en "snabb" rörelse av uppgifter skiljelinjen mellan DSS och operativ förblir vag.

Rörelsen av uppgifter från ERP:s ODS till datalagret av företaget görs regelbundet, vanligtvis veckovis eller månadsvis. I detta fall rörelsen av uppgifter det bygger på behovet av att "städa" de gamla uppgifter historiker. Naturligtvis innehåller ODS bl.a uppgifter som är mycket nyare än uppgifter historiker som finns i datalagret.

Flytten av uppgifter nel datalagret det görs nästan aldrig "grossist" (på ett grossistsätt). Kopiera en tabell från ERP-miljön till datalagret det låter inte rimligt. Ett mycket mer realistiskt tillvägagångssätt är att flytta utvalda enheter av uppgifter. Bara uppgifter som har ändrats sedan senaste uppdateringen av datalagret det är de som ska flyttas in i datalagret. Ett sätt att veta vilka uppgifter har ändrats sedan den senaste uppdateringen är att titta på tidsstämplarna för uppgifter finns i ERP-miljön. Designern väljer alla ändringar som har skett sedan den senaste uppdateringen. Ett annat tillvägagångssätt är att använda tekniker för att fånga förändringar uppgifter. Med dessa tekniker analyseras loggar och journalband för att avgöra vilka uppgifter måste flyttas från ERP-miljön till den för datalagret. Dessa tekniker är bäst eftersom loggar och journalband kan läsas från ERP-filer utan att ytterligare påverka andra ERP-resurser.

ANDRA KOMPLIKATIONER

En av ERP-problemen i CIF är vad som händer med andra applikationskällor eller till uppgifter av ODS de måste bidra till datalagret men de är inte en del av ERP-miljön. Med tanke på den slutna karaktären hos ERP, särskilt SAP, försöker integrera nycklar från externa källor uppgifter med jag uppgifter som kommer från ERP när du flyttar uppgifter nel datalagret, det är en stor utmaning. Och exakt vad är sannolikheterna för att jag uppgifter av applikationer eller ODS utanför ERP-miljön kommer att integreras i datalagret? Oddsen är faktiskt väldigt höga.

HITTA DATA HISTORISK FRÅN ERP

Ett annat problem med i uppgifter av ERP är det som härrör från behovet att ha uppgifter historiker inom datalagret. Vanligtvis datalagret han behöver uppgifter historiker. Och ERP-tekniken lagrar vanligtvis inte dessa uppgifter historiskt, åtminstone inte till den punkt där det är nödvändigt i datalagret. När en stor mängd uppgifter historia börjar lägga sig i ERP-miljön, den miljön måste städas upp. Anta till exempel att a datalagret måste laddas med fem år av uppgifter historisk medan ERP behåller maximalt sex månader av dessa uppgifter. Så länge företaget är nöjd med att samla in en rad uppgifter historiker som tiden går, då är det inga problem att använda ERP som en källa för datalagret. Men när datalagret han måste gå tillbaka i tiden och skaffa gudar uppgifter historier som inte tidigare har samlats in och sparats av ERP, då blir ERP-miljön ineffektiv.

ERP OCH METADATA

En annan övervägande att göra om ERP e datalagret är den på metadata som finns i ERP-miljön. Precis som metadata flödar från ERP-miljön till datalagret, måste metadata flyttas på samma sätt. Vidare måste metadata omvandlas till det format och den struktur som infrastrukturen kräver datalagret. Det är stor skillnad mellan operationell metadata och DSS-metadata. Operativ metadata är i första hand för utvecklaren och

programmerare. DSS-metadata är i första hand till för slutanvändaren. Befintlig metadata i ERP-applikationer eller ODS måste konverteras, och denna konvertering är inte alltid lätt och okomplicerad.

SKAPA ERP-DATA

Om affärssystemet används som leverantör av uppgifter för datalagret det måste finnas ett solidt gränssnitt som flyttar uppgifter från ERP-miljö till miljö datalagret. Gränssnittet måste:

  • ▪ vara lätt att använda
  • ▪ tillåta åtkomst till uppgifter av ERP
  • ▪ ta innebörden av uppgifter som är på väg att flyttas till datalagret
  • ▪ känna till de ERP-begränsningar som kan uppstå vid åtkomst till uppgifter av ERP:n:
  • ▪ referensintegritet
  • ▪ hierarkiska relationer
  • ▪ implicita logiska relationer
  • ▪ tillämpningskonvention
  • ▪ alla strukturer för uppgifter stöds av ERP, och så vidare...
  • ▪ vara effektiv när det gäller åtkomst uppgifter, genom att tillhandahålla:
  • ▪ direkt rörelse av uppgifter
  • ▪ förvärv av förändring uppgifter
  • ▪ stödja snabb tillgång till uppgifter
  • ▪ förstå formatet på uppgifter, och så vidare… GRÄNSSNITT MED SAP Gränssnittet kan vara av två typer, egentillverkat eller kommersiellt. Några av de stora handelsgränssnitten inkluderar:
  • ▪ SAS
  • ▪ Prims Solutions
  • ▪ D2k och så vidare... FLERA ERP-TEKNIKER Att behandla ERP-miljön som om det vore en enda teknik är ett stort misstag. Det finns många ERP-tekniker, var och en med sina egna styrkor. De mest kända leverantörerna på marknaden är:
  • ▪ SAP
  • ▪ Oracle Financials
  • ▪ PeopleSoft
  • ▪ JD Edwards
  • ▪ Baan SAP SAP är den största och mest kompletta ERP-mjukvaran. SAP-applikationer inkluderar många typer av applikationer inom många områden. SAP har ett rykte om sig att vara:
  • ▪ mycket stor
  • ▪ mycket svårt och dyrt att genomföra
  • ▪ behöver många människor och konsulter som ska implementeras
  • ▪ kräver specialiserade personer för implementering
  • ▪ tar lång tid att implementera Dessutom har SAP ett rykte om att memorera sina uppgifter mycket noggrant, vilket gör det svårt för någon utanför SAP-området att komma åt dem. SAPs styrka är att den kan fånga och lagra en stor mängd uppgifter. Nyligen meddelade SAP sin avsikt att utöka sina applikationer till datalagret. Det finns många fördelar och nackdelar med att använda SAP som leverantör datalagret. En fördel är att SAP redan är installerat och att de flesta konsulter redan känner till SAP.
    Nackdelarna med att ha SAP som leverantör av datalagret det finns många: SAP har ingen erfarenhet i världen av datalagret Om SAP är leverantör av datalagret, är det nödvändigt att "ta ut" dvs uppgifter från SAP till datalagret. nollpunkts en SAPs meritlista av slutet system är det osannolikt att det är lätt att få in i från SAP (???). Det finns många äldre miljöer som driver SAP, som IMS, VSAM, ADABAS, ORACLE, DB2 och så vidare. SAP insisterar på en "inte uppfunnen här"-strategi. SAP vill inte samarbeta med andra leverantörer för att använda eller skapa datalagret. SAP insisterar på att generera all sin programvara själv.

Även om SAP är ett stort och kraftfullt företag som försöker skriva om tekniken för ELT, OLAP, systemadministration och till och med kärnkoden för dbms det är bara galet. Istället för att samarbeta med leverantörer av datalagret Sedan länge har SAP följt metoden "de vet bäst". Denna attityd håller tillbaka den framgång som SAP skulle kunna ha inom området datalagret.
SAP:s vägran att tillåta externa leverantörer att snabbt och graciöst få tillgång till sina uppgifter. Själva kärnan i att använda en datalagret är lättillgänglig uppgifter. Hela SAP:s historia bygger på att göra det svårtillgängligt uppgifter.
SAP:s bristande erfarenhet av att hantera stora volymer av uppgifter; inom området för datalagret det finns mängder av uppgifter aldrig sett av SAP och att hantera dessa stora mängder uppgifter du måste ha lämplig teknik. SAP är tydligen inte medveten om denna tekniska barriär som finns för att komma in på området datalagret.
SAP:s företagskultur: SAP har gjort en affär av att få uppgifter från systemet. Men för att göra detta måste du ha en annan mentalitet. Traditionellt har mjukvaruföretag som varit bra på att få in data i en miljö inte varit bra på att få data att gå åt andra hållet. Om SAP lyckas göra den här typen av byte blir det det första företaget att göra det.

Kort sagt är det tveksamt om ett företag ska välja SAP som sin leverantör datalagret. Det finns mycket allvarliga risker å ena sidan och väldigt få belöningar å andra sidan. Men det finns en annan anledning som avskräcker från att välja SAP som leverantör datalagret. För alla företag borde ha samma datalagret än alla andra företag? De datalagret det är hjärtat av konkurrensfördelar. Om alla företag antog samma sak datalagret det skulle vara svårt, men inte omöjligt, att uppnå en konkurrensfördel. SAP verkar tro att en datalagret det kan ses som en cookie och detta är ytterligare ett tecken på deras "get the data in"-mentalitet hos applikationer.

Ingen annan ERP-leverantör är så dominerande som SAP. Utan tvekan kommer det att finnas företag som kommer att följa SAP:s väg för deras datalagret men förmodligen dessa datalagret SAP kommer att vara stort, dyrt och tidskrävande att skapa.

Dessa miljöer inkluderar sådana aktiviteter som bankkassörshantering, bokningsprocesser för flygbolag, processer för försäkringskrav och så vidare. Ju mer presterande transaktionssystemet var, desto mer uppenbart var behovet av separation mellan den operativa processen och DSS (Decision Support System). Men med HR- och personalsystem ställs du aldrig inför stora transaktionsvolymer. Och, naturligtvis, när en person anställs eller lämnar företaget är detta ett register över en transaktion. Men i förhållande till andra system har HR- och personalsystem helt enkelt inte många transaktioner. Därför är det i HR- och personalsystem inte helt självklart att det finns ett behov av ett DataWarehouse. På många sätt representerar dessa system en sammanslagning av DSS-system.

Men det finns en annan faktor som måste beaktas om du har att göra med datalager och PeopleSoft. I många miljöer, dvs uppgifter av mänskliga och personliga resurser är sekundära till företagets primära verksamhet. De flesta företag ägnar sig åt tillverkning, försäljning, tillhandahållande av tjänster och så vidare. Personal och personalsystem är vanligtvis sekundära till (eller stödjer) företagets huvudverksamhet. Därför är det tvetydigt och obekvämt datalagret separat för personal och personalstöd.

PeopleSoft skiljer sig mycket från SAP i detta avseende. Med SAP är det obligatoriskt att det finns en datalagret. Med PeopleSoft är det inte så tydligt. Ett datalager är valfritt med PeopleSoft.

Det bästa som kan sägas om uppgifter PeopleSoft är att datalagret kan användas för att arkivera i uppgifter relaterade till gamla mänskliga och personliga resurser. En andra anledning till varför ett företag skulle vilja använda en datalagret a

nackdelen för PeopleSoft-miljön är att tillåta åtkomst och fri tillgång till analysverktyg, för att uppgifter av PeopleSoft. Men utöver dessa skäl kan det finnas fall där det är att föredra att inte ha ett datalager för uppgifter PeopleSoft.

Sammanfattningsvis

Det finns många idéer om konstruktionen av en datalagret inom ett affärssystem.
Några av dessa är:

  • ▪ Det är vettigt att ha en datalagret det är som allt annat i branschen?
  • ▪ Hur flexibel ett affärssystem är datalagret programvara?
  • ▪ Ett affärssystem datalagret programvara kan hantera en volym av uppgifter som ligger i endatalagret arena"?
  • ▪ Vilken spårregistrering gör ERP-leverantören inför lätt och billigt, i termer av tid, uppgifter? (vilket är ERP-leverantörernas meritlista när det gäller leverans av billiga, i tid och lättillgängliga data?)
  • ▪ Vad är ERP-leverantörens förståelse för DSS-arkitekturen och företagsinformationsfabriken?
  • ▪ ERP-leverantörer förstår hur man uppnår uppgifter inom miljön, men också förstå hur man exporterar dem?
  • ▪ Hur öppen är ERP-leverantören för verktyg för datalager?
    Alla dessa överväganden måste göras för att bestämma var den ska placeras datalagret som kommer att vara värd för i uppgifter av ERP och andra uppgifter. I allmänhet, om det inte finns en övertygande anledning att göra något annat, rekommenderas att bygga datalagret utanför ERP-leverantörens miljö. KAPITEL 1 Översikt över BI-organisationens nyckelpunkter:
    Informationsarkiv fungerar i omvänd ordning till arkitekturen för business intelligence (BI):
    Företagskultur och IT kan begränsa framgången med att bygga BI-organisationer.

Teknik är inte längre den begränsande faktorn för BI-organisationer. Frågan för arkitekter och projektplanerare är inte om tekniken finns, utan om de effektivt kan implementera den tillgängliga tekniken.

För många företag a datalagret det är lite mer än en passiv insättning som distribuerar uppgifter till användare som behöver det. DE uppgifter de extraheras från källsystemen och fylls i målstrukturer för datalagret. Jag uppgifter de kan också rengöras med lite tur. Men inget mervärde tillförs eller samlas in av uppgifter under denna process.

I huvudsak ger passiv Dw i bästa fall bara i uppgifter ren och fungerande för användarföreningar. Informationsskapande och analytisk förståelse är helt upp till användarna. Bedöm om DW (Datalager) är en framgång är subjektiv. Om vi ​​bedömer framgång på förmågan att effektivt samla in, integrera och rengöra uppgifter företag på en förutsägbar basis, så ja, DW är en framgång. Å andra sidan, om vi tittar på insamling, konsolidering och utnyttjande av information av organisationen som helhet, då är DW ett misslyckande. En DW ger lite eller inget informationsvärde. Som ett resultat tvingas användare att klara sig, vilket skapar informationssilos. Detta kapitel presenterar en övergripande vy för att sammanfatta företagets BI-arkitektur (Business Intelligence). Vi börjar med en beskrivning av BI och går sedan över till diskussioner om informationsdesign och utveckling, i motsats till att bara tillhandahålla information. uppgifter till användare. Diskussionerna fokuserar sedan på att beräkna värdet av dina BI-insatser. Vi avslutar med att definiera hur IBM hanterar din organisations BI-arkitektoniska krav.

Arkitektur beskrivning av BI organisation

Kraftfulla transaktionsorienterade informationssystem är nu vanliga i alla stora företag, vilket effektivt utjämnar villkoren för företag runt om i världen.

Att förbli konkurrenskraftigt kräver nu analytiskt orienterade system som kan revolutionera företagets förmåga att återupptäcka och använda den information de redan har. Dessa analytiska system härrör från att förstå rikedomen av uppgifter tillgängliga. BI kan förbättra prestanda i hela företaget. Företag kan förbättra kund-leverantörsrelationer, förbättra lönsamheten för produkter och tjänster, generera nya och bättre erbjudanden, kontrollera risker och bland många andra vinster drastiskt minska kostnaderna. Med BI börjar ditt företag äntligen använda kundinformation som en konkurrenskraftig tillgång tack vare applikationer som har marknadsmål.

Att ha rätt affärsverktyg innebär att ha definitiva svar på nyckelfrågor som:

  • ▪ Vilken av våra kunder får de oss att tjäna mer, eller får de oss att förlora pengar?
  • ▪ Där våra bästa bor kunder i relation med butiken/ lager som de frekventerar?
  • ▪ Vilka av våra produkter och tjänster kan säljas mest effektivt och till vem?
  • ▪ Vilka produkter kan säljas mest effektivt och till vem?
  • ▪ Vilken säljkampanj är mest framgångsrik och varför?
  • ▪ Vilka försäljningskanaler är mest effektiva för vilka produkter?
  • ▪ Hur vi kan förbättra relationerna med våra bästa människor kunder? De flesta företag har uppgifter grova sätt att svara på dessa frågor.
    Operativa system genererar stora mängder produkt, kund och uppgifter marknaden från försäljningsställen, bokningar, kundservice och tekniska supportsystem. Utmaningen är att extrahera och utnyttja denna information. Många företag tjänar bara på små bråkdelar av sina uppgifter för strategiska analyser.
    I uppgifter återstående, ofta kombinerat med i uppgifter härledd från externa källor som regeringsrapporter och annan köpt information, är en guldgruva som bara väntar på att bli utforskad, och uppgifter de behöver bara förfinas inom informationskontexten för din organisation.

Denna kunskap kan appliceras på flera sätt, allt från att utforma en övergripande företagsstrategi till personlig kommunikation med leverantörer, via callcenter, fakturering, Internet och andra punkter. Dagens affärsmiljö dikterar att DW och relaterade BI-lösningar utvecklas bortom att driva traditionella affärsstrukturer. uppgifter som jag uppgifter normaliserad på atomnivå och ”stjärn-/kubgårdar”.

Vad som behövs för att förbli konkurrenskraftigt är en fusion av traditionell och avancerad teknologi i ett försök att stödja ett enormt analytiskt landskap.
Sammanfattningsvis måste den allmänna miljön förbättra kunskapen om företaget som helhet och säkerställa att de åtgärder som vidtas till följd av de analyser som genomförs är användbara så att alla drar nytta av det.

Låt oss till exempel säga att du rankar din egen kunder i hög- eller lågriskkategorier.
Om denna information genereras av en modellextraktor eller på annat sätt måste den läggas in i DW och göras tillgänglig för vem som helst med hjälp av alla åtkomstverktyg, såsom statiska rapporter, kalkylblad, tabeller eller online analytisk bearbetning (OLAP ) .

Men för närvarande finns mycket av denna typ av information kvar i silos uppgifter av de individer eller avdelningar som genererar analysen. Organisationen som helhet har liten eller ingen synlighet för förståelse. Endast genom att blanda denna typ av informationsinnehåll i ditt företags DW kan du eliminera informationssilos och höja din DW-miljö.
Det finns två stora hinder för att utveckla en BI-organisation.
För det första har vi problemet med själva organisationen och dess disciplin.
Även om vi inte kan hjälpa till med förändringar i organisationspolicy, kan vi hjälpa till att förstå komponenterna i en organisations BI, dess arkitektur och hur IBM-teknik underlättar dess utveckling.
Den andra barriären att övervinna är bristen på integrerad teknik och kunskap om en metod som adresserar hela BI-utrymmet i motsats till bara en liten komponent.

IBM tar tag i förändringar inom integrationstekniken. Det är ditt ansvar att tillhandahålla genomtänkt design. Denna arkitektur måste utvecklas med teknik vald för obegränsad integration, eller åtminstone med teknik som följer öppna standarder. Vidare måste din företagsledning säkerställa att BI-åtagandet genomförs enligt plan och att inte tillåta utveckling av informationssilos som uppstår från egennyttiga agendor eller mål.
Därmed inte sagt att BI-miljön inte är känslig för att reagera på olika användares olika behov och krav; istället innebär det att implementeringen av dessa individuella behov och krav görs till fördel för hela BI-organisationen.
En beskrivning av BI-organisationens arkitektur finns på sidan 9 i figur 1.1. Arkitekturen visar en rik blandning av teknologier och tekniker.
Ur den traditionella synen inkluderar arkitekturen följande lagerkomponenter

Atomlager (Atomlager).

Detta är grunden, hjärtat i hela DW och därför för strategisk rapportering.
I uppgifter lagras här kommer att behålla den historiska integriteten, rapporterar om uppgifter och inkluderar härledda mätvärden, samt att rengöras, integreras och lagras med hjälp av modellextraktion.
All efterföljande användning av dessa uppgifter och relaterad information härrör från denna struktur. Detta är en utmärkt källa för gruvdrift uppgifter och för rapporter med strukturerade SQL-frågor

Driftslager av uppgifter eller rapportera grund av uppgifter(Operational Data Store (ODS) eller rapportering databas.)

Detta är en struktur av uppgifter speciellt utformad för teknisk rapportering.

I uppgifter lagras och rapporteras ovanför kan dessa strukturer slutligen fortplanta sig in i lagret via uppställningsområdet, där det kan användas för strategisk signalering.

Uppställningsområde.

Första stoppet för de flesta uppgifter avsedd för lagermiljön är organisationszonen.
Här jag uppgifter integreras, rengörs och omvandlas till uppgifter vinster som kommer att fylla lagerstrukturen

Datum mars.

Denna del av arkitekturen representerar strukturen av uppgifter används specifikt för OLAP. Förekomsten av datamarts, om jag uppgifter lagras i de överlappande stjärnschemana uppgifter flerdimensionell i en relationsmiljö, eller i filerna för uppgifter Konfidentiell information som används av specifik OLAP-teknik, såsom DB2 OLAP Server, är inte relevant.

Den enda begränsningen är att arkitekturen underlättar användningen av uppgifter flerdimensionell.
Arkitekturen inkluderar också kritiska Bi-tekniker och tekniker som sticker ut som:

Rumslig analys

Utrymmet är en oväntad information för analytikern och är avgörande för fullständig upplösning. Rymden kan representera information om de människor som bor på en viss plats, såväl som information om var den platsen är fysiskt i förhållande till resten av världen.

För att utföra denna analys måste du börja med att knyta din information till latitud- och longitudkoordinater. Detta kallas "geokodning" och måste vara en del av extrahering, transformation och laddning (ETL)-processen på atomnivå i ditt lager.

Datautvinning.

Utvinningen av uppgifter gör det möjligt för våra företag att öka antalet kunder, för att förutsäga försäljningstrender och tillåta hantering av relationer med kunder (CRM), bland andra BI-initiativ.

Utvinningen av uppgifter den måste därför integreras med strukturerna för uppgifter av DWhouse och stöds av lagerprocesser för att säkerställa både effektiv och effektiv användning av relaterad teknologi och tekniker.

Som anges i BI-arkitekturen är atomnivån i Dwhouse, såväl som datamarts, en utmärkt källa till uppgifter för utvinning. Samma anläggningar måste också vara mottagare av utvinningsresultat för att säkerställa tillgänglighet för den bredaste publiken.

Agenter.

Det finns olika "agenter" för att undersöka klienten för varje punkt, såsom företagets operativsystem och dw själva. Dessa agenter kan vara avancerade neurala nätverk utbildade för att lära sig om trender vid varje punkt, såsom framtida produktefterfrågan baserad på säljkampanjer, regelbaserade motorer för att reagera på en dato uppsättning omständigheter, eller till och med enkla agenter som rapporterar undantag till "topchefer". Dessa processer sker vanligtvis i realtid och måste därför vara nära kopplade till deras rörelse uppgifter. Alla dessa strukturer av uppgifter, garanterar teknologier och tekniker att du inte kommer att spendera natten på att skapa en organisation av din BI.

Denna aktivitet kommer att utvecklas i stegvisa steg, för små poäng.
Varje steg är en oberoende projektinsats och kallas en iteration i ditt DW- eller BI-initiativ. Iterationer kan inkludera implementering av ny teknik, börja med nya tekniker, lägga till nya strukturer uppgifter , laddar i uppgifter ytterligare, eller med utökning av analys av din miljö. Denna paragraf diskuteras mer ingående i kapitel 3.

Förutom traditionella DW-strukturer och BI-verktyg finns det andra funktioner i din BI-organisation som du behöver designa för, till exempel:

Kundkontaktpunkter (Kundkontakt punkterna).

Som med alla moderna organisationer finns det ett antal kundkontaktpunkter som indikerar hur du kan få en positiv upplevelse för din kunder. Det finns traditionella kanaler som återförsäljare, växeloperatörer, direktreklam, multimedia och tryckt reklam, samt mer aktuella kanaler som e-post och webb, uppgifter produkter med någon kontaktpunkt måste införskaffas, transporteras, rengöras, bearbetas och sedan befolkas vid anläggningar uppgifter av BI.

Baser av uppgifter drift- och användarföreningar (operativa

databaser och användargemenskaper).
I slutet av kontaktpunkterna för kunder grunderna finns uppgifter av företagets applikations- och användargemenskaper. DE uppgifter befintliga är uppgifter traditionella som måste föras samman och slås samman med uppgifter som kommer från kontaktpunkterna för att tillgodose den nödvändiga informationen.

Analytiker. (Analytiker)

Den primära förmånstagaren av BI-miljön är analytikern. Det är han som gynnas av den nuvarande utvinningen av uppgifter operativt, integrerat med olika källor till uppgifter , utökad med funktioner som geografisk analys (geokodning) och presenterad i BI-tekniker som möjliggör extraktion, OLAP, avancerad SQL-rapportering och geografisk analys. Det primära analytikergränssnittet för rapporteringsmiljön är BI-portalen.

Analytikern är dock inte den enda som drar nytta av BI-arkitektur.
Chefer, stora användarföreningar och till och med medlemmar, leverantörer och i kunder bör hitta fördelar i företags-BI.

Back feed loop.

BI-arkitektur är en lärandemiljö. En karakteristisk princip för utveckling är att tillåta bestående strukturer av uppgifter ska uppdateras av den BI-teknik som används och av användarens åtgärder. Ett exempel är kundpoäng.

Om säljavdelningen modellerar kundpoäng för att använda en ny tjänst, bör säljavdelningen inte vara den enda gruppen som drar nytta av tjänsten.

Istället bör modellextraktion utföras som en naturlig del av dataflödet inom företaget och kundpoäng ska bli en integrerad del av lagerinformationskontexten, synlig för alla användare. Den Bi-bI-centrerade IBM Suite inklusive DB2 UDB, DB2 OLAP Server innehåller de flesta av de viktigaste teknologikomponenterna, definierade i figur 1.1.

Vi använder arkitekturen som den visas i den här illustrationen från boken för att ge oss en nivå av kontinuitet och visa hur varje IBM-produkt passar in i det övergripande BI-schemat.

Tillhandahålla informationsinnehåll (tillhandahålla informationsinnehåll)

Att designa, utveckla och implementera din BI-miljö är en svår uppgift. Designen måste omfatta både nuvarande och framtida affärskrav. Den arkitektoniska ritningen måste vara komplett för att inkludera alla slutsatser som hittats under designfasen. Utförandet måste förbli förpliktat till ett enda syfte: att utveckla BI-arkitekturen som formellt presenteras i designen och grundad i affärskrav.

Det är särskilt svårt att hävda att disciplin kommer att säkerställa relativ framgång.
Detta är enkelt eftersom du inte utvecklar en BI-miljö på en gång, utan du gör det i små steg över tid.

Det är dock viktigt att identifiera BI-komponenterna i din arkitektur av två skäl: Du kommer att vägleda alla efterföljande tekniska arkitekturbeslut.
Du kommer att medvetet kunna planera en viss användning av teknik även om du kanske inte får en repris som behöver tekniken på flera månader.

Att förstå dina affärskrav tillräckligt kommer att påverka vilken typ av produkter du skaffar för din arkitektur.
Att designa och utveckla din arkitektur säkerställer att ditt lager är

inte en slumpmässig händelse, utan snarare en noggrant konstruerad ”väl genomtänkt”. opera av konst som en mosaik av blandad teknik.

Designa informationsinnehåll

All initial design måste fokusera på och identifiera de viktigaste BI-komponenterna som kommer att behövas av den övergripande miljön nu och i framtiden.
Att känna till affärskraven är viktigt.

Redan innan någon formell design börjar kan projektplaneraren ofta identifiera en eller två komponenter direkt.
Balansen av komponenter som kan behövas för din arkitektur kan dock inte hittas lätt. Under designfasen knyter huvuddelen av arkitekturen samman applikationsutvecklingssessionen (JAD) till en strävan att identifiera affärskrav.

Ibland kan dessa krav anförtros fråge- och rapporteringsverktyg.
Användare uppger till exempel att om de vill automatisera en aktuell rapport måste de manuellt generera den genom att integrera två aktuella rapporter och lägga till beräkningar härledda från kombinationen av uppgifter.
Även om detta krav är enkelt, definierar det en viss funktionalitet hos funktionen som du måste inkludera när du köper rapporteringsverktyg för din organisation.

Konstruktören måste också fullfölja ytterligare krav för att få en helhetsbild. Vill användare prenumerera på den här rapporten?
Genereras och skickas delmängder av rapporter till olika användare? Vill de se den här rapporten i företagsportalen? Alla dessa krav är en del av det enkla behovet av att ersätta en manuell rapport som användarna begär. Fördelen med den här typen av krav är att alla, användare och designers, har en förståelse för begreppet rapporter.

Det finns dock andra typer av verksamheter som vi måste planera för. När affärskrav ställs i form av strategiska affärsfrågor är det lätt för expertdesignern att urskilja mått/fakta och dimensionella krav.

Om JAD-användare inte vet hur de ska ange sina krav i form av ett affärsproblem, kommer designern ofta att ge exempel för att kickstarta kravinsamlingssessionen.
Expertdesignern kan hjälpa användare att förstå inte bara strategisk handel, utan också hur man utformar den.
Kravsamlingsmetoden diskuteras i kapitel 3; för nu vill vi bara påpeka behovet av att designa för alla typer av BI-krav.

Ett strategiskt affärsproblem är inte bara ett affärskrav, utan också en design ledtråd. Om du ska svara på en flerdimensionell fråga måste du memorera, presentera bl.a uppgifter dimensionell, och om du behöver memorera uppgifter multidimensionell måste du bestämma vilken typ av teknik eller teknik du ska använda.

Implementerar du ett reserverat kubstjärnschema, eller båda? Som du kan se kan även ett enkelt affärsproblem påverka designen avsevärt. Men dessa typer av affärskrav är vanliga och förstås, åtminstone av designers och planerare med projekterfarenhet.

Det har varit tillräckligt med diskussioner om OLAP-teknik och support, och ett brett utbud av lösningar finns tillgängliga. Hittills har vi nämnt behovet av att sammanföra enkel rapportering med affärsdimensionella krav, och hur dessa krav påverkar tekniska arkitektoniska beslut.

Men vilka är kraven som inte lätt kan förstås av användarna eller Dw-teamet? Kommer du någonsin behöva rumslig analys?
Gruvmodellerna av uppgifter kommer de att vara en nödvändig del av din framtid? Vem vet?

Det är viktigt att notera att dessa typer av tekniker inte är välkända av de allmänna användargrupperna och Dw-teammedlemmarna, delvis kan det bero på att de vanligtvis hanteras av vissa interna eller tredjeparts tekniska experter. Det är ett extremfall av de problem som dessa typer av teknologier genererar. Om användare inte kan beskriva affärskrav eller rama in dem på ett sätt som ger vägledning till designers, kan de gå obemärkta förbi eller, ännu värre, helt enkelt ignoreras.

Mer problematiskt blir det när designern och utvecklaren inte kan känna igen tillämpningen av en av dessa avancerade men kritiska teknologier.
Som vi ofta har hört designers säga, "ja, varför lägger vi det inte åt sidan tills vi får den här andra saken? ”Är de verkligen intresserade av prioriteringar, eller undviker de helt enkelt krav som de inte förstår? Det är med största sannolikhet den sista hypotesen. Låt oss säga att ditt säljteam har kommunicerat ett affärskrav, som anges i figur 1.3, som du kan se är kravet inramat i form av ett affärsproblem. Skillnaden mellan detta problem och det typiska dimensionsproblemet är avståndet. I det här fallet vill säljteamet veta, på månadsbasis, den totala försäljningen från produkterna, lagren och kunder som bor inom 5 miles från lagret där de köper.

Tyvärr kan designers eller arkitekter helt enkelt ignorera den rumsliga komponenten genom att säga, "vi har kunden, produkten och uppgifter av insättningen. Låt oss hålla avståndet tills en ny iteration.

"Fel svar. Den här typen av affärsproblem handlar om BI. Det representerar en djupare förståelse för vår verksamhet och ett robust analytiskt utrymme för våra analytiker. BI är bortom enkel sökning eller standardrapportering, eller till och med OLAP. Detta är inte att säga att dessa tekniker inte är viktiga för din BI, men de ensamma representerar inte BI-miljön.

Design för informationssammanhang (Design för informationsinnehåll)

Nu när vi har identifierat de affärskrav som särskiljer olika grundläggande komponenter måste de ingå i en övergripande arkitektonisk design. Vissa av BI-komponenterna är en del av våra initiala ansträngningar, medan vissa inte kommer att implementeras på flera månader.

Men alla kända krav återspeglas i designen så att när vi behöver implementera en viss teknik är vi beredda att göra det. Något med projektet kommer att spegla traditionellt tänkande.

Denna uppsättning av uppgifter används för att stödja senare användning av uppgifter dimensionell vägledd av de affärsfrågor vi har identifierat. När ytterligare dokument genereras, såsom designutveckling av uppgifter, kommer vi att börja formalisera hur jag uppgifter de sprids i miljön. Vi har konstaterat behovet av att representera i uppgifter på ett dimensionellt sätt, dela upp dem (enligt specifika specifika behov) i datamars.

Nästa fråga att besvara är: hur kommer dessa datamarts att byggas?
Bygger du stjärnorna för att stödja kuberna, eller bara kuberna, eller bara stjärnorna? (eller högra kuber, eller rätt stjärnor). Generera arkitektur för beroende datamars som kräver ett atomlager för alla uppgifter förvärvar du? Tillåt oberoende datamarts att förvärva i uppgifter direkt från operativsystem?

Vilken Cube Technology kommer du att försöka standardisera?

Du har enorma mängder gudar uppgifter krävs för dimensionsanalys eller behöver du kuber från din nationella säljkår på veckobasis eller båda? Bygger du något så kraftfullt som DB2 OLAP Server för ekonomi eller Cognos PowerPlay-kuber för din säljorganisation, eller båda? Det här är de stora arkitektoniska designbesluten som kommer att påverka din BI-miljö från och med nu. Ja, du har konstaterat ett behov av OLAP. Hur ska du nu utföra den typen av teknik och teknik?

Hur påverkar några av de mest avancerade teknikerna din design? Låt oss anta att du har identifierat ett utrymmesbehov i din organisation. Du måste nu återkalla arkitektritningsutgåvorna även om du inte planerar att göra rumsliga komponenter på flera månader. Arkitekten ska rita idag utifrån vad som behövs. Förutsäg behovet av rumslig analys som genererar, lagrar, utför och ger tillgång till uppgifter rumslig. Detta bör i sin tur fungera som en begränsning för vilken typ av mjukvaruteknik och plattformsspecifikationer du för närvarande kan överväga. Till exempel administrationssystemet för databas relationsskikt (RDBMS) som du utför för ditt atomskikt måste ha en robust rumslig utsträckning tillgänglig. Detta skulle säkerställa maximal prestanda när du använder geometri och rumsliga objekt i dina analytiska applikationer. Om din RDBMS inte kan hantera uppgifter (rumscentrerad) internt, så du måste upprätta en databas (rumscentrerad) extern. Detta komplicerar hanteringen av problem och äventyrar din övergripande prestanda, för att inte tala om de ytterligare problem som skapas för dina DBA:er, eftersom de förmodligen har en minimal förståelse för grunderna i uppgifter också rumslig. Å andra sidan, om din RDMBS-motor hanterar alla rumsliga komponenter och dess optimerare är medveten om de speciella behoven (till exempel indexering) av rumsliga objekt, då kan dina DBA:er enkelt hantera hanteringen av problemen och du kan maximera prestandan.

Dessutom måste du justera mellanställningsområdet och atommiljölagret för att inkludera adressrensning (a

nyckelelement för rumslig analys), såväl som den efterföljande besparingen av utrymmesobjekt. Följden av ritutgåvor fortsätter nu när vi har introducerat begreppet tydlig riktning. För det första kommer den här applikationen att diktera vilken typ av programvara som behövs för din ETL-insats.

Behöver du produkter som Trillium för att ge den en ren adress, eller en ETL-leverantör som du väljer för att tillhandahålla den funktionen?
För nu är det viktigt att du uppskattar nivån på design som måste slutföras innan du börjar implementera ditt lager. Ovanstående exempel bör visa den mångfald av designbeslut som måste följa identifieringen av ett visst affärskrav. Om de fattas på rätt sätt främjar dessa designbeslut ett ömsesidigt beroende mellan de fysiska strukturerna i din miljö, valet av teknik som används och flödet av spridning av informationsinnehåll. Utan denna konventionella BI-arkitektur kommer din organisation att utsättas för en kaotisk blandning av befintliga teknologier, i bästa fall löst sammanfogade för att ge uppenbar stabilitet.

Underhåll informationsinnehåll

Att tillföra värdet av information till din organisation är en mycket svår uppgift. Utan tillräcklig förståelse och erfarenhet, eller korrekt planering och design, kommer även de bästa teamen att misslyckas. Å andra sidan, om du har stor intuition och detaljerad planering men ingen disciplin för utförande, har du bara slösat bort dina pengar och tid eftersom din ansträngning är dömd att misslyckas. Budskapet bör vara tydligt: ​​Om du saknar en eller flera av dessa färdigheter, förståelse/erfarenhet eller planering/design eller implementeringsdisciplin, kommer det att förlama eller förstöra byggnaden av BI-organisationen.

Är ditt team tillräckligt förberett? Finns det någon i ditt BI-team som förstår det enorma analytiska landskapet som är tillgängligt i BI-miljöer, och de tekniker och tekniker som behövs för att upprätthålla det landskapet? Finns det någon i ditt team som kan känna igen applikationsskillnaden mellan avancerade

statisk rapportering och OLAP, eller skillnaderna mellan ROLAP och OLAP? Inser en av dina teammedlemmar tydligt hur man extraherar och hur det kan påverka lagret eller hur lagret kan stödja utvinningsprestanda? En gruppmedlem förstår värdet av uppgifter rymd- eller agentbaserad teknik? Har du någon som uppskattar den unika tillämpningen av ETL-verktyg kontra meddelandemäklarteknik? Om du inte har en, skaffa en. BI är mycket större än ett normaliserat atomlager, OLAP, stjärnscheman och en ODS.

Att ha förståelsen och erfarenheten för att känna igen BI-krav och deras lösningar är avgörande för din förmåga att korrekt formalisera användarbehov och designa och implementera deras lösningar. Om din användargemenskap har svårt att beskriva krav är det lagerteamets uppgift att ge den förståelsen. Men om lagret laget

inte känner igen den specifika tillämpningen av BI - till exempel data mining - så är det inte det bästa att BI-miljöer ofta begränsas till att vara passiva repositories. Att ignorera dessa tekniker minskar dock inte deras betydelse och effekten de har på framväxten av din organisations affärsinformationskapacitet, såväl som informationslandskapet du planerar att främja.

Planering måste innehålla begreppet ritning, och båda kräver en kompetent person. Dessutom kräver design en teamlagerfilosofi och efterlevnad av standarder. Om ditt företag till exempel har etablerat en standardplattform eller har identifierat ett visst RDBMS som du vill standardisera över hela plattformen, ligger ansvaret på alla i teamet att följa dessa standarder. I allmänhet exponerar ett team behovet av standardisering (för användargemenskaper), men teamet självt är ovilligt att följa standarder som även etablerats inom andra områden i företaget eller kanske till och med i liknande företag. Detta är inte bara hycklande, utan det slår fast att företaget är oförmöget att utnyttja befintliga resurser och investeringar. Det betyder inte att det inte finns några situationer som motiverar en icke-standardiserad plattform eller teknologi; dock lagerinsatserna

de bör svartsjukt bevaka företagets standarder tills affärskraven dikterar något annat.

Den tredje nyckelkomponenten som behövs för att bygga en BI-organisation är disciplin.
Det beror totalt sett lika på individer och miljö. Projektplanerare, sponsorer, arkitekter och användare måste uppskatta den disciplin som krävs för att bygga företagets informationslandskap. Formgivare ska inrikta sina designinsatser på ett sådant sätt att de kompletterar andra nödvändiga insatser i samhället.

Låt oss till exempel säga att ditt företag bygger en ERP-applikation som har en lagerkomponent.
Därför är det ERP-designers ansvar att samarbeta med lagermiljöteamet för att inte konkurrera eller duplicera redan påbörjat arbete.

Disciplin är också ett ämne som måste tas upp av hela organisationen och som vanligtvis etableras och anförtros till en verkställande nivå.
Är chefer villiga att följa ett designat tillvägagångssätt? Ett tillvägagångssätt som lovar att skapa informationsinnehåll som i slutändan kommer att ge värde till alla delar av företaget, men kanske äventyrar individuella eller avdelningsagendor? Kom ihåg ordspråket "Att tänka på allt är viktigare än att tänka på bara en sak". Detta talesätt är sant för BI-organisationer.

Tyvärr fokuserar många lager sina ansträngningar på att försöka rikta in sig på och ge värde till en viss avdelning eller specifika användare, med liten hänsyn till organisationen i stort. Anta att chefen begär hjälp från lagerteamet. Teamet svarar med en 90-dagars ansträngning som inte bara inkluderar att leverera de aviseringskrav som definierats av chefen utan att se till att alla uppgifter baser blandas på atomnivå innan de introduceras i den föreslagna kubteknologin.
Detta tekniska tillägg säkerställer att lagerföretaget kommer att dra nytta av det uppgifter som behövs av chefen.
Emellertid talade chefen med externa konsultföretag som föreslog en liknande ansökan med leverans inom mindre än 4 veckor.

Förutsatt att det interna lagerteamet är kompetent, har chefen ett val. Vem kan stödja den ytterligare ingenjörsdisciplin som behövs för att odla informationstillgångsföretaget eller kan välja att bygga sin egen lösning snabbt. Den sista tycks väljas alldeles för ofta och tjänar bara till att skapa behållare av information som gynnar endast ett fåtal eller individen.

Kort- och långsiktiga mål

Arkitekter och projektdesigners måste formalisera en långsiktig vision av den övergripande arkitekturen och planer för tillväxt i en BI-organisation. Denna kombination av kortsiktig vinst och långsiktig planering representerar de två sidorna av BI-insatser. Kortsiktig vinst är den aspekt av BI som är associerad med iterationer av ditt lager.

Det är här planerare, arkitekter och sponsorer fokuserar på att uppfylla specifika kommersiella krav. Det är på denna nivå som fysiska strukturer byggs, teknik köps in och tekniker implementeras. De är på intet sätt gjorda för att tillgodose specifika krav som definieras av särskilda användargrupper. Allt görs för att möta specifika krav som definieras av en viss gemenskap.
Långsiktig planering är dock den andra aspekten av BI. Det var här som planerna och designerna säkerställde att alla fysiska strukturer byggdes, de valda teknikerna och de implementerade teknikerna gjordes med ett öga mot företaget. Det är långsiktig planering som ger den sammanhållning som behövs för att säkerställa att affärsnytta uppstår från eventuella kortsiktiga vinster.

Motivera din BI-ansträngning

Un datalagret i sig har det inget inneboende värde. Det finns med andra ord inget inneboende värde mellan lagerteknik och implementeringsteknik.

Värdet av varje lagerinsats återfinns i de åtgärder som utförs som ett resultat av lagermiljön och informationsinnehållet som odlas över tiden. Detta är en viktig punkt att förstå innan du någonsin försöker uppskatta värdet av ett wherehouse-initiativ.

Alltför ofta försöker arkitekter och designers att applicera värde på de fysiska och tekniska komponenterna i lagret när värdet i själva verket är baserat på de affärsprocesser som påverkas positivt av lagret och den välinhämtade informationen.

Här ligger utmaningen med att etablera BI: Hur motiverar du investeringen? Om själva wherehouse inte har något egenvärde, måste projektdesigners undersöka, definiera och formalisera fördelarna som uppnås av de individer som kommer att använda lagret för att förbättra specifika affärsprocesser eller värdet av skyddad information, eller både och.

För att komplicera saken kan alla affärsprocesser som påverkas av lagerinsatser ge "avsevärda" eller "små" fördelar. Avsevärda fördelar ger ett påtagligt mått för att mäta avkastningen på investeringen (ROI) – till exempel att vända lager en extra gång under en specifik period eller för lägre transportkostnad per försändelse. Det är svårare att definiera subtila fördelar, som förbättrad tillgång till information, i termer av påtagligt värde.

Anslut ditt projekt för att känna till affärsförfrågningar

Alltför ofta försöker projektplanerare koppla lagervärde till amorfa företagsmål. Genom att deklarera att "värdet av ett lager bygger på vår förmåga att tillfredsställa strategiska önskemål" öppnar vi diskussionen på ett trevligt sätt. Men det räcker inte ensamt för att avgöra om det är vettigt att investera i lager. Det är bäst att länka lager iterationer med specifika, kända affärskrav.

Mät ROI

Att beräkna ROI i en lagermiljö kan vara särskilt svårt. Det är särskilt svårt om fördelen

principen för en viss upprepning är något som inte är påtagligt eller lätt att mäta. En studie fann att användare upplever två huvudsakliga fördelar med BI-initiativ:

  • ▪ Skapa förmågan att fatta beslut
  • ▪ Skapa tillgång till information
    Dessa fördelar är mjuka (eller milda) fördelar. Det är lätt att se hur vi kan beräkna en ROI baserat på en hård (eller stor) fördel som minskade transportkostnader, men hur mäter vi förmågan att fatta bättre beslut?
    Detta är definitivt en utmaning för projektplanerare när de försöker övertyga företaget att investera i en viss lagerinsats. Ökande försäljning eller minskade kostnader är inte längre de centrala teman som driver BI-miljön.
    Istället tittar du på affärsförfrågningar om bättre tillgång till information så att en viss avdelning kan fatta snabbare beslut. Dessa är strategiska drivkrafter som råkar vara lika viktiga för företaget men som är mer tvetydiga och svårare att karakterisera i ett påtagligt mått. I det här fallet kan beräkning av ROI vara missvisande, om inte irrelevant.
    Projektplanerare måste kunna visa ett påtagligt värde för chefer att avgöra om investeringen i en viss iteration är värd det. Vi kommer dock inte att föreslå en ny metod för att beräkna ROI, och vi kommer inte heller att föra några argument för eller emot det.
    Det finns många artiklar och böcker tillgängliga som diskuterar grunderna för att beräkna ROI. Det finns speciella värdeförslag som till exempel värde på investeringar (VOI), som erbjuds av grupper som Gartner, som du kan undersöka. Istället kommer vi att fokusera på kärnaspekterna av alla ROI eller andra värdeförslag som du behöver överväga. Tillämpar ROI Utöver argumentet om "hårda" fördelar kontra "mjuka" fördelar förknippade med BI-insatser finns det andra frågor att tänka på när du tillämpar ROI. Till exempel:

Tillskriv för många besparingar till DW-insatser som skulle komma ändå
Låt oss säga att ditt företag gick från en stordatorarkitektur till en distribuerad UNIX-miljö. Så eventuella besparingar som kan (eller kanske inte) uppnås från den ansträngningen bör inte enbart, om alls (?), tillskrivas lagret.

Att inte ta hänsyn till allt är kostsamt. Och det finns många saker att ta hänsyn till. Tänk på följande lista:

  • ▪ Startkostnad, inklusive genomförbarhet.
  • ▪ Kostnad för dedikerad hårdvara med tillhörande lagring och kommunikation
  • ▪ Kostnad för programvaran, inklusive hantering uppgifter och klient/servertillägg, ETL-mjukvara, DSS-teknik, visualiseringsverktyg, schemaläggnings- och arbetsflödesapplikationer och övervakningsprogramvara, .
  • ▪ Konstruktionskostnad uppgifter, med skapandet och optimeringen av
  • ▪ Mjukvaruutvecklingskostnad direkt kopplad till BI-insatsen
  • ▪ Kostnad för support på plats, inklusive prestandaoptimering, inklusive programversionskontroll och hjälpoperationer Tillämpa "Big-Bang" ROI. Att bygga lagret som en enda, gigantisk ansträngning är dömt att misslyckas, så beräkna även ROI för ett stort företagsinitiativ. Erbjudandet är överraskande, och planerare fortsätter att göra svaga försök att uppskatta värdet av hela insatsen. Varför försöker planerare att sätta ett ekonomiskt värde på affärsinitiativet om det är allmänt känt och accepterat att det är svårt att uppskatta specifika upprepningar? Hur är det möjligt? Det är inte möjligt med några få undantag. Gör det inte. Nu när vi har fastställt vad vi inte ska göra när vi beräknar ROI, här är några punkter som hjälper oss att etablera en tillförlitlig process för att uppskatta värdet av dina BI-insatser.

Erhålla ROI-konsensus. Oavsett ditt val av teknik för att uppskatta värdet av dina BI-insatser måste alla parter komma överens om det, inklusive projektdesigners, sponsorer och företagsledare.

Minska ROI till identifierbara delar. Ett nödvändigt steg mot en rimlig beräkning av en ROI är att fokusera den beräkningen på ett specifikt projekt. Detta låter dig sedan uppskatta ett värde baserat på specifika affärskrav som uppfylls

Definiera kostnaderna. Som nämnts måste många kostnader beaktas. Dessutom måste kostnaderna inte bara inkludera de som är förknippade med den enstaka iterationen utan också kostnaderna för att säkerställa efterlevnad av företagsstandarder.

Definiera fördelar. Genom att tydligt koppla ROI till specifika affärskrav bör vi kunna identifiera de fördelar som kommer att leda till att kraven uppfylls.

Minska kostnader och fördelar i överhängande vinster. Det är det bästa sättet att basera dina värderingar på nettonuvärde (NPV) i motsats till att försöka förutsäga framtida värde i framtida intäkter.

Håll tidpunkten för att dela upp din ROI till ett minimum. Det är väldokumenterat under den långa tidsperioden det har använts i din ROI.

Använd mer än en ROI-formel. Det finns många metoder för att prognostisera ROI och du bör planera om du ska använda en eller flera av dem, inklusive nuvärde, intern avkastning (IRR) och återbetalning.

Definiera repeterbar process. Detta är avgörande för att beräkna eventuellt långsiktigt värde. En enda repeterbar process bör dokumenteras för att alla projektföljder ska följa.

De angivna problemen är de vanligaste som definieras av experter inom lagermiljön. Ledningens insisterande på att leverera en "Big-Bang" ROI är mycket desorienterande. Om du börjar alla dina ROI-beräkningar genom att dela upp dem i identifierbara, påtagliga bitar, har du goda möjligheter att uppskatta ett korrekt ROI-betyg.

Frågor om ROI-fördelar

Oavsett dina fördelar är, mjuka eller hårda, kan du använda några grundläggande frågor för att avgöra deras värde. Med hjälp av ett enkelt skalningssystem, från 1 till 10, kan du till exempel mäta effekten av alla ansträngningar genom att använda följande frågor:

  • Hur skulle du betygsätta förståelse för uppgifter följer ditt företags projekt?
  • Hur skulle du uppskatta processförbättringar som ett resultat av detta projekt?
  • Hur skulle du mäta effekten av nya insikter och slutsatser som nu görs tillgängliga genom denna iteration
  • Vilken påverkan hade nya och prestandafulla datormiljöer som ett resultat av det som hade lärts? Om svaren på dessa frågor är få är det möjligt att företaget inte är värt den investering som gjorts. Frågor med höga poäng pekar på betydande värdevinster och bör fungera som vägledning för vidare utredning. Till exempel bör ett högt betyg för processförbättringar leda till att designers undersöker hur processer har förbättrats. Du kanske upptäcker att en del eller alla vinster som görs är påtagliga och därför kan ett monetärt värde enkelt tillämpas. Få ut det mesta av den första iterationen av lager Det bästa resultatet av din företagsinsats är ofta i de första iterationerna. Dessa tidiga ansträngningar etablerar traditionellt det mest användbara informationsinnehållet för allmänheten och hjälper till att etablera den tekniska grunden för efterföljande BI-applikationer. Vanligtvis varje efterföljande sekvens av uppgifter av lagerprojekt ger allt mindre mervärde till företaget totalt sett. Detta gäller särskilt om iterationen inte lägger till nya ämnen eller möter behoven hos en ny användargemenskap.

Denna lagringsfunktion gäller även för växande högar av uppgifter historiker. Eftersom efterföljande ansträngningar kräver mer uppgifter och hur mer uppgifter hälls in i lagret med tiden, det mesta uppgifter det blir mindre relevant för den analys som används. Dessa uppgifter de kallas ofta uppgifter vilande och det är alltid dyrt att behålla dem eftersom de nästan aldrig används.

Vad betyder detta för projektsponsorer? I huvudsak delar tidiga sponsorer på mer än vad investeringen kostar. Detta är primärt eftersom de är drivkraften för att etablera lagrets breda teknik- och resursmiljöskikt, inklusive organiskt.

Men dessa första steg ger det högsta värdet och därför måste projektkonstruktörer ofta motivera investeringen.
Projekt som görs efter ditt BI-initiativ kan ha lägre (jämfört med det första) och direkta kostnader, men ger mindre värde för företaget.

Och organisationsägare måste börja överväga att slänga ackumuleringen uppgifter och mindre relevant teknik.

Data Mining: Extraktion Ge

Många arkitektoniska komponenter kräver variationer i datautvinningstekniker och -tekniker—
till exempel de olika "agenterna" för att undersöka intressepunkterna för kunder, företagets operativsystem och för dw själv. Dessa agenter kan vara avancerade neurala nätverk utbildade på POT-trender, såsom framtida produktefterfrågan baserad på säljkampanjer; regelbaserade motorer för att reagera på en uppsättning dato av omständigheter, till exempel medicinsk diagnos och behandlingsrekommendationer; eller till och med enkla agenter med rollen att rapportera undantag till högsta chefer. I allmänhet dessa extraktionsprocesser uppgifter si

verifiera i realtid; därför måste de förenas fullständigt med rörelsen av uppgifter sig själva.

Online analytisk bearbetning

Onlineanalys

Förmågan att skiva, tärna, rulla, borra ner och utföra analys
vad-om, ligger inom räckvidden, fokus för IBMs teknologisvit. Till exempel finns OLAP-funktioner (online analytical processing) för DB2 som för in dimensionsanalys i programvarumotorn. databas samma .

Funktionerna lägger till dimensionell nytta till SQL samtidigt som de drar fördel av alla fördelar med att vara en naturlig del av DB2. Ett annat exempel på OLAP-integrering är extraktionsverktyget DB2 OLAP Server Analyzer. Denna teknik gör att DB2 OLAP Server-kuber snabbt och automatiskt kan analyseras för att lokalisera och rapportera om värdevärden uppgifter ovanligt eller oväntat genom hela kuben för affärsanalytikern. Och slutligen ger DW Center-funktioner ett sätt för arkitekter att kontrollera bland annat profilen för en DB2 OLAP-serverkub som en naturlig del av ETL-processer.

Rumslig analys Rumslig analys

Utrymmet representerar hälften av de analytiska ankare (leads) som behövs för ett panorama
analytisk bred (tiden representerar den andra hälften). Lagrets atomnivå, avbildad i figur 1.1, inkluderar både tid och rymd. Tidsstämplar förankrar analyser efter tid och adresser informationsankaranalyser efter rum. Tidsstämplar utför analys efter tid, och adressinformation genomför analys per rum. Diagrammet visar geokodning – processen att omvandla adresser till punkter på en karta eller punkter i rymden så att begrepp som avstånd och insida/utsida kan användas i analysen – utförd på atomnivå och den rumsliga analys som görs tillgänglig för analytikern. IBM tillhandahåller rumsliga förlängningar, utvecklade med Environmental System Research Institute (ESRI), för att databas DB2 så att rymdobjekt kan lagras som en normal del av databas relationella. db2

Spatial Extenders, tillhandahåller också alla SQL-tillägg för att dra fördel av rumslig analys. Till exempel SQL-tilläggen att fråga mot
avstånd mellan adresser eller om en punkt är inom eller utanför ett definierat polygonområde, är en analytisk standard med Spatial Extender. Se kapitel 16 för mer information.

Databas-Resident Tools Tools Databas-Bosatt

DB2 har många BI-resident SQL-funktioner som hjälper till vid analys. Dessa inkluderar:

  • Rekursionsfunktioner för att utföra analys, som att " hitta alla möjliga flygvägar från San Francisco a New York".
  • Analytiska funktioner för rangordning, kumulativa funktioner, kub och rollup för att underlätta uppgifter som normalt bara sker med OLAP-teknik, är nu en naturlig del av motorn databas
  • Möjligheten att skapa tabeller som innehåller resultat
    Säljarna av databas ledare blandar mer av BI-kapaciteter i databas samma.
    Huvudleverantörerna av databas de blandar fler BI-funktioner i databas samma.
    Detta ger bättre prestanda och fler exekveringsalternativ för BI-lösningar.
    Funktionerna och funktionerna i DB2 V8 diskuteras i detalj i följande kapitel:
    Grunder för teknisk arkitektur och datahantering (kapitel 5)
  • Grunderna i DB2 BI (kapitel 6)
  • DB2 materialiserade frågetabeller (kapitel 7)
  • DB2 OLAP-funktioner (kapitel 13)
  • DB2 Enhanced BI-funktioner och funktioner (kapitel 15) Förenklat dataleveranssystem Leveranssystem av uppgifter förenklat

Arkitekturen som avbildas i figur 1.1 inkluderar många strukturer uppgifter fysisk. En är lagret av uppgifter fungerar. I allmänhet är en ODS ett subjektorienterat, integrerat och aktuellt objekt. Du skulle bygga en ODS för att stödja till exempel försäljningskontoret. ODS-försäljningen skulle komplettera uppgifter från många olika system men skulle bara behålla till exempel dagens transaktioner. ODS kan också uppdateras många gånger om dagen. Samtidigt driver processerna på uppgifter integreras i andra applikationer. Denna struktur är speciellt utformad för att integrera uppgifter aktuell och dynamisk och skulle vara en trolig kandidat för att stödja realtidsanalyser, såsom tillhandahållande till serviceagenter kunder en kunds aktuella försäljningsinformation genom att extrahera försäljningstrendinformation från själva lagret. En annan struktur som visas i figur 1.1 är ett formellt tillstånd för dw. Inte bara är detta platsen för genomförandet av den nödvändiga integrationen, kvaliteten på uppgifter, och omvandlingen av uppgifter av inkommande lager, men det är också ett pålitligt och tillfälligt lager för uppgifter replikat som skulle kunna användas i realtidsanalyser. Om du bestämmer dig för att använda en ODS eller ett iscensättningsområde, ett av de bästa verktygen för att fylla dessa strukturer uppgifter att använda olika operativa källor är DB2:s heterogena distribuerade fråga. Denna funktion levereras av den valfria DB2-funktionen som kallas DB2 Relational Connect (endast förfrågan) och genom DB2 DataJoiner (en separat produkt som ger möjlighet att fråga, infoga, uppdatera och ta bort till heterogena distribuerade RDBMS).

Denna teknik gör det möjligt för arkitekter uppgifter att knyta uppgifter produktion med analytiska processer. Inte bara kan tekniken anpassa sig till praktiskt taget alla replikeringskrav som kan uppstå med realtidsanalys, utan den kan också ansluta till en mängd olika databaser uppgifter mest populära, inklusive DB2, Oracle, Sybase, SQL Server, Informix och andra. DB2 DataJoiner kan användas för att fylla i en struktur uppgifter formell som en ODS eller till och med en permanent tabell representerad i lagret utformad för snabb återställning av omedelbara uppdateringar eller för försäljning. Naturligtvis samma strukturer uppgifter kan fyllas i med hjälp av

en annan viktig teknik designad för replikering av uppgifter, IBM DataPropagator Relational. (DataPropagator är en separat produkt för centrala system. DB2 UNIX, Linux, Windows och OS/2 inkluderar datareplikeringstjänster uppgifter som standardfunktion).
En annan metod för att flytta uppgifter Verksamhet runt företaget är en företagsapplikationsintegratör, annars känd som en meddelandeförmedlare. Denna unika teknik tillåter oöverträffad kontroll för inriktning och förflyttning uppgifter runt företaget. IBM har den mest använda meddelandeförmedlaren, MQSeries, eller en variant av produkten som inkluderar kraven för e-handel, IBM WebSphere MQ.
För mer diskussion om hur man kan utnyttja MQ för att stödja ett lager- och BI-miljö, besök webbplats av boken. För nu räcker det med att säga att denna teknik är ett utmärkt sätt att fånga och transformera (med MQSeries Integrator) uppgifter centrerade (riktade) operatörer rekryterade för BI-lösningar. MQ-tekniken har integrerats och paketerats i UDB V8, vilket innebär att meddelandeköer nu kan hanteras som om de vore DB2-tabeller. Konceptet att svetsa köade meddelanden och universum av databas relationella huvuden mot en kraftfull leveransmiljö av uppgifter.

Noll latens Noll latens

Det ultimata strategiska målet för IBM är noll-latensanalys. Som definieras av
Gartner måste ett BI-system kunna härleda, assimilera och tillhandahålla information till analytiker på begäran. Utmaningen är förstås hur man mixar uppgifter aktuell och realtid med nödvändig historisk information, såsom i uppgifter relaterat mönster/trend, eller extraherad förståelse, såsom kundprofilering.

Sådan information innefattar till exempel identifiering av kunder hög eller låg risk eller vilka produkter i kunder de kommer med största sannolikhet att köpa om de redan har ost i sina kundvagnar.

Att uppnå noll latens är faktiskt beroende av två grundläggande mekanismer:

  • Fullständig förening av uppgifter som analyseras med de etablerade tekniker och verktyg som skapats av BI
  • Ett leveranssystem av uppgifter effektivt för att säkerställa att realtidsanalys verkligen är tillgänglig. Dessa förutsättningar för noll latens skiljer sig inte från de två mål som IBM har satt upp och beskrivna ovan. Den nära parningen av uppgifter Det är en del av IBM:s sömlösa integrationsprogram. Och skapa ett leveranssystem av uppgifter effektiv är helt beroende av tillgänglig teknik som förenklar leveransprocessen av uppgifter. Som ett resultat är två av IBMs tre mål avgörande för att förverkliga det tredje. IBM utvecklar medvetet sin teknik för att säkerställa att noll latens är en realitet för lagerinsatser. Sammanfattning / Syntes BI-organisationen tillhandahåller en färdplan för att bygga din miljö
    iterativt. Den måste anpassas för att spegla ditt företags behov, både nuvarande och framtida. Utan en bred arkitektonisk vision är lager iterationer inte mycket mer än slumpmässiga implementeringar av centrallagret som inte gör mycket för att skapa ett brett, informativt företag. Det första hindret för projektledare är hur man motiverar de investeringar som behövs för att utveckla BI-organisationen. Även om ROI-beräkning har förblivit en stöttepelare i lagerimplementeringar, blir det svårare att förutsäga exakt. Detta har lett till andra metoder för att avgöra om du får värde för dina pengar. Värdet på investeringen2 (VOI), till exempel, marknadsförs som en lösning. Det åligger arkitekterna av uppgifter och projektplanerare genererar och tillhandahåller medvetet information till användarföreningar och tillhandahåller inte bara en tjänst till dem uppgifter. Det är en enorm skillnad mellan de två. Information är något som gör skillnad i beslutsfattande och effektivitet; relativt, dvs uppgifter de är byggstenar för att härleda den informationen.

Även om man är kritisk mot källan uppgifter För att hantera affärsförfrågningar bör BI-miljön spela en större roll för att skapa informationsinnehåll. Vi måste ta de extra stegen för att rensa, integrera, transformera eller på annat sätt skapa informationsinnehåll som användare kan agera på, och sedan måste vi säkerställa att dessa åtgärder och beslut, där det är rimligt, återspeglas i BI-miljön. Om vi ​​degraderar lagret till att bara tjäna på uppgifter, säkerställs att användarföreningar skapar det informationsinnehåll som behövs för att vidta åtgärder. Detta säkerställer att deras samhälle kommer att kunna fatta bättre beslut, men företaget lider av bristen på kunskap som de har använt. nollpunkts Eftersom arkitekter och projektplanerare initierar specifika projekt i BI-miljön förblir de ansvariga inför företaget som helhet. Ett enkelt exempel på denna tvåsidiga egenskap hos BI-iterationer finns i källan uppgifter. Alla uppgifter mottagna för specifika affärsförfrågningar måste fyllas i i det första atomskiktet. Detta säkerställer utvecklingen av företagets informationstillgång, samt hanterar, adresserar de specifika användarförfrågningar som definieras i iterationen.

WhatisaDataWarehouse?

Datalager det har varit hjärtat i informationssystemarkitekturen sedan 1990 och stödjer informationsprocesser genom att erbjuda en solid integrerad plattform uppgifter historiska data som ligger till grund för efterföljande analyser. DE datalagret de erbjuder enkel integration i en värld av inkompatibla applikationssystem. Datalager det har utvecklats till en trend. Datalager organisera och memorera i uppgifter nödvändig för information och analytiska processer utifrån ett långt historiskt tidsperspektiv. Allt detta medför ett stort och ständigt engagemang i uppförande och underhåll av datalagret.

Så vad är en datalagret? ETT datalagret är:

  • ▪ ämnesorienterad
  • ▪ integrerat system
  • ▪ varianttid
  • ▪ icke-flyktig (kan inte raderas)

en samling av uppgifter används för att stödja ledningsbeslut vid implementering av processer.
I uppgifter insatt i datalagret i de flesta fall härrör de från operativa miljöer. De datalagret den skapas av en lagringsenhet, fysiskt skild från resten av systemet, som den innehåller uppgifter som tidigare transformerats av applikationer som arbetar på information som härrör från operativmiljön.

Den bokstavliga definitionen av a datalagret förtjänar en djupgående förklaring då det finns viktiga motiveringar och bakomliggande betydelser som beskriver egenskaperna hos ett lager.

ÄMNESORIENTERING ORIENTERING TEMATISK

Den första egenskapen hos en datalagret är att den är inriktad mot de stora aktörerna i ett företag. Guiden för försöken genom uppgifter det står i motsats till den mer klassiska metoden som involverar orientering av applikationer mot processer och funktioner, en metod som oftast delas av de flesta av de mindre nya ledningssystemen.

Den operativa världen är designad kring applikationer och funktioner som lån, sparande, bankkort och förtroende för en finansiell institution. Dws värld är organiserad kring huvudämnen som kunden, säljaren, produkten och aktiviteten. Samordning kring ämnen påverkar utformningen och genomförandet av uppgifter finns i dw. Ännu viktigare är att huvudämnet påverkar den viktigaste delen av nyckelstrukturen.

Applikationens värld påverkas av både databasens design och processdesignen. Dws värld är uteslutande fokuserad på modellering uppgifter och om utformningen av databas. Processdesign (i sin klassiska form) är inte en del av dw-miljön.

Skillnaderna mellan val av process-/funktionsansökan och val av ämne avslöjas också som skillnader i innehållet i uppgifter på detaljnivå. DE uppgifter del dw inkluderar inte i uppgifter som inte kommer att användas för DSS-processen medan applikationer

verksamhetsinriktad uppgifter innehålla i uppgifter för att omedelbart tillgodose funktions-/bearbetningskrav som kan eller inte kan ha någon användning för DSS-analytikern.
Ett annat viktigt sätt på vilket verksamhetsinriktade applikationer uppgifter avvika från uppgifter av dw finns i rapporterna för uppgifter. Jag uppgifter verksamheten upprätthåller en kontinuerlig relation mellan två eller flera tabeller baserat på en affärsregel som är aktiv. DE uppgifter av dw korsar ett spektrum av tid och sambanden som finns i dw är många. Många handelsregler (och på motsvarande sätt många relationer av uppgifter ) är representerade i beståndet av uppgifter mellan två eller flera bord.

(För en detaljerad förklaring av hur relationerna mellan uppgifter hanteras i DW, hänvisar vi till Tech Topic i den frågan.)
Ur inget annat perspektiv än den grundläggande skillnaden mellan ett funktions-/processapplikationsval och ett ämnesval, finns det en större skillnad mellan operativsystem och uppgifter och DW.

INTEGRATION INTEGRATION

Den viktigaste aspekten av dw-miljön är att jag uppgifter som finns i dw är lätt integrerade. ALLTID. UTAN UNDANTAG. Själva kärnan i dw-miljön är att jag uppgifter som finns inom gränserna för lagret är integrerade.

Integration visar sig på många olika sätt – i konsekventa identifierade konventioner, i konsekvent variabel mätning, i konsekventa kodade strukturer, i de fysiska attributen hos uppgifter konsekvent och så vidare.

Genom åren har designers av olika applikationer tagit många beslut om hur en applikation ska utvecklas. Stilen och de individuella designbesluten för designers applikationer visar sig på hundra sätt: i skillnader i kodning, nyckelstruktur, fysiska egenskaper, identifierande konventioner och så vidare. Den kollektiva förmågan hos många applikationsdesigners att skapa inkonsekventa applikationer är legendarisk. Figur 3 visar några av de viktigaste skillnaderna i hur applikationer utformas.

Kodning: Koda:

Applikationsdesigners har valt fältets kodning – sex – på olika sätt. En designer representerar sex som ett "m" och "f". En annan designer representerar kön som en "1" och en "0". En annan designer representerar sex som ett "x" och "y". En annan designer representerar sex som "man" och "kvinnlig". Det spelar ingen större roll hur könet kommer in i DW. "M" och "F" är förmodligen lika bra som hela pjäsen.

Det som spelar roll är att från vilket ursprung könsfältet än härstammar kommer det fältet till DW i ett konsekvent integrerat tillstånd. Följaktligen när fältet laddas in i DW från en applikation där det har representerats i formatet "M" och "F", uppgifter måste konverteras till DW-format.

Mätning av attribut: Mätning av Attribut:

Applikationsdesigners har valt att mäta pipeline på en mängd olika sätt under åren. En designer lagrar uppgifter av rörledningen i centimeter. En annan applikationsdesigner lagrar uppgifter av rörledningen uttryckt i tum. En annan applikationsdesigner lagrar uppgifter av rörledningen i miljoner kubikfot per sekund. Och en annan designer lagrar pipelineinformation i termer av varv. Oavsett källa, när rörledningsinformation kommer till DW måste den mätas på samma sätt.

Enligt indikationerna i figur 3 påverkar integrationsfrågor nästan alla aspekter av projektet – de fysiska egenskaperna hos uppgifter, dilemmat att ha mer än en källa till uppgifter, frågan om inkonsekventa identifierade prover, format av uppgifter inkonsekvent och så vidare.

Oavsett designämne är resultatet detsamma – dvs uppgifter måste lagras i DW på ett unikt och globalt acceptabelt sätt även när de underliggande operativsystemen lagrar dem på olika sätt uppgifter.

När DSS-analytikern tittar på DW, bör analytikerns mål vara att utnyttja uppgifter som finns i lagret,

snarare än att undra över trovärdigheten eller konsekvensen av uppgifter.

TIDSVARIANS

allt uppgifter i DW är de exakta till någon tidpunkt. Denna grundläggande egenskap hos uppgifter i DW är mycket annorlunda från uppgifter finns i driftmiljön. DE uppgifter av driftsmiljön är lika exakta som vid tillträdesögonblicket. Med andra ord i driftsmiljön när en enhet är åtkomlig uppgifter, förväntas det återspegla exakta värden som vid tidpunkten för åtkomst. För jag uppgifter i DW är exakta som vid någon tidpunkt (dvs inte "just nu"), sägs det att jag uppgifter som finns i DW är "tidsvarians".
Tidsvariationen av uppgifter av DW hänvisas till på många sätt.
Det enklaste sättet är att jag uppgifter av en DW representerar uppgifter över en lång tidshorisont – fem till tio år. Den representerade tidshorisonten för driftsmiljön är mycket kortare än dagens nuvarande värden från upp till sextio nittio
Applikationer som måste fungera väl och som måste vara tillgängliga för transaktionsbehandling måste innehålla minsta mängd uppgifter om de tillåter någon grad av flexibilitet. Så operativa applikationer har en kort tidshorisont, som ett ämne för design av ljudapplikationer.
Det andra sättet "tidsvarians" visas i DW är i nyckelstrukturen. Varje nyckelstruktur i DW innehåller, implicit eller explicit, ett tidselement, såsom dag, vecka, månad, etc. Tidselementet är nästan alltid längst ner i den sammanlänkade nyckeln som finns i DW. Vid dessa tillfällen kommer tidselementet att existera implicit, till exempel fallet där en hel fil dupliceras i slutet av månaden eller kvartalet.
Det tredje sättet att visa tidsvariationen är att jag uppgifter av DW, när den väl har registrerats korrekt, kan den inte uppdateras. DE uppgifter av DW är, för alla praktiska ändamål, en lång serie ögonblicksbilder. Naturligtvis om ögonblicksbilderna togs felaktigt, kan ögonblicksbilderna modifieras. Men förutsatt att ögonblicksbilderna är tagna på rätt sätt, ändras de inte så fort de tas. I några

I vissa fall kan det vara oetiskt eller till och med ogiltigt för ögonblicksbilder i DW att modifieras. DE uppgifter operativa, eftersom de är exakta som vid tillträdesögonblicket, kan de uppdateras när behov uppstår.

INTE FLYKTIG

Den fjärde viktiga egenskapen hos DW är att den är icke-flyktig.
Uppdateringar, infogningar, raderingar och modifieringar görs regelbundet i operativa miljöer på en rekord-för-post-basis. Men den grundläggande manipulationen av uppgifter som behövs i DW är mycket enklare. Det finns bara två typer av operationer som förekommer i DW - den initiala laddningen av uppgifter och tillgång till uppgifter. Det finns ingen uppdatering av uppgifter (i den allmänna meningen av uppdatering) i DW som en normal bearbetningsoperation. Det finns några mycket kraftfulla konsekvenser av denna grundläggande skillnad mellan operativ bearbetning och DW-bearbetning. På designnivå är behovet av att vara försiktig med onormal uppdatering inte en faktor i DW, eftersom uppdateringen av uppgifter inte genomförs. Detta innebär att på den fysiska designnivån kan man ta sig friheter att optimera tillgången till uppgifter, särskilt när det gäller ämnena fysisk normalisering och denormalisering. En annan konsekvens av DW-driftens enkelhet ligger i den underliggande teknologin som används för att driva DW-miljön. Att behöva stödja inline-post-för-post-uppdateringar (som ofta är fallet med operativ bearbetning) kräver att tekniken har en mycket komplex grund under uppenbar enkelhet.
Tekniken som stöder säkerhetskopiering och återställning, transaktioner och integritet av uppgifter och upptäckten och åtgärden av dödlägestillståndet är ganska komplext och inte nödvändigt för DW-bearbetning. Egenskaperna hos en DW, designorientering, integration av uppgifter inom DW, tidsvariation och enkelhet i hanteringen uppgifter, det hela leder till en miljö som är väldigt, väldigt olik den klassiska driftmiljön. Källan till nästan alla uppgifter av DW är driftsmiljön. Det är frestande att tro att det finns en massiv redundans av uppgifter mellan de två miljöerna.
Faktum är att det första intrycket som många människor har är att det är en stor redundans uppgifter mellan verksamhetsmiljön och miljön av

DW. En sådan tolkning är ytlig och visar en bristande förståelse för vad som händer i DW.
Det finns faktiskt ett minimum av redundans uppgifter mellan driftsmiljön och i uppgifter av DW. Tänk på följande:I uppgifter de filtreras dato byte från driftmiljön till DW-miljön. Många uppgifter de passerar aldrig utanför driftsmiljön. Förutom att jag uppgifter som är nödvändiga för DSS-bearbetning hittar sin riktning i miljön

▪ tidshorisonten för uppgifter det är väldigt olika från en miljö till en annan. DE uppgifter i driftsmiljön är de väldigt fräscha. DE uppgifter i DW är de mycket äldre. Endast ur tidshorisontsperspektivet finns det mycket liten överlappning mellan den operativa miljön och DW.

▪ DW innehåller uppgifter sammanfattning som aldrig finns i miljön

▪ Jag uppgifter genomgår en fundamental omvandling när de övergår till figur 3 illustrerar att de flesta uppgifter är väsentligt modifierade förutsatt att de väljs och flyttas till DW. Med andra ord, det mesta uppgifter den förändras fysiskt och radikalt när den flyttas in i DW. Ur integrationssynpunkt är de inte samma sak uppgifter som finns i driftmiljön. Mot bakgrund av dessa faktorer, redundansen av uppgifter mellan de två miljöerna är en sällsynt händelse, vilket leder till mindre än 1 % redundans mellan de två miljöerna. LAGRETS STRUKTUR DW har en distinkt struktur. Det finns olika nivåer av sammanfattning och detaljer som avgränsar DW:erna.
De olika komponenterna i en DW är:

  • metadata
  • Ge aktuella detaljer
  • Ge av gamla detaljer
  • Ge lite sammanfattat
  • Ge mycket sammanfattad

Den överlägset största oro är för i uppgifter aktuella detaljer. Det är det främsta problemet eftersom:

  • I uppgifter aktuella detaljer speglar de senaste händelserna, som alltid är av stort intresse och
  • i uppgifter av aktuell detalj är voluminös eftersom den lagras på den lägsta nivån av granularitet och
  • i uppgifter Aktuella detaljer lagras nästan alltid på diskminne, vilket är snabbt att komma åt, men dyrt och komplicerat att använda uppgifter detaljerna är äldre uppgifter som är lagrade i något minne Massa. Den nås sporadiskt och lagras på en detaljnivå som är kompatibel med uppgifter aktuella detaljer. Även om det inte är obligatoriskt att lagra på ett alternativt lagringsmedium, på grund av den stora volymen av uppgifter kombinerat med sporadisk tillgång till uppgifter, lagringsmediet för uppgifter äldre detaljdata lagras vanligtvis inte på disken. DE uppgifter lätt sammanfattade är de uppgifter som destilleras från den låga detaljnivån som finns till den nuvarande detaljnivån. Denna nivå av DW lagras nästan alltid på disklagring. Designproblemen som arkitekten står inför uppgifter i konstruktionen av denna nivå av DW är:
  • Vilken tidsenhet är sammanfattningen ovan
  • Vilket innehåll, attribut kommer att sammanfatta innehållet i uppgifter Nästa nivå av uppgifter finns i DW är det av uppgifter mycket sammanfattad. DE uppgifter mycket sammanfattade är kompakta och lättillgängliga. DE uppgifter mycket sammanfattade finns ibland i DW-miljön och i andra fall i uppgifter mycket sammanfattade finns utanför de omedelbara väggarna av tekniken som inrymmer DW. (i alla fall, dvs uppgifter mycket sammanfattade är en del av DW oavsett var jag uppgifter är fysiskt inhysta). Den sista komponenten i DW är metadata. I många avseenden sitter metadata i en annan dimension än andra uppgifter av DW, eftersom metadata inte innehåller några dato tagna direkt från driftmiljön. Metadata har en speciell och mycket viktig roll i DW. Metadata används som:
  • en katalog för att hjälpa DSS-analytikern att hitta innehållet i DW,
  • en guide för att kartlägga uppgifter av hur jag uppgifter har förvandlats från operativ miljö till DW-miljö,
  • en guide till de algoritmer som används för att summera mellan uppgifter av aktuella detaljer ei uppgifter något sammanfattat, dvs uppgifter mycket sammanfattat spelar Metadata en mycket större roll i DW-miljön än den någonsin haft i den operativa miljön GAMMAL DETALJ FÖRVARINGSMEDEL Magnettejp kan användas för att förvara den sortens uppgifter. Faktum är att det finns ett brett utbud av lagringsmedia som bör övervägas för gammal lagring uppgifter av detaljer. Beroende på volymen av uppgifterfrekvensen av åtkomst, kostnaden för verktygen och typen av åtkomst, är det helt troligt att andra verktyg kommer att behöva den gamla detaljnivån i DW. DATAFLÖDE Det finns ett normalt och förutsägbart flöde av uppgifter inom DW.
    I uppgifter de går in i DW från operativmiljön. (OBS: Det finns några mycket intressanta undantag från denna regel. Men nästan alla uppgifter ange DW från operativmiljön). nollpunkts att jag uppgifter ange DW från operativmiljön, transformeras den som den beskrevs tidigare. Under förutsättning att man går in i DW, dvs uppgifter ange den aktuella detaljnivån, som visas. Den finns där och används tills en av tre händelser inträffar:
  • är renad,
  • sammanfattas, och/eller ▪è Den föråldrade processen inom en DW flyttar i uppgifter aktuella detaljer a uppgifter av detalj gammal, enligt ålder av uppgifter. Processen

sammanfattning använder detaljen av uppgifter att beräkna uppgifter lätt sammanfattade och mycket sammanfattade nivåer av uppgifter. Det finns några undantag från det visade flödet (kommer att diskuteras senare). Men vanligtvis för de allra flesta uppgifter finns inom en DW, flödet av uppgifter det är som representerat.

ANVÄNDA DATAWAREHOUSE

Inte överraskande de olika nivåerna av uppgifter inom DW får de inte olika användningsnivåer. Som regel gäller att ju högre sammanfattningsnivå, desto mer i uppgifter de är använda.
Många användningsområden förekommer i uppgifter mycket sammanfattat, medan det gamla uppgifter detaljer används nästan aldrig. Det finns en god anledning att flytta organisationen till resursutnyttjandeparadigmet. Mer sammanfattat i uppgifter, desto snabbare och effektivare är det att komma fram till uppgifter. Om en butiken upptäcker att den gör många processer på detaljnivån för DW, då förbrukas en motsvarande stor mängd maskinresurser. Det ligger i allas bästa att bearbeta en så hög nivå av sammanfattningar så snart som möjligt.

För många butiker har DSS-analytikern i en pre-DW-miljö använt uppgifter på detaljnivå. I många avseenden ankomsten kl uppgifter detaljerad sammanfattning liknar en säkerhetsfilt, även när andra sammanfattningsnivåer är tillgängliga. En av arkitektens aktiviteter uppgifter är att avvänja DSS-användaren från konstant användning av uppgifter på lägsta detaljnivå. Det finns två motiveringar tillgängliga för arkitekten uppgifter:

  • genom att installera ett återkravssystem, där slutanvändaren betalar för de resurser som förbrukas och
  • vilket tyder på att mycket god responstid kan uppnås när beteendet med bl.a uppgifter är på en hög sammanfattningsnivå, medan den dåliga svarstiden kommer från beteendet hos uppgifter på en låg nivå av ANDRA ÖVERVÄGANDEN Det finns några andra DW-konstruktions- och förvaltningsöverväganden.
    Det första övervägandet är index. DE uppgifter vid högre sammanfattningar kan de fritt indexeras, medan i uppgifter

på lägre detaljnivåer är de så skrymmande att de kan indexeras sparsamt. Av samma skäl, dvs uppgifter vid höga detaljnivåer kan relativt enkelt omstruktureras, medan volymen av uppgifter på de lägre nivåerna är den så stor att jag uppgifter de kan inte lätt renoveras. Följaktligen modellen av uppgifter och det formella arbetet med designen lägger grunden för den DW som nästan uteslutande tillämpas på nuvarande detaljnivå. Med andra ord, modelleringsverksamheten för uppgifter de gäller inte för sammanfattningsnivåer, i nästan alla fall. Ett annat strukturellt övervägande är att indelningen av uppgifter av DW.

Partitionen kan göras på två nivåer - på nivån för dbms och på applikationsnivå. I divisionen på nivån dbms, The dbms informeras om indelningarna och kontrollerar dem därefter. Vid uppdelning på applikationsnivå är endast programmeraren informerad om divisionerna och ansvaret för deras administration överlåts till honom

Under nivå dbms, mycket arbete görs automatiskt. Det finns en hel del oflexibilitet förknippad med att automatiskt administrera divisioner. Vid avdelningar på tillämpningsnivå av uppgifter del datalagret, mycket arbete tynger programmeraren, men slutresultatet är flexibilitet i administrationen av uppgifter nel datalagret

ALTRE ANOMALI

Medan komponenterna i datalagret De fungerar enligt beskrivningen för nästan alla uppgifter, det finns några användbara undantag som måste diskuteras. Ett undantag är att uppgifter offentliga sammanfattande uppgifter. Dessa är uppgifter sammanfattningar som har beräknats ur datalagret men de används av samhället. DE uppgifter offentliga sammanfattningar lagras och hanteras i datalagret, även om de som tidigare nämnts är uträknade. Revisorer arbetar för att producera sådana kvartalsvis uppgifter såsom inkomster, kvartalskostnader, kvartalsvinster och så vidare. Arbetet som utförs av revisorer är externt mot datalagret. Hur som helst, jag uppgifter används ”internt” inom företaget – från marknadsföring, försäljning osv. En annan anomali, som inte kommer att diskuteras, är den av uppgifter extern.

En annan enastående typ av uppgifter som finns i en datalagret är den för permanenta detaljdata. Dessa orsakar behovet av att permanent lagra uppgifter på en detaljerad nivå av etiska eller juridiska skäl. Om ett företag utsätter sina anställda för farliga ämnen finns det ett behov av det uppgifter detaljerad och permanent. Om ett företag producerar en produkt som involverar allmän säkerhet, såsom flygplansdelar, finns det ett behov av det uppgifter permanenta detaljer, samt om ett företag ingår farliga kontrakt.

Företaget har inte råd att förbise detaljer eftersom under de närmaste åren, vid stämning, återkallelse, omtvistat byggfel m.m. bolagets exponering kan vara stor. Som ett resultat finns det en unik typ av uppgifter känd som permanent detaljdata.

SAMMANFATTNING

Un datalagret är en objektorienterad, integrerad, tidsvariant, en samling av uppgifter icke-flyktiga för att stödja förvaltningens beslutsbehov. Var och en av de framträdande funktionerna i en datalagret har sina konsekvenser. Plus att det finns fyra nivåer av uppgifter del datalagret:

  • Gammal detalj
  • Aktuell detalj
  • Ge lite sammanfattat
  • Ge mycket sammanfattad Metadata är också en viktig del av datalagret. ABSTRAKT Konceptet med lagring av uppgifter Det har nyligen fått mycket uppmärksamhet och har blivit en trend på 90-talet. Detta beror på förmågan hos en datalagret för att övervinna begränsningarna hos ledningsstödsystem såsom beslutsstödssystem (DSS) och executive information system (EIS). Även om begreppet datalagret ser lovande ut, implementera i datalagret kan vara problematiskt på grund av storskaliga lagerprocesser. Trots komplexiteten i lagerprojekt uppgifter, många leverantörer och konsulter som lagerför uppgifter de hävdar att lagring av uppgifter strömmen orsakar inga problem. Men i början av detta forskningsprojekt hade nästan ingen oberoende, rigorös och systematisk forskning utförts. Därför är det svårt att säga vad som faktiskt händer i branschen när de byggs datalagret. Denna studie undersökte lagringspraxis uppgifter samtida som syftar till att utveckla en rikare förståelse för australiensisk praxis. Litteraturgenomgången gav sammanhanget och grunden för den empiriska studien. Det finns ett antal resultat från denna forskning. Först avslöjade denna studie de aktiviteter som uppstod under utvecklingen av datalagret. På många områden, dvs uppgifter insamlade bekräftade den praxis som rapporterats i litteraturen. För det andra, de frågor och problem som kan påverka utvecklingen av datalagret identifierades av denna studie. Slutligen fördelar som vunnits av australiska organisationer i samband med användningen av datalagret har avslöjats.

Kapitel 1

Sök sammanhang

Begreppet datalager fick stor exponering och blev en framväxande trend under 90-talet (McFadden 1996, TDWI 1996, Shah och Milstein 1997, Shanks et al. 1997, Eckerson 1998, Adelman och Oates 2000). Detta kan ses av det växande antalet artiklar om datalagring i fackpublikationer (Little och Gibson 1999). Många artiklar (se t.ex. Fisher 1995, Hackathorn 1995, Morris 1995a, Bramblett och King 1996, Graham et al. 1996, Sakaguchi och Frolick 1996, Alvarez 1997, Brousell 1997, Clarke 1997, Don McCarthy 1997, 1997 McCarthy 1998'1999, XNUMX McCarthy Edwards XNUMX, TDWI XNUMX) har rapporterat betydande fördelar som uppnåtts av organisationer som implementerar i datalagret. De stödde sin teori med anekdotiska bevis på framgångsrika implementeringar, hög avkastning på investeringen (ROI) och även genom att tillhandahålla riktlinjer eller metoder för att utveckla datalagret

(Shanks et al. 1997, Seddon och Benjamin 1998, Little och Gibson 1999). I ett extremt fall, Graham et al. (1996) rapporterade en genomsnittlig avkastning på en treårig investering på 401%.

Mycket av den aktuella litteraturen har dock förbisett komplexiteten i att genomföra sådana projekt. Projekten av datalagret de är normalt komplexa och storskaliga och har därför stor sannolikhet att misslyckas om de inte kontrolleras noggrant (Shah och Milstein 1997, Eckerson 1997, Foley 1997b, Zimmer 1997, Bort 1998, Gibbs och Clymer 1998, Rao 1998). De kräver stora mängder av både mänskliga och ekonomiska resurser och tid och ansträngning för att bygga dem (Hill 1998, Crofts 1998). Den typiska tiden och de ekonomiska medlen som krävs är ungefär två år respektive två till tre miljoner dollar (Braly 1995, Foley 1997b, Bort 1998, Humphries et al. 1999). Denna tid och ekonomiska medel krävs för att kontrollera och konsolidera många olika aspekter av datalagring (Cafasso 1995, Hill 1998). Vid sidan av hård- och mjukvaruöverväganden, andra funktioner, som varierar från utvinning av uppgifter till lastningsprocesserna av uppgifter, minneskapaciteten för att hantera uppdateringar och meta uppgifter för användarutbildning, måste övervägas.

Vid den tidpunkt då detta forskningsprojekt startade bedrivs det mycket lite akademisk forskning inom området datalager, särskilt i Australien. Detta framgick av bristen på publicerade artiklar om datalagring från tidskrifter eller andra akademiska skrifter på den tiden. Många av de tillgängliga akademiska skrifterna beskrev USA:s erfarenhet. Bristen på akademisk forskning inom området datalager har orsakat krav på rigorös forskning och empiriska studier (McFadden 1996, Shanks et al. 1997, Little och Gibson 1999). I synnerhet forskningsstudier om implementeringsprocessen av datalagret behöver utföras för att utöka den allmänna kunskapen om genomförandet av datalagret och kommer att tjäna som grund för en framtida forskningsstudie (Shanks et al. 1997, Little och Gibson 1999).

Syftet med denna studie är därför att studera vad som faktiskt händer när organisationer genomför och använder i datalagret i Australien. Specifikt kommer denna studie att involvera en analys av en hel utvecklingsprocess av en datalagret, med början från initiering och planering till design och implementering och efterföljande användning inom australiska organisationer. Dessutom kommer studien också att bidra till nuvarande praxis genom att identifiera områden där praktiken kan förbättras ytterligare och ineffektivitet och risker kan minimeras eller undvikas. Vidare kommer den att fungera som underlag för andra studier om datalagret i Australien och kommer att fylla den lucka som för närvarande finns i litteraturen.

Forskningsfrågor

Målet med denna forskning är att studera de aktiviteter som är involverade i genomförandet av datalagret och deras användning av australiska organisationer. Speciellt studeras moment rörande projektering, utveckling, drift, användning och risker. Så frågan om denna forskning är:

"Vad är den nuvarande praxisen för datalagret i Australien?"

För att effektivt svara på denna fråga krävs ett antal underordnade forskningsfrågor. I synnerhet identifierades tre delfrågor från litteraturen, som presenteras i kapitel 2, för att vägleda detta forskningsprojekt: Hur är datalagret från australiska organisationer? Vilka problem har du stött på?

Vilka är fördelarna?
För att besvara dessa frågor användes en explorativ forskningsdesign med en undersökning. Som en explorativ studie är svaren på ovanstående frågor inte fullständiga (Shanks et al. 1993, Denscombe 1998). I det här fallet krävs triangulering för att förbättra svaren på dessa frågor. Utredningen kommer dock att ge en solid grund för det framtida arbetet med att undersöka dessa frågor. En utförlig diskussion om forskningsmetods motivering och design redovisas i kapitel 3.

Forskningsprojektets struktur

Detta forskningsprojekt är uppdelat i två delar: den kontextuella studien av datalagerkonceptet och den empiriska forskningen (se figur 1.1), som var och en diskuteras nedan.

Del I: Kontextstudier

Den första delen av forskningen bestod av att granska aktuell litteratur om olika typer av datalager inklusive beslutsstödssystem (DSS), executive information system (EIS), fallstudier av datalagret och begreppen datalagret. Dessutom resultaten av forumen datalagret och expert- och praktikermötesgrupper ledda av Monash DSS-forskargruppen, bidrog till denna fas av studien som var avsedd att få insikter i praktiken av datalagret och att identifiera riskerna med att anta dem. Under denna kontextuella studieperiod etablerades förståelse för problemområdet för att ge bakgrundskunskapen för efterföljande empiriska undersökningar. Detta var dock en pågående process under genomförandet av forskningsstudien.

Del II: Empirisk forskning

Det relativt nya konceptet med datalager, särskilt i Australien, har skapat behov av en undersökning för att få en bred bild av användarupplevelsen. Denna del genomfördes när problemdomänen hade etablerats genom omfattande litteraturgenomgång. Datalagringskonceptet som bildades under den kontextuella studiefasen användes som input för det första frågeformuläret för denna studie. Efter detta granskades frågeformuläret. Ni är experter på datalagret deltog i provet. Syftet med att testa det första frågeformuläret var att kontrollera frågornas fullständighet och riktighet. Baserat på testresultaten modifierades frågeformuläret och den modifierade versionen skickades till undersökningsdeltagarna. De returnerade frågeformulären analyserades sedan för bl.a uppgifter i tabeller, diagram och andra format. DE

analysresultat av uppgifter de bildar en ögonblicksbild av datalagringspraxis i Australien.

DATAWAREHOUSING ÖVERSIKT

Begreppet datalager har utvecklats med förbättringar inom datorteknik.
Det syftar till att övervinna de problem som applikationsstödgrupper som Decision Support System (DSS) och Executive Information System (EIS) möter.

Tidigare har det största hindret för dessa applikationer varit dessa applikationers oförmåga att tillhandahålla en databas nödvändig för analysen.
Detta beror främst på karaktären av ledningens arbete. Företagsledningens intressen varierar ständigt beroende på vilket område som omfattas. Därför jag uppgifter grundläggande för dessa applikationer måste de kunna ändras snabbt beroende på vilken del som ska behandlas.
Det betyder att jag uppgifter måste finnas tillgänglig i lämplig form för de efterfrågade analyserna. Faktum är att applikationsstödgrupper hade mycket svårt förr att samla in och integrera uppgifter från komplexa och olika källor.

Resten av det här avsnittet presenterar en översikt över konceptet med datalager och diskuterar hur datalagret kan övervinna problemen med applikationsstödgrupper.
Termen "Datalager” populariserades av William Inmon 1990. Hans ofta citerade definition ser Datalager som en samling av uppgifter ämnesorienterad, integrerad, icke-flyktig och varierande över tid, till stöd för ledningsbeslut.

Genom att använda denna definition framhäver Inmon att jag uppgifter bosatt i en datalagret de måste ha följande fyra egenskaper:

  • ▪ Ämnesinriktad
  • ▪ Integrerad
  • ▪ Icke-flyktig
  • ▪ Variabel över tid Med ämnesorienterad Inmon menas att jag uppgifter nel datalagret inom de största organisatoriska områden som funnits

definieras i modellen uppgifter. Till exempel alla uppgifter angående kunder finns i ämnesområdet KUNDER. Likaså alla uppgifter relaterade till produkterna finns i ämnesområdet PRODUKTER.

Med Integrated Inmon betyder att jag uppgifter som kommer från olika plattformar, system och platser kombineras och lagras på ett ställe. Följaktligen uppgifter liknande måste omvandlas till konsekventa format så att de enkelt kan läggas till och jämföras.
Till exempel representeras manligt och kvinnligt kön av bokstäverna M och F i ett system och av 1 och 0 i ett annat. För att integrera dem ordentligt måste ett eller båda formaten transformeras så att de två formaten är samma. I det här fallet kan vi ändra M till 1 och F till 0 eller vice versa. Ämnesorienterad och Integrerad indikerar att datalagret är utformad för att ge en funktionell och tvärgående vision av uppgifter från företaget.

Med Non-volatile menar han att jag uppgifter nel datalagret förbli konsekvent och uppdateringen av uppgifter Det är inte nödvändigt. Istället varje förändring i uppgifter original läggs till databas del datalagret. Detta innebär att den historiska dei uppgifter finns i datalagret.

För variabler med tid indikerar Inmon att jag uppgifter nel datalagret innehåller alltid ei tidsindikatorer uppgifter de korsar normalt en viss tidshorisont. Till exempel a
datalagret kan innehålla 5 års historiska värden av kunder från 1993 till 1997. Tillgängligheten av historien och en tidsserie av uppgifter låter dig analysera trender.

Un datalagret han kan samla sina egna uppgifter från OLTP-system; uppgifter externt till organisationen och/eller av andra speciella fångstsystemprojekt uppgifter.
I uppgifter extrakt kan gå igenom en rengöringsprocess, i det här fallet dvs uppgifter omvandlas och integreras innan de lagras i databas del datalagret. Sedan, jag uppgifter

invånare inom databas del datalagret görs tillgängliga för slutanvändarinloggningar och återställningsverktyg. Med hjälp av dessa verktyg kan slutanvändaren få tillgång till den integrerade vyn över organisationen uppgifter.

I uppgifter invånare inom databas del datalagret de lagras både i detalj och i sammanfattningsformat.
Nivån på sammanfattningen kan bero på typen av uppgifter. Jag uppgifter detaljerad kan bestå av uppgifter nuvarande och uppgifter historiker
I uppgifter royalties ingår inte i datalagret tills jag uppgifter nel datalagret är uppdaterade.
Förutom att lagra uppgifter sig själva, a datalagret den kan också lagra en annan typ av dato kallas METADATA som beskriver uppgifter invånare i hans databas.
Det finns två typer av metadata: utvecklingsmetadata och analysmetadata.
Utvecklingsmetadata används för att hantera och automatisera processerna för utvinning, rensning, kartläggning och laddning av uppgifter nel datalagret.
Informationen i utvecklingsmetadata kan innehålla detaljer om operativsystem, detaljer om de element som ska extraheras, modellen uppgifter del datalagret och affärsregler för konvertering uppgifter.

Den andra typen av metadata, känd som analytisk metadata, gör det möjligt för slutanvändaren att utforska innehållet i datalagret att hitta uppgifter tillgängliga och deras innebörd i tydliga, icke-tekniska termer.

Därför fungerar analytisk metadata som en brygga mellan datalagret och slutanvändarapplikationer. Denna metadata kan innehålla affärsmodellen, beskrivningar av uppgifter motsvarande affärsmodellen, fördefinierade frågor och rapporter, information för användaråtkomst och index.

Analys- och utvecklingsmetadata måste kombineras till en enda integrerad inneslutningsmetadata för att fungera korrekt.

Tyvärr har många av de befintliga verktygen sina egna metadata och det finns för närvarande inga befintliga standarder för det

tillåta datalagerverktyg att integrera denna metadata. För att råda bot på denna situation bildade många handlare av de viktigaste datalagerverktygen Meta Data Council som senare blev Meta Data Coalition.

Målet med denna koalition är att bygga en standardmetadatauppsättning som tillåter olika datalagerverktyg att konvertera metadata
Deras ansträngningar resulterade i födelsen av Meta Data Interchange Specification (MDIS) som kommer att möjliggöra utbyte av information mellan Microsofts arkiv och relaterade MDIS-filer.

Existensen av uppgifter både sammanfattad/indexerad och detaljerad ger användaren möjlighet att utföra en DRILLDRUKNING (borrning) från uppgifter indexeras till detaljerade och vice versa. Existensen av uppgifter detaljerade historik gör det möjligt att skapa trendanalyser över tid. Dessutom kan analysmetadata användas som en katalog för databas del datalagret för att hjälpa slutanvändare att hitta uppgifter nödvändig.

I jämförelse med OLTP-system, med deras förmåga att stödja analys av uppgifter och rapportering, den datalagret det ses som ett mer lämpligt system för informationsprocesser som att göra och svara på frågor och producera rapporter. Nästa avsnitt kommer att belysa skillnaderna mellan de två systemen i detalj.

DATALAGER MOT OLTP-SYSTEM

Många av informationssystemen inom organisationer är avsedda att stödja den dagliga verksamheten. Dessa system som kallas OLTP SYSTEMS, fångar kontinuerligt uppdaterade dagliga transaktioner.

I uppgifter inom dessa system ändras, läggs eller raderas de ofta. Till exempel ändras en kunds adress när han flyttar från en plats till en annan. I detta fall kommer den nya adressen att registreras genom att adressfältet ändras databas. Huvudsyftet med dessa system är att minska transaktionskostnaderna och samtidigt minska handläggningstiden. Exempel på OLTP-system inkluderar kritiska åtgärder som orderinmatning, lön, faktura, tillverkning, kundservice kunder.

Till skillnad från OLTP-system, som skapades för transaktions- och händelsebaserade processer, dvs datalagret skapades för att ge stöd för analysbaserade processer uppgifter och beslutsprocesser.

Detta uppnås normalt genom att integrera i uppgifter från olika OLTP och externa system i en enda "behållare" av uppgifter, som diskuterades i föregående avsnitt.

Monash Data Warehousing Process Model

Processmodellen för datalagret Monash utvecklades av forskare vid Monash DSS Research Group och bygger på litteraturen från datalagret, om erfarenhet av att stödja utvecklingen av systemområden, om diskussioner med leverantörer av applikationer för användning på datalagret, på en grupp experter på användningen av datalagret.

Faserna är: Initiering, Planering, Utveckling, Verksamhet och Förklaringar. Diagrammet förklarar den iterativa eller evolutionära karaktären av utvecklingen av en datalagret process med hjälp av tvåvägspilar placerade mellan de olika faserna. I detta sammanhang betyder "iterativ" och "evolutionär" att implementeringsaktiviteter i varje steg i processen alltid kan fortplanta sig bakåt mot föregående fas. Detta beror på ett projekts karaktär datalagret där ytterligare förfrågningar från slutanvändaren uppstår när som helst. Till exempel under utvecklingsfasen av en process datalagret, efterfrågas en ny dimension eller ämnesområde av slutanvändaren, vilket inte ingick i den ursprungliga planen, måste detta läggas till i systemet. Detta orsakar en förändring i projektet. Resultatet är att designteamet måste ändra kraven på de dokument som hittills skapats under designfasen. I många fall måste projektets nuvarande tillstånd gå tillbaka till designfasen där det nya kravet ska läggas till och dokumenteras. Slutanvändaren ska kunna se den specifika dokumentation som granskats och de ändringar som har gjorts i utvecklingsfasen. I slutet av denna utvecklingscykel måste projektet få utmärkt feedback från både utvecklings- och användarteam. Feedbacken återanvänds sedan för att förbättra ett framtida projekt.

Kapacitetsplanering
Dw tenderar att vara mycket stor i storlek och växa mycket snabbt (Best 1995, Rudin 1997a) som ett resultat av mängden uppgifter historia som de behåller från sin varaktighet. Tillväxt kan också orsakas av uppgifter tillägg som begärs av användare för att öka värdet på uppgifter som de redan har. Följaktligen lagringskraven för uppgifter kan förbättras avsevärt (Eckerson 1997). Därför är det väsentligt att säkerställa, genom att genomföra kapacitetsplanering, att systemet som byggs kan växa när behoven växer (Best 1995, LaPlante 1996, Lang 1997, Eckerson 1997, Rudin 1997a, Foley 1997a).
Vid planering för skalbarhet av databasen måste man känna till den förväntade tillväxten i storleken på lagret, vilka typer av frågor som sannolikt kommer att göras och antalet slutanvändare som stöds (Best 1995, Rudin 1997b, Foley 1997a). Att bygga skalbara applikationer kräver en kombination av skalbara serverteknologier och skalbara applikationsdesigntekniker (Best 1995, Rudin 1997b. Båda är nödvändiga för att bygga en mycket skalbar applikation. Skalbar serverteknologi kan göra det enkelt och fördelaktigt att lägga till lagring, minne och CPU utan att försämra performance (Lang 1997, Telephony 1997).

Det finns två huvudsakliga skalbara serverteknologier: symmetrisk multipelbehandling (SMP) och massiv parallell bearbetning (MPP) (IDC 1997, Humphries et al. 1999). En SMP-server har vanligtvis flera processorer som delar ett minne, systembuss och andra resurser (IDC 1997, Humphries et al. 1999). Ytterligare processorer kan läggas till för att öka dess Potenza beräkningsmässigt. En annan metod för att öka Potenza av SMP-servern, är att kombinera många SMP-maskiner. Denna teknik är känd som klustring (Humphries et al. 1999). En MPP-server, å andra sidan, har flera processorer var och en med sitt eget minne, bussystem och andra resurser (IDC 1997, Humphries et al. 1999). Varje processor kallas en nod. En ökning i Potenza beräkning kan uppnås

lägga till ytterligare noder till MPP-servrar (Humphries et al. 1999).

En svaghet med SMP-servrar är att för många input-output (I/O) operationer kan överbelasta systembussen (IDC 1997). Detta problem uppstår inte inom MPP-servrar eftersom varje processor har sitt eget bussystem. Emellertid är sammankopplingarna mellan varje nod i allmänhet mycket långsammare än SMP-bussystemet. Dessutom kan MPP-servrar lägga till en ytterligare komplexitetsnivå för applikationsutvecklare (IDC 1997). Således kan valet mellan SMP- och MPP-servrar påverkas av många faktorer, inklusive applikationernas komplexitet, pris/prestanda-förhållandet, den nödvändiga bearbetningskapaciteten, de förhindrade dw-applikationerna och ökningen av storleken på databas av dw och i antalet slutanvändare.

Många skalbara applikationsdesigntekniker kan användas vid kapacitetsplanering. Man använder olika anmälningsperioder som dagar, veckor, månader och år. Med olika anmälningsperioder databas den kan delas in i hanterbart grupperade bitar (Inmon et al. 1997). En annan teknik är att använda sammanfattningstabeller som är konstruerade genom att summera uppgifter da uppgifter detaljerad. Så jag uppgifter sammanfattade är mer kompakta än detaljerade, vilket kräver mindre minnesutrymme. Så den uppgifter detaljer kan lagras i en billigare förvaringsenhet, vilket sparar ännu mer lagring. Även om användning av sammanfattningstabeller kan spara minnesutrymme, kräver de mycket ansträngning för att hålla dem uppdaterade och i linje med affärsbehov. Denna teknik används dock ofta och används ofta i kombination med den tidigare tekniken (Best 1995, Inmon 1996a, Chauduri och Dayal
1997).

Definiera Datalager Tekniska arkitekturer Definition av dw-arkitekturtekniker

Tidiga användare av datalagring tänkte i första hand på en centraliserad implementering av dw där alla uppgifter, inklusive i uppgifter externa, integrerades i en enda,
fysisk lagring (Inmon 1996a, Bresnahan 1996, Peacock 1998).

Den största fördelen med detta tillvägagångssätt är att slutanvändare kan få tillgång till företagsomfattande syn på uppgifter organisatorisk (Ovum 1998). En annan fördel är att den erbjuder standardisering av uppgifter genom organisation, vilket innebär att det bara finns en version eller definition för varje terminologi som används i dw-förvaret (metadata) (Flanagan och Safdie 1997, Ovum 1998). Nackdelen med detta tillvägagångssätt är å andra sidan att det är dyrt och svårt att konstruera (Flanagan och Safdie 1997, Ovum 1998, Inmon et al. 1998). Inte långt efter lagringsarkitekturen uppgifter centraliserad blev populär, konceptet att utvinna mindre delmängder av det utvecklade uppgifter för att stödja behoven hos specifika tillämpningar (Varney 1996, IDC 1997, Berson och Smith 1997, påfågel 1998). Dessa små system är derivat av det större datalagret centraliserad. De är namngivna datalagret beroende avdelnings- eller beroende datamars. Den beroende datamart-arkitekturen är känd som treskiktsarkitektur där den första nivån består av datalagret centraliserad, den andra består av insättningar av uppgifter avdelning och den tredje består av tillgång till uppgifter och genom analysverktyg (Demarest 1994, Inmon et al. 1997).

Data marts byggs normalt efter datalagret centralized byggdes för att möta behoven hos specifika enheter (White 1995, Varney 1996).
Data marts lagrar uppgifter mycket relevant när det gäller särskilda enheter (Inmon et al. 1997, Inmon et al. 1998, IA 1998).

Fördelen med denna metod är att det inte kommer att finnas några dato inte integrerad och att jag uppgifter kommer att vara mindre överflödig inom datamarts som alla uppgifter de kommer från ett lager uppgifter integrerad. En annan fördel är att det blir få kopplingar mellan varje datamarknad och dess källor uppgifter eftersom varje datamart bara har en källa till uppgifter. Plus med denna arkitektur på plats kan slutanvändare fortfarande få tillgång till översikten över uppgifter

företagsorganisationer. Denna metod är känd som top-down-metoden, där datamarts byggs efter datalagret (påfågel 1998, Goff 1998).
Vissa organisationer har ökat behovet av att visa resultat tidigt, och vissa organisationer har börjat bygga oberoende datamarts (Flanagan och Safdie 1997, White 2000). I det här fallet får datamarts sina egna uppgifter direkt från grunderna i uppgifter OLTP och inte från det centraliserade och integrerade lagret, vilket eliminerar behovet av att ha centrallagret på plats.

Varje datamarknad kräver minst en länk till sina källor uppgifter. En nackdel med att ha flera anslutningar för varje datamart är att, jämfört med de två föregående arkitekturerna, överflöd av uppgifter ökar betydligt.

Varje datamart måste lagra alla uppgifter krävs lokalt för att inte ha någon effekt på OLTP-system. Detta gör att jag uppgifter de lagras i olika datamarts (Inmon et al. 1997). En annan nackdel med denna arkitektur är att den leder till skapandet av komplexa sammankopplingar mellan datamarts och deras datakällor. uppgifter som är svåra att genomföra och kontrollera (Inmon et al. 1997).

En annan nackdel är att slutanvändare inte kan komma åt översikten av företagsinformation eftersom bl.a uppgifter av de olika datamartsen är inte integrerade (Ovum 1998).
Ytterligare en nackdel är att det kan finnas mer än en definition för varje terminologi som används i datamarts, vilket genererar inkonsekvenser av uppgifter i organisationen (Ovum 1998).
Trots de nackdelar som diskuterats ovan, lockar oberoende datamars fortfarande många organisationers intresse (IDC 1997). En faktor som gör dem attraktiva är att de är snabbare att utvecklas och kräver mindre tid och resurser (Bresnahan 1996, Berson och Smith 1997, Ovum 1998). Följaktligen fungerar de främst som testprojekt som kan användas för att snabbt identifiera fördelar och/eller brister i projektet (Parsaye 1995, Braly 1995, Newing 1996). I detta fall måste den del som ska implementeras i pilotprojektet vara liten men viktig för organisationen (Newing 1996, Mansell-Lewis 1996).

Genom att undersöka prototypen kan slutanvändare och administration bestämma om de ska fortsätta eller stoppa projektet (Flanagan och Safdie 1997).
Om beslutet ska fortsätta bör datamarts för andra branscher byggas en i taget. Det finns två alternativ för slutanvändare baserat på deras behov av att bygga oberoende datamatriser: integrerad/federerad och ointegrerad (Ovum 1998)

I den första metoden ska varje ny datamart byggas utifrån nuvarande datamart och modellen uppgifter används av företaget (Varney 1996, Berson och Smith 1997, Peacock 1998). Behovet av att använda modellen uppgifter dell’impresa fa si che bisogna accertarsi che esista soltanto una definizione per ogni terminologia usata attraverso i data marts, questo anche per accertarsi che data marts differenti possano essere uniti per dare una panoramica delle informazioni aziendali (Bresnahan 1996). Questo metodo è denominato il bottom-up ed è il migliore quando c’è un vincolo sui mezzi finanziari e sul tempo (Flanagan e Safdie 1997, Ovum 1998, peacock 1998, Goff 1998). Nel secondo metodo, i data marts costruiti possono soddisfare soltanto i bisogni di un’unità specifica. Una variante del federated data mart è il datalagret distribuito in cui il databas middleware hub server è utilizzato per unire molti data marts in un singolo deposito di uppgifter distribuito (White 1995). In questo caso, i uppgifter aziendali sono distribuiti in parecchi data marts. Le richieste dell’utente finale sono trasmesse al databas middleware hub server , che estrae tutti i uppgifter richiesti dai data marts e ritorna i risultati alle applicazioni dell’utente finale. Questo metodo fornisce le informazioni aziendali agli utenti finali. Tuttavia, ancora non vengono eliminati i problemi dei data marts indipendenti. C’è un’altra architettura che può essere usata che è chiamata il datalagret virtuale (White 1995). Tuttavia, questa architettura, che è descritta nella figura 2.9, non è un’architettura d’immagazzinamento di uppgifter reali poiché non sposta il caricamento dai sistemi OLTP al datalagret (Demarest 1994).

Infatti, le richieste di uppgifter dagli utenti finali sono passate sopra ai sistemi di OLTP che restituiscono i risultati dopo l’elaborazione delle richieste di utente. Anche se questa architettura permette agli utenti finali di generare i rapporti e formulare le richieste, non può fornire i

uppgifter storici e la panoramica delle informazioni aziendali poiché i uppgifter dai differenti sistemi di OLTP non sono integrati. Quindi, questa architettura non può soddisfare l’analisi di uppgifter complessa quale ad esempio previsioni.

Selezione dell’applicativi di accesso e di recupero dei uppgifter

Lo scopo della costruzione di un datalagret è di trasmettere informazioni agli utenti finali (Inmon ed altri 1997, Poe 1996, McFadden 1996, Shanks ed altri 1997, Hammergren 1998); uno o più applicativi di accesso e recupero uppgifter devono essere forniti. Ad oggi, esiste un’ampia varietà di questi applicativi tra cui l’utente può scegliere (Hammergren 1998, Humphries ed altri 1999). Gli applicativi selezionati determinano il successo dello sforzo d’immagazzinamento di uppgifter in un’organizzazione perché gli applicativi sono la parte più visibile del datalagret all’utente finale (Inmon ed altri 1997, Poe 1996). Per aver successo un datalagret, deve potere sostenere le attività di analisi dei uppgifter dell’utente finale (Poe 1996, Seddon e Benjamin 1998, Eckerson 1999). Quindi il “livello” di ciò che l’utente finale vuole deve essere identificato (Poe 1996, Mattison 1996, Inmon ed altri 1997, Humphries ed altri 1999).

In generale, gli utenti finali possono essere raggruppati in tre categorie: executive users, business analysts e power user (Poe 1996, Humphries ed altri 1999). Gli executive users necessitano di un facile accesso ad insiemi predefiniti di rapporti (Humphries ed altri 1999). Questi rapporti possono essere raggiunti facilmente con la navigazione dei menu (Poe 1996). In più, i rapporti dovrebbero presentare le informazioni usando la rappresentazione grafica come le tabelle ed i modelli per trasportare rapidamente le informazioni (Humphries ed altri 1999). I business analyst, che non possono avere le possibilità tecniche per sviluppare i rapporti da zero da soli, necessitano di potere modificare i rapporti attuali per soddisfare i loro bisogni specifici (Poe 1996, Humphries ed altri 1999). I power user, d’altra parte, sono il tipo di utilizzatori finali che hanno la capacità di generare e scrivere le richieste ed i rapporti da zero (Poe 1996, Humphries ed altri 1999). Sono quelli che

sviluppano i rapporti per gli altri tipi di utenti (Poe 1996, Humphries ed altri 1999).

Una volta determinati i requisiti dell’utente finale deve essere fatta una selezione degli applicativi di accesso e recupero uppgifter tra tutti quelli disponibili (Poe 1996, Inmon ed altri 1997).
Tillgång till uppgifter e gli strumenti di retrieval possono essere classificati in 4 tipi: OLAP tool, EIS/DSS tool, tool di query e reporting e tool di data mining.

I tool OLAP permettono agli utenti di creare query ad hoc così come quelle fatte sul databas del datalagret. Inoltre questi prodotti consentono agli utenti di fare drill-down dai uppgifter generali a quelli dettagliati.

I tool EIS/DSS forniscono reporting esecutivi come analisi “what if” e accessi ai reports organizzati a menu. I report devono essere predefiniti e uniti ai menu per una navigazione più facile.
I tool di query e reporting permettono agli utenti di produrre report predefiniti e specifici.

I tool di data mining sono usati per identificare relazioni che potrebbero fare nuova luce sulle operazioni dimenticate nei uppgifter del datawarehouse.

Accanto all’ottimizzazione dei requisiti di ogni tipologia di utenti, i tool selezionati devono essere intuitivi, efficienti e di facile utilizzo. Inoltre devono essere compatibili con le altre parti dell’architettura e in grado di lavorare con i sistemi esistenti. È inoltre suggerito di scegliere data access e tool di retrieval con prezzi e performance ragionevoli. Altri criteri da considerare includono l’impegno del venditore del tool nel sostenere il loro prodotto e gli sviluppi che lo stesso avrà nelle future release. Per garantire l’impegno degli utenti nell’utilizzo del datawarehouse, il team di sviluppo coinvolge gli utenti nel processo della selezione del tool. In questo caso dovrebbe essere effettuata una valutazione pratica dell’utente.

Per migliorare il valore del datawarehouse il team di sviluppo può fornire anche un accesso web ai loro datawarehouse. Un datawarehouse web-enabled permette agli utenti di accedere ai uppgifter da posti remoti o mentre si viaggia. Inoltre le informazioni possono

essere fornite a costi più bassi mediante una diminuzione dei costi di training.

2.4.3 Datalager Operation Phase

Questa fase consiste di tre attività: definizione di strategie di data refresh, controllo delle attività del datawarehouse e gestione della sicurezza del datawarehouse.

Definizione di strategie di data refresh

Dopo il caricamento iniziale, i uppgifter nel databas del datawarehouse devono essere refreshati periodicamente per riprodurre i cambiamenti effettuati sui uppgifter originali. Bisogna quindi decidere quando fare il refresh, ogni quanto tempo deve essere schedulato il refresh e come eseguire il refresh dei uppgifter. Viene suggerito di fare il refresh dei uppgifter quando il sistema può essere messo off- line. La frequenza del refresh è determinata dal team di sviluppo basandosi sui requisiti degli utenti. Ci sono due approcci per fare il refresh del datawarehouse: il refresh completo e il caricamento continuo dei cambiamenti.

Il primo approccio, il refresh completo, richiede il ricaricamento di tutti i uppgifter da zero. Ciò vuol dire che tutti i uppgifter richiesti devono essere estratti, puliti, trasformati ed integrati in ogni refresh. Questo approccio dovrebbe essere, per quanto possibile, evitato perché richiede molto tempo e risorse.

Un approccio alternativo è quello di caricare continuamente i cambiamenti. Questo aggiunge i uppgifter che sono stati cambiati dall’ultimo ciclo di refresh del datawarehouse. L’identificazione di records nuovi o modificati riduce significativamente la quantità di uppgifter che devono essere propagati al datawarehouse in ogni aggiornamento poiché solo questi uppgifter saranno aggiunti al databas del datawarehouse.

Ci sono almeno 5 approcci che possono essere usati per prelevare i uppgifter nuovi o modificati. Per ottenere un’efficiente strategia di refresh dei uppgifter può essere utile un misto di questi approcci che preleva tutti i cambiamenti nel sistema.

Il primo approccio, che usa i timestamp, suppone che viene assegnato a tutti i uppgifter modificati e aggiornati un timestamp in modo da potere identificare facilmente tutti i uppgifter modificati e nuovi. Questo approccio, però, non è stato molto usato nella maggior parte degli odierni sistemi operativi.
Il secondo approccio è quello di usare un delta file generato da un’applicazione che contiene soltanto i cambiamenti fatti ai uppgifter. L’uso di questo file inoltre amplifica il ciclo di aggiornamento. Tuttavia, anche questo metodo, non è stato usato in molte applicazioni.
Il terzo approccio è quello di fare uno scan su un file di log, che fondamentalmente contiene informazioni simili al delta file. L’unica differenza è che un log file è creato per il processo di recovery e può essere difficile da capire.
Il quarto approccio è quello di modificare il codice dell’applicazione. Tuttavia la maggior parte del codice delle applicazioni è vecchio e fragile; perciò questa tecnica dovrebbe essere evitata.
L’ultimo approccio è quello di confrontare i uppgifter sorgenti con il file principale dei uppgifter.

Controllo delle attività del datawarehouse

Una volta che il datawarehouse è stato rilasciato agli utenti, è necessario monitorarlo nel tempo. In questo caso, l’amministratore del datawarehouse può impiegare uno o più tool di gestione e controllo per monitorare l’uso del datawarehouse. In particolare possono essere raccolte informazioni sulle persone e sul tempo in cui accedono al datawarehouse. Dai uppgifter raccolti può essere creato un profilo del lavoro effettuato che può essere usato come input nell’implementazione del chargeback dell’utente. Il Chargeback permette agli utenti di essere informati sul costo di elaborazione del datawarehouse.

Inoltre, il controllo del datawarehouse può anche essere usato per identificare i tipi di query, la loro grandezza, il numero di query al giorno, i tempi di reazione alla query, i settori raggiunti e la quantità di uppgifter processati. Un altro scopo di fare il controllo del datawarehouse è identificare i uppgifter che non sono in uso. Questi uppgifter possono essere rimossi dal datawarehouse per migliorare il tempo

di risposta di esecuzione delle query e controllare la crescita dei uppgifter che risiedono all’interno della databas del datawarehouse.

Gestione della sicurezza del datawarehouse

Un datawarehouse contiene uppgifter integrati, critici, sensibili che possono essere raggiunti facilmente. Per questo motivo dovrebbe essere protetto dagli utenti non autorizzati. Un modo per implementare la sicurezza è quello di usare la funzione del DBMS per assegnare i diversi privilegi ai diversi tipi di utenti. In questo modo, deve essere mantenuto per ogni tipo di utenti un profilo di accesso. Un altro modo per assicurare il datawarehouse è cifrarlo come è scritto nella databas del datawarehouse. L’accesso ai uppgifter e i tool di retrieval devono decriptare i uppgifter prima di presentare i risultati agli utenti.

2.4.4 Datalager Deployment Phase

È l’ultima fase nel ciclo di implementazione del datawarehouse. Le attività da effettuare in questa fase includono l’addestramento degli utenti per utilizzare il datawarehouse e la realizzazione di reviews del datawarehouse.

Addestramento degli utenti

L’addestramento degli utenti dovrebbe essere fatto prima dell’accesso ai uppgifter del datawarehouse e dell’uso dei tool di retrieval. Generalmente, le sessioni dovrebbero iniziare con l’introduzione al concetto dell’immagazzinamento di uppgifter, al contenuto del datawarehouse, ai meta uppgifter ed alle features di base dei tool. Poi, gli utenti più avanzati potrebbero inoltre studiare le tabelle fisiche e le features degli utenti dei data access e dei tool di retrieval.

Ci sono molti approcci per fare l’addestramento degli utenti. Uno di questi prevede una selezione di molti utenti o analisti scelti da un insieme di utenti, basandosi sulla loro leadership e abilità di comunicazione. Questi vengono addestrati a titolo personale su tutto quello che devono sapere per prendere confidenza con il sistema. Finito l’addestramento, questi ritornano al loro lavoro e iniziano a insegnare agli altri utenti come utilizzare il sistema. Sulla

base di quanto hanno imparato, gli altri utenti possono iniziare ad esplorare il datawarehouse.
Un altro approccio è quello di addestrare molti utenti nello stesso tempo, come se si stesse facendo un corso in aula. Questo metodo è adatto quando ci sono molti utenti che devono essere addestrati allo stesso tempo. Un altro metodo ancora è quello di addestrare individualmente ogni utente, ad uno ad uno. Questo metodo è adatto quando ci sono pochi utenti.

Lo scopo dell’addestramento degli utenti è quello di familiarizzare con l’accesso ai uppgifter e i tool di retrieval così come i contenuti del datawarehouse. Tuttavia, alcuni utenti possono essere sopraffatti dalla quantità di informazioni fornita durante la sessione di addestramento. Quindi devono essere fatte un certo numero di sessioni di aggiornamento l’assistenza continua e per rispondere alle domande specifiche. In alcuni casi viene formato un gruppo di utenti per fornire questo tipo di supporto.

Samla feedback

Una volta che il datawarehouse è stato rolled out, gli utenti possono usare i uppgifter che risiedono nel datawarehouse per vari scopi. Principalmente, gli analisti o gli utenti utilizzano i uppgifter nel datawarehouse per:

  1. 1  Identificare le tendenze dell’azienda
  2. 2  Analizzare i profili d’acquisto dei kunder
  3. 3  Suddividere i kunder och
  4. 4  Fornire i servizi migliori ai kunder – customizzare i servizi
  5. 5  Formulare strategie di marknadsföring
  6. 6  Effettuare preventivi competitivi per cost analyses e help control
  7. 7  Supportare decision-making strategiche
  8. 8  Identificare occasioni per emergere
  9. 9  Migliorare la qualità degli attuali business process
  10. 10  Controllare il profitto

Seguendo la direzione di sviluppo del datawarehouse, si potrebbero condurre una serie di revisioni al sistema per ottenere dei feddback

sia da parte del team di sviluppo che da parte della comunità degli utenti finali.
I risultati ottenuti possono essere presi in considerazione per il prossimo ciclo di sviluppo.

Eftersom datalagret har ett inkrementellt tillvägagångssätt är det avgörande att lära av framgångarna och misstagen från tidigare utveckling.

2.5 Riassunto

In questo capitolo sono stati discussi gli approcci presenti in letteratura. Nella sezione 1 è stato discusso il concetto di datawarehouse e il suo ruolo nella scienza delle decisioni. Nella sezione 2 sono state descritte le principali differenze tra datawarehouse e sistemi OLTP. Nella sezione 3 si è discusso il modello di datawarehouse secondo Monash che è stato utilizzato nella sezione 4 per descrivere le attività coinvolte nel processo di sviluppo di un datawarehouse, queste tesi non sono state basate su una ricerca rigorosa. Quello che succede nella realtà può essere molto diverso da quello che riporta la letteratura, tuttavia questi risultati possono essere utilizzati per creare un bagaglio di base che sottolinei il concetto di datawarehouse per questa ricerca.

Kapitel 3

Metodi di ricerca e progettazione

Questo capitolo si occupa dei metodi di ricerca e progettazione per questo studio. La prima parte mostra una vista generica dei metodi di ricerca disponibili per il reperimento dell’informazione, inoltre vengono discussi i criteri per selezionare il miglior metodo per uno studio particolare. Nella sezione 2 vengono poi discussi due metodi selezionati con i criteri appena esposti; di questi ne verrà scelto ed adottato uno con le motivazioni esposte nella sezione 3 dove sono anche esposte le motivazioni per l’esclusione dell’altro criterio. La sezione 4 presenta il progetto della ricerca e la sezione 5 le conclusioni.

3.1 Ricerca nei sistemi informativi

La ricerca nei sistemi informativi non si limita semplicemente all’ambito tecnologico ma deve essere anche estesa per includere fini riguardanti il comportamento e l’organizzazione.
Questo lo dobbiamo alle tesi di varie discipline che vanno dalle scienze sociali a quelle naturali; questo porta alla necessità di un certo spettro di metodi di ricerca che coinvolgono metodi quantitativi e qualitativi da utilizzare per i sistemi informativi.
Tutti i metodi di ricerca disponibili sono importanti, infatti svariati ricercatori come Jenkins (1985), Nunamaker et al. (1991), e Galliers (1992) sostengono che non esista un metodo specifico universale per condurre ricerche nei vari campi dei sistemi informativi; infatti un metodo può essere adatto per una particolare ricerca ma non per altre. Questo ci porta la necessità di selezionare un metodo che sia adatto alla nostro particolare progetto di ricerca: per questa scelta Benbasat et al. (1987) affermano che si debbano considerare la natura e il fine della ricerca.

3.1.1 Natura della ricerca

I vari metodi basati sulla natura della ricerca possono essere classificati in tre tradizioni ampiamente conosciuti nella scienza dell’informazione: positivista, interpretativa e ricerca critica.

3.1.1.1 Ricerca positivista

La ricerca positivista è anche conosciuta come studio scientifico o empirico. Essa cerca di: “spiegare e prevedere cosa succederà nel mondo sociale guardando alle regolarità e alle relazioni causa- effetto tra gli elementi che lo costituiscono” (Shanks et al 1993).

La ricerca positivista è inoltre caratterizzata da ripetibilità , semplificazioni e confutazioni. Inoltre la ricerca positivista ammette l’esistenza di relazioni a priori tra i fenomeni studiati.
Secondo Galliers(1992) la tassonomia è un metodo di ricerca incluso nel paradigma positivista, che però non è limitato a questa, infatti sussistono esperimenti di laboratorio, esperimenti sul campo, casi di studio, dimostrazioni di teoremi, previsioni e simulazioni. Utilizzando questi metodi i ricercatori ammettono che i fenomeni studiati possano essere osservati oggettivamente e rigorosamente.

3.1.1.2 Ricerca interpretativa

La ricerca interpretativa, che è spesso chiamata fenomenologia o anti-positivismo viene descritta da Neuman (1994) come “l’analisi sistematica del significato sociale dell’azione attraverso la diretta e dettagliata osservazione delle persone in situazioni naturali, al fine di arrivare alla comprensione e all’interpretazione di come le persone creano e mantengono il loro mondo sociale”. Gli studi interpretative rifiutano l’assunzione che i fenomeni osservati possano essere osservati oggettivamente. Infatti essi sono basati su interpretazioni soggettive. Inoltre i ricercatori interpretativi non impongono significati a priori ai fenomeni che studiano.

Questo metodo comprende studi soggettivo/argomentativi, azioni di ricerca, studi descrittivo/interpretativi, ricerche future e giochi di ruolo. In aggiunta a questi indagini e casi di studio possono essere inclusi in questo approccio in quanto essi concernono gli studi degli individui o delle organizzazioni all’interno di complesse situazioni del mondo reale.

3.1.1.3 Ricerca critica

La ricerca critica è l’approccio meno conosciuto nelle scienze sociali ma di recente ha ricevuto l’attenzione dei ricercatori nell’ambito dei sistemi informativi. L’assunzione filosofica che la realtà sociale è storicamente prodotta e riprodotta dalle persone, così come i sistemi sociali con le loro azioni ed interazioni. La loro abilità, comunque, è mediata da un certo numero di considerazione sociali, culturali e politiche.

Cosi come la ricerca interpretativa, quella critica sostiene che la ricerca positivista non c’entra con il contesto sociale ed ignora la sua influenza sulle azioni umane.
La ricerca critica, d’altra parte, critica la ricerca interpretativa per essere troppo soggettiva e perché non si propone di aiutare le persone a migliorare le proprie vite. La più grossa differenza tra la ricerca critica e gli altri due approcci è la sua dimensione valutativa. Mentre l’oggettività delle tradizioni positivista ed interpretativa, è per predire o spiegare lo status quo o la realtà sociale, la ricerca critica punta a valutare criticamente e trasformare la realtà sociale sotto studio.

I ricercatori critici solitamente si oppongono allo status quo al fine di rimuovere le differenze sociali e migliorare le condizioni sociali. La ricerca critica ha un impegno ad una vista processuale dei fenomeni di interesse e, pertanto, è normalmente longitudinale. Esempi di metodi di ricerca sono gli studi storici a lungo termine e gli studi etnografici. La ricerca critica, tuttavia, non è stata ampiamente usata nella ricerca dei sistemi d’informazione

3.1.2 Scopo della ricerca

Assieme alla natura della ricerca, il suo scopo può essere utilizzato per guidare il ricercatore nella selezione di un particolare metodo di ricerca. Lo scopo di un progetto di ricerca è strettamente correlato alla posizione della ricerca rispetto al ciclo di ricerca che consiste di tre fasi: costruzione della teoria, test della teoria e affinamento della teoria. Così, basandosi sul momento rispetto al ciclo di ricerca, un progetto di ricerca può avere un fine di spiegazione, descrittivo, di esplorazione oppure predittivo.

3.1.2.1 Ricerca esplorativa

La ricerca esplorativa è finalizzata nell’investigare un argomento totalmente nuovo e formulare domande e ipotesi per la ricerca futura. Questo tipo di ricerca è utilizzato nella costruzione della teoria per ottenere dei riferimenti iniziali in una nuova area. Normalmente si utilizzano metodi di ricerca qualitativa, come i casi di studio o gli studi fenomenonologici.

Men det är också möjligt att använda kvantitativa tekniker som explorativa undersökningar eller experiment.

3.1.3.3 Ricerca descrittiva

La ricerca descrittiva è finalizzata ad analizzare e descrivere in gran dettaglio una particolare situazione o pratica organizzativa. Questa è appropriata per costruire teorie e può essere anche usata per confermare o contestare ipotesi. La ricerca descrittiva solitamente comprende l’uso di misure e campioni. I metodi di ricerca più adatti comprendono indagini e analisi di antecedenti.

3.1.2.3 Ricerca esplicativa

La ricerca esplicativa cerca di spiegare perché succedono le cose. Essa è costruita su fatti che sono già stati studiati e cerca di trovare i perché di tali fatti.
Quindi la ricerca esplicativa è normalmente costruita sulla ricerca esplorativa o descrittiva ed è accessoria al fine di testare ed affinare le teorie. La ricerca esplicativa normalmente impiega casi di studio o metodi di ricerca basati sulle indagini.

3.1.2.4 Ricerca preventiva

La ricerca preventiva punta a predire gli eventi e i comportamenti sotto osservazione che si stanno studiando (Marshall and Rossman 1995). La previsione è il test scientifico standard della verità. Questo tipo di ricerca generalmente impiega indagini o analisi dei uppgifter storici. (Yin 1989)

La suddetta discussione dimostra che c’è un certo numero di possibili metodi di ricerca che possono essere usati in uno studio particolare. Tuttavia, ci deve essere un metodo specifico più adatto degli altri per un tipo particolare di progetto di ricerca. (Galliers 1987, Yin 1989, De Vaus 1991). Ogni ricercatore, quindi, ha bisogno di valutare con attenzione i punti di forza e le debolezze di vari metodi, per arrivare ad adottare il metodo di ricerca più adatto e compatibile col progetto di ricerca. (Jenkins 1985, Pervan e Klass 1992, Bonomia 1985, Yin 1989, Himilton and Ives 1992).

3.2. Possibili metodi di ricerca

L’obiettivo di questo progetto era studiare l’esperienza nelle organizzazioni australiane con i uppgifter immagazzinati con uno sviluppo di datalagret. nollpunkts che, attualmente, c’è una mancanza di ricerca nell’area di data warehousing in Australia, questo progetto di ricerca è ancora nella fase teorica del ciclo di ricerca ed ha uno scopo esplorativo. Esplorando l’esperienza nelle organizzazioni australiane che adottano il data warehousing richiede l’interpretazione della società reale. Di conseguenza, il l’assunzione filosofica alla base del progetto di ricerca segue l’interpretazione tradizionale.

Dopo un rigoroso esame dei metodi disponibili, sono stati identificati due possibili metodi di ricerca: indagini (surveys) e casi di studio (case studies), che possono essere usati per una ricerca esplorativa (Shanks et al. 1993). Galliers (1992) sostiene che l’idoneità di questi due metodi per questo particolare studio nella sua tassonomia rivisitata dicendo che sono adatti per la costruzione teorica. Le seguenti due sottosezioni discutono ogni metodo in dettaglio.

3.2.1 Metodo di ricerca di indagine

Il metodo di ricerca d’indagine proviene dall’antico metodo del censimento. Un censimento consta nel collezionare informazioni da un’intera popolazione. Questo metodo è costoso e poco pratico, in particolare se la popolazione è elevata. Quindi, rispetto al censimento, una indagine normalmente è concentrata sul collezionare informazioni per un piccolo numero, o campione, dei rappresentanti della popolazione (Fowler 1988, Neuman 1994). Un campione riflette la popolazione da cui è disegnato, con differenti livelli di accuratezza, secondo la struttura del campione, la dimensione e il metodo di selezione utilizzato (Fowler 1988, Babbie 1982, Neuman 1994).

Il metodo d’indagine è definito come “snapshots of practices, situations or views at a particular point in time, undertaken using questionnaires or interviews, from which inferences may be
made” (Galliers 1992:153) [fotografia istentanea delle pratiche, situazioni o viste in particolare punto temporale, intrapreso usando questionari o interviste, da cui possono essere fatte inferenze]. Le indagini si occupano della raccolta di informazioni su alcuni aspetti dello studio, da un certo numero di partecipanti, facendo delle domande (Fowler 1988). Anche questi questionari e interviste, che includono le interviste faccia a faccia al telefono e quelle strutturate, sono le tecniche di collezione di uppgifter più comuni impiegate nelle indagini (Blalock 1970, Nachmias and Nachmias 1976, Fowler 1988), possono essere utilizzate osservazioni ed analisi (Gable 1994). Di tutti questi metodi di collezione dei uppgifter, l’uso del questionario è la tecnica più popolare, poiché assicura che i uppgifter

collezionati siano strutturati e formattati, e quindi facilita la classificazione delle informazioni (Hwang 1987, de Vaus 1991).

Nell’analizzare i uppgifter, una strategia d’indagine impiega spesso le tecniche quantitative, come l’analisi statistica, ma possono essere impiegate anche tecniche qualitative (Galliers 1992, Pervan

and Klass 1992, Gable 1994). Normalmente, i uppgifter raccolti sono usati per analizzare le distribuzioni e i modelli delle associazioni (Fowler 1988).

Anche se le indagini sono generalmente appropriate per ricerche che si occupano della domanda ‘che cosa?’ (what) o da essa derivanti, quali ‘quanto’(how much) e ‘quant’è’ (how many), esse possono essere poste tramite la domanda ‘perché’ (Sonquist and Dunkelberg 1977, Yin 1989). Secondo Sonquist e Dunkelberg (1977), l’indagine di ricerca punta ad ipotesi difficili, programme di valutazione, descrivendo la popolazione e sviluppando modelli del comportamento umano. Inoltre, le indagini possono essere usate per studiare un’opinione certa della popolazione, condizioni, opinioni, caratteristiche, aspettative e anche comportamenti passati o presenti(Neuman 1994).

Le indagini permettono al ricercatore di scoprire i rapporti tra la popolazione ed i risultato sono normalmente più generici rispetto ad altri metodi (Sonquist and Dunkelberg 1977, Gable 1994). Le indagini permettono ai ricercatori di riguardare una zona geografica più larga e di raggiungere tantissimi dichiaranti (Blalock 1970, Sonquist and Dunkelberg 1977, Hwang and Lin 1987, Gable 1994, Neuman 1994). Infine, le indagini possono fornire le informazioni che non sono disponibili altrove o nella forma richiesta per le analisi (Fowler 1988).

Ci sono, tuttavia, alcune limitazioni nell’eseguire un’indagine. Uno svantaggio è che il ricercatore non può ottenere molte informazioni a riguardo dell’oggetto studiato. Questo è dovuto al fatto che le indagini sono eseguite soltanto in un momento particolare e, quindi, c’è un numero limitato di variabili e di persone che il ricercatore può

studiare (Yin 1989, de Vaus 1991, Gable 1994, Denscombe 1998). Un altro svantaggio è quello che esegue un’indagine può essere molto costoso in termini di tempo e risorse, particolarmente se coinvolge le interviste faccia a faccia (Fowler 1988).

3.2.2. Metodo Di Ricerca Di Inchiesta

Il metodo di ricerca di inchiesta coinvolge lo studio approfondito su una particolare situazione all’interno del relativo contesto reale in un periodo di tempo definito, senza alcun intervento da parte del ricercatore (Shanks & C. 1993, Eisenhardt 1989, Jenkins 1985). Principalmente questo metodo è usato per descrivere i rapporti fra le variabili che si stanno studiando in una situazione particolare (Galliers 1992). Le inchieste possono coinvolgere singoli casi o multipli, a seconda del fenomeno analizzato (Franz e Robey 1987, Eisenhardt 1989, Yin 1989).

Il metodo di ricerca di inchiesta è definito come “un’inchiesta empirica che studia un fenomeno contemporaneo all’interno del relativo contesto reale, usando le fonti multiple raccolte da una o più entità quali la gente, i gruppi, o le organizzazioni” (Yin 1989). Non c’è netta separazione fra il fenomeno ed il relativo contesto e non c’è controllo o manipolazione sperimentale delle variabili (Yin 1989, Benbasat ed altri 1987).

C’è una varietà di tecniche per la collezione dei uppgifter che possono essere impiegate nel metodo di inchiesta, che includono le osservazioni dirette, revisioni di record di archivi, questionari, revisione della documentazione ed interviste strutturate. Avendo una gamma varia di tecniche della raccolta di uppgifter, le inchieste permettono ai ricercatori di occuparsi sia dei uppgifter qualitativi che quantitativi allo stesso tempo (Bonoma 1985, Eisenhardt 1989, Yin 1989, Gable 1994). Com’è il caso con il metodo di indagine, un ricercatore di inchiesta funge da osservatore o ricercatore e non come partecipante attivo all’organizzazione allo studio.

Benbasat ed altri (1987) asseriscono che il metodo di inchiesta è particolarmente adatto per la costruzione della teoria di ricerca, che comincia con una domanda di ricerca e continua con la formazione

di una teoria durante il processo della raccolta di uppgifter. Essendo adatto anche per la fase

della costruzione di teoria, Franz e Robey (1987) suggeriscono che il metodo di inchiesta può anche essere utilizzato per la complessa fase di teoria. In questo caso, basandosi sulle prove raccolte, una data teoria o ipotesi viene verificata o confutata. In più, l’inchiesta è anche adatta per ricerca che si occupa delle domande ‘come’ o ‘perché’ (Yin 1989).

Rispetto ad altri metodi, le inchieste permettono al ricercatore di catturare le informazioni essenziali più nel particolare (Galliers 1992, Shanks ed altri 1993). Inoltre, le inchieste permettono al ricercatore di capire la natura e la complessità dei processi studiati (Benbasat ed altri 1987).

Ci sono quattro svantaggi principali connessi con il metodo di inchiesta. Il primo è la mancanza di deduzioni controllate. La soggettività del ricercatore può alterare i risultati e le conclusioni dello studio (Yin 1989). Il secondo svantaggio è la mancanza di osservazione controllata. A differenza dei metodi sperimentali, il ricercatore di inchiesta non può controllare i fenomeni studiati poiché sono esaminati nel loro contesto naturale (Gable 1994). Il terzo svantaggio è la mancanza di replicabilità. Ciò è dovuto al fatto che il ricercatore ha poca probabilità di osservare gli stessi eventi, e non può verificare i risultati di un particolare studio (Lee 1989). Infine, come conseguenza della non replicabilità, è difficile generalizzare i risultati ottenuti da una o più inchieste (Galliers 1992, Shanks ed altri 1993). Tutti questi problemi, tuttavia, non sono insormontabili e possono, infatti, essere minimizzati dal ricercatore applicando azioni appropriate (Lee 1989).

3.3. Giustificare la metodologia di ricerca antagits

Dai due metodi di ricerca possibili per questo studio, il metodo di indagine è considerato come il più adatto. Quello di inchiesta è stato scartato in seguito ad un attenta considerazione dei relativi

meriti e debolezze. La convenienza o l’inappropriatezza di ogni metodo per questo studio è discussa in seguito.

3.3.1. Inappropriatezza del metodo di ricerca di inchiesta

Il metodo di inchiesta richiede lo studio approfondito circa una situazione particolare all’interno di una o più organizzazioni per un periodo di tempo (Eisenhardt 1989). In questo caso, il periodo può eccedere la struttura di tempo data per questo studio. Un altro motivo per non adottare il metodo di inchiesta è che i risultati possono soffrire da mancanza di rigore (Yin 1989). La soggettività del ricercatore può influenzare i risultati e le conclusioni. Un altro motivo è che questo metodo è più adatto a ricerche su domande del tipo ‘come’ o ‘perché’ (Yin 1989), mentre la domanda di ricerca per questo studio è del tipo ‘che cosa’. Infine, ma non meno importante, è difficile generalizzare i risultati da appena una o poche inchieste (Galliers 1992, Shanks ed altri 1993). Sulla base di questa spiegazione razionale, il metodo di ricerca di inchiesta non è stato scelto poiché inadatto per questo studio.

3.3.2. Convenienza del metodo di ricerca di undersökning

Quando questa ricerca è stata condotta, la pratica di data- warehousing non era stata ampiamente adottata dalle organizzazioni australiane. Quindi, non c’erano molte informazioni per quanto riguarda la loro implementazione all’interno delle organizzazioni australiane. Le informazioni disponibili provenivano dalle organizzazioni che avevano implementato o utilizzato un datalagret. In questo caso, il metodo di ricerca di indagine è il più adatto poiché permette di ottenere le informazioni che non sono disponibili altrove o nella forma richiesta per analisi (Fowler 1988). In più, il metodo di ricerca di indagine permette al ricercatore di ottenere una buona visione delle pratiche, delle situazioni, o delle viste in un determinato momento (Galliers 1992, Denscombe 1998). Una veduta d’insieme era stata richiesta per aumentare la conoscenza circa l’esperienza australiana di data warehousing.

Vidare konstaterar Sonquist och Dunkelberg (1977) att resultaten av enkätforskning är mer generella än andra metoder.

3.4. Disegno Di Ricerca Di Indagine

L’indagine circa la pratica di data warehousing è stata eseguita nel 1999. La popolazione obiettivo era formata da organizzazioni australiane interessate agli studi di data warehousing, poiché erano probabilmente già informati circa i uppgifter che immagazzinano e, pertanto, potrebbe fornire le informazioni utili per questo studio. La popolazione obiettivo è stata identificata con un’indagine iniziale di tutti i membri australiani del ‘The Data Warehousing Institute’ (Tdwi- aap). Questa sezione discute il disegno della fase di ricerca empirica di questo studio.

3.4.1. Tecnica di raccolta dei uppgifter

Dalle tre tecniche usate comunemente nella ricerca di indagine (cioè questionario via posta, intervista del telefono ed intervista personale) (Nachmias 1976, Fowler 1988, de Vaus 1991), per questo studio è stato adottato il questionario via posta. Il primo motivo per l’adozione di quest’ultimo è che può raggiungere una popolazione sparsa geograficamente (Blalock 1970, Nachmias e Nachmias 1976, Hwang e Lin 1987, de Vaus 1991, Gable 1994). Secondariamente, il questionario via posta è adatto a partecipanti altamente istruiti (Fowler 1988). Il questionario via posta per questo studio è stato indirizzato ai project sponsors del data warehousing, direttori e/o responsabili di progetto. In terzo luogo, i questionari via posta sono adatti quando si ha a disposizione una lista sicura di indirizzi (Salant e Dilman 1994). TDWI, in questo caso, una associazione fidata di data warehousing ha fornito la lista di indirizzi dei relativi membri australiani. Un altro vantaggio del questionario via posta rispetto al questionario via telefono o alle interviste personali è che permette ai dichiaranti di rispondere con maggior esattezza, particolarmente quando i dichiaranti devono consultare le annotazioni o discutere le domande con altra gente (Fowler 1988).

Uno svantaggio potenziale può essere il tempo richiesto per condurre i questionari via posta. Normalmente, un questionario via posta è condotto in questa sequenza: spedire le lettere, aspettare le risposte e mandare la conferma(Fowler 1988, Bainbridge 1989). Quindi, il tempo totale può essere più lungo del tempo richiesto per le interviste personali o per le interviste al telefono. Tuttavia, il tempo totale può essere conosciuto in anticipo (Fowler 1988, Denscombe 1998). Il tempo speso per condurre le interviste personali non può essere conosciuto in anticipo poiché varia da un’intervista all’altra (Fowler 1988). Le interviste telefoniche possono essere più rapide dei questionari via posta e delle interviste personali ma possono avere un alto tasso di mancanza di risposta dovuto all’indisponibilità di alcune persone (Fowler 1988). In più, le interviste telefoniche sono limitate generalmente a liste di domande relativamente corte (Bainbridge 1989).

Un’altra debolezza di un questionario via posta è l’alto tasso di mancanza di risposta (Fowler 1988, Bainbridge 1989, Neuman 1994). Tuttavia, sono state prese delle contromisure, associando questo studio con un’istituzione fidata nel campo del data warehousing (cioè TDWI) (Bainbridge 1989, Neuman 1994), la quale trasmette due lettere di sollecito ai chi non ha risposto (Fowler 1988, Neuman 1994) ed include inoltre una lettera aggiuntiva che spiega lo scopo dello studio (Neuman 1994).

3.4.2. Unità di analisi

Lo scopo di questo studio è ottenere le informazioni circa l’implementazione del data warehousing e l’utilizzo dello stesso all’interno delle organizzazioni australiane. La popolazione obiettivo è costituita da tutte le organizzazioni australiane che hanno implementato, o stanno implementando, i datalagret. In seguito vengono intestate le singole organizzazioni. Il questionario via posta è stato spedito alle organizzazioni interessate all’adozione di datalagret. Questo metodo garantisce che le informazioni raccolte provengano dalle risorse più adatte di ogni organizzazione partecipante.

3.4.3. Campione di indagine

La “mailing list” dei partecipanti all’indagine è stata ottenuta da TDWI. A partire da questa lista, 3000 organizzazioni australiane sono state selezionate come base per il campionamento. Una lettera di aggiuntiva spiegava il progetto e lo scopo dell’indagine, insieme ad una scheda per le risposte e una busta prepagata per rinviare il questionario compilato sono state inviate al campione. Delle 3000 organizzazioni, 198 hanno accettato di partecipare allo studio. Era previsto un così piccolo numero di risposte dato il grande numero di organizzazioni australiane che allora avevano abbracciato o stavano abbracciando la strategia di data warehousing all’interno delle loro organizzazioni. Quindi, la popolazione obiettivo per questo studio consiste di sole 198 organizzazioni.

3.4.4. Contenuti del questionario

La struttura del questionario è stata basata sul modello di data warehousing Monash (discusso precedentemente nella parte 2.3). Il contenuto del questionario è stato basato sull’analisi della letteratura presentata nel capitolo 2. Una copia del questionario spedito ai partecipanti all’indagine può essere trovata nell’appendice B. Il questionario è composto da sei sezioni, che seguono le fasi del modello trattato. I seguenti sei paragrafi brevemente ricapitolano il contenuto di ogni sezione.

Sezione A: Informazioni di base sull’organizzazione
Questa sezione contiene le domande relative al profilo delle organizzazioni partecipanti. In più, alcune delle domande sono relative alla condizione del progetto di data warehousing del partecipante. Le informazioni confidenziali quale il nome dell’organizzazione non sono state rivelate nell’analisi di indagine.

Sezione B: Inizio
Le domande in questa sezione sono relative all’attività di inizio di data warehousing. Le domande sono state fatte per quanto riguarda gli iniziatori di progetto, garanti, abilità e conoscenza richieste, gli obiettivi dello sviluppo di data warehousing e le aspettative degli utilizzatori finali.

Sezione C: Progettazione
Questa sezione contiene le domande relative alle attività di pianificazione del datalagret. In particolare, le domande sono state circa la portata di esecuzione, la durata del progetto, il costo del progetto e l’analisi di costi/benefici.

Sezione D: Sviluppo
Nella sezione di sviluppo ci sono le domande relative alle attività di sviluppo del datalagret: raccolta di requisiti dell’utilizzatore finale, le fonti di uppgifter, il modello logico dei uppgifter, prototipi, la pianificazione di capienza, architetture tecniche e selezione dei tools di sviluppo del data warehousing.

Sezione E: Funzionamento
Domande di funzionamento relative al funzionamento ed all’estensibilità del datalagret, come si evolve nella successiva fase di sviluppo. La Datakvalitet, le strategie di refresh dei uppgifter, la granularità dei uppgifter, scalabilità del datalagret ed i problemi di sicurezza del datalagret erano fra le tipologie di domande fatte.

Sezione F: Sviluppo
Questa sezione contiene le domande relative all’utilizzo del datalagret da parte degli utenti finali. Il ricercatore era interessato allo scopo e all’utilità del datalagret, la revisione e le strategie di addestramento adottati e la strategia di controllo del datalagret antagen.

3.4.5. Tasso di risposta

Anche se le indagini via posta sono criticate per avere un tasso di risposta basso, sono state adottate delle misure per aumentare il tasso di rendimento (come discusso precedentemente nella parte 3.4.1). Il termine ‘tasso di risposta’ si riferisce alla percentuale di persone in un campione particolare di indagine che risponde al questionario (Denscombe 1998). E’ stata utilizzata la seguente formula per calcolare il tasso di risposta per questo studio:

Numero di persone che hanno risposto
Tasso di risposta = ——————————————————————————– X 100 Numero totale di questionari spediti

3.4.6. Prova Pilota

Prima che il questionario sia spedito al campione, le domande sono state esaminate effettuando le prove pilota, come suggerito da Luck e Rubin (1987), Jackson (1988) e de Vaus (1991). Lo scopo delle prove pilota è di rivelare tutte le espressioni scomode, ambigue e domande di difficile interpretazione, per chiarire qualunque definizioni e termini usati e per identificare il tempo approssimativo richiesto per compilare il questionario (Warwick e Lininger 1975, Jackson 1988, Salant e Dilman 1994). Le prove pilota sono state effettuate selezionando soggetti con caratteristiche simili a quelle dei soggetti finali, come suggerito Davis e Cosenza (1993). In questo studio, sei professionisti di data warehousing sono stati selezionati come i soggetti pilota. Dopo ogni prova pilota, sono state fatte le correzioni necessarie. Dalle prove pilota effettuate, i partecipanti hanno contribuito a rimodellare e reimpostar la versione definitiva del questionario.

3.4.7. Metodi di Analisi Di Ge

I uppgifter di indagine raccolti dai questionari a domanda chiusa sono stati analizzati usando un pacchetto di programmi statistico denominato SPSS. Molte delle risposte sono state analizzate usando le statistiche descrittive. Un certo numero di questionari sono ritornati incompleti. Questi sono stati trattati con maggiore attenzione per accertarsi che i uppgifter mancanti non fossero una conseguenza degli errori di data entry, ma perché le domande non erano adatte per il dichiarante, o il dichiarante ha deciso non rispondere ad una o più domande specifiche. Queste risposte mancanti sono state ignorate durante l’analisi dei uppgifter e sono state codificate come ‘- 9’ per accertare la loro esclusione dal processo di analisi.

Nel preparare il questionario, le domande chiuse sono state precodificate assegnando un numero ad ogni opzione. Il numero allora è stato usato per preparare i uppgifter durante l’analisi (Denscombe 1998, Sapsford e Jupp 1996). Per esempio, c’erano sei opzioni elencate nella domanda 1 della sezione B: consiglio d’amministrazione, esecutivo ad alto livello, dipartimento IT , unità di affari, i consulenti ed altro. Nello schedario di uppgifter di SPSS, è stata generata una variabile per indicare ‘l’iniziatore di progetto’, con sei etichette di valore: ‘1’ per il ‘consiglio d’amministrazione’, ‘2’ per ‘l’esecutivo ad alto livello’ e così via. L’uso della scala di Likertin in alcune delle domande chiuse inoltre ha permesso un’identificazione che non richiede sforzo visto l’utilizzo dei valori numerici corrispondenti inseriti in SPSS. Per le domande con le risposte non esaustive, che non erano reciprocamente esclusive, ogni opzione è stata trattata come una singola variabile con due etichette di valore: ‘1 ‘ per ‘segnata’ e ‘2 ‘ per ‘non segnata’.

Le domande aperte sono state trattate diversamente dalle domande chiuse. Le risposte a queste domande non sono state inserite in SPSS. Al contrario, sono state analizzate a mano. L’uso di questo tipo di domande permette di acquisire informazioni circa le idee liberamente espresse e le esperienze personali nei dichiaranti (Bainbridge 1989, Denscombe 1998). Dove possibile, è stata fatta una categorizzazione delle risposte.

Per l’analisi dei uppgifter, sono usati metodi di semplice analisi statistica, come la frequenza delle risposte, la media, la scarto quadratico medio e la mediana (Argyrous 1996, Denscombe 1998).
Il Gamma test era performante per ottenere misure quantitative delle associazioni tra uppgifter ordinali (Norusis 1983, Argyrous 1996). Questi test erano appropriati perché le scale ordinali usate non avevano molte categorie e potevano essere mostrate in una tabella (Norusis 1983).

3.5 Sammanfattning

In questo capitolo, sono stati discussi la metodologia di ricerca e il design adottati per questo studio.

La selezione del più appropriato metodo di ricerca per un particolare studio prende in
considerazione un certo numero di regole, inclusa la natura e il tipo della ricerca, così come i meriti e le debolezze di ogni possibile metodo(Jenkins 1985, Benbasat et al. 1097,Galliers e Land 1987, yin 1989, Hamilton e ives 1992, Galliers 1992, neuman 1994). Vista la mancanza di conoscenza e teoria esistenti a proposito dell’adozione di data warehousing in Australia, questo studio di ricerca richiede un metodo di ricerca interpretativo con una abilità esplorativa per esplorare le esperienze delle organizzazioni australiane. Il metodo di ricerca prescelto è stato selezionato per raccogliere informazioni riguardanti l’adozione del concetto di data ware-housing da parte delle organizzazioni australiane. Un questionario postale è stato scelto come tecnica di raccolta uppgifter. Le giustificazioni per il metodo di ricerca e la tecnica di raccolta uppgifter selezionati saranno fornite in questo capitolo. Inoltre è stata presentata una discussione sull’unità di analisi,il campione utilizzato, le percentuali di risposte, il contenuto del questionario, il pre test del questionario e il metdo di analisi dei uppgifter.

Designa en Datalager:

Combining Entity Relationship and Dimensional Modelling

SAMMANDRAG
Immagazzinare i uppgifter è un problema attuale importante per molte organizzazioni. Un problema chiave nello sviluppo dell’immagazzinamento dei uppgifter è il suo disegno.
Il disegno deve sostenere il rilevamento di concetti nel datalagret a legacy system e le altre fonti di uppgifter ed anche una facile comprensione ed efficienza nell’implementazione di datalagret.
Molta della letteratura di immagazzinamento dei uppgifter raccomanda l’uso di entity relationship modelling or dimensional modelling per rappresentare il disegno di datalagret.
In questo giornale noi mostriamo come entrambe le rappresentazioni possono essere combinate in un approccio per il disegno di datalagret. L’approccio usato è sistematicamente

esaminato in un caso di studio ed è identificato in un numero di importanti implicazioni con professionisti.

DATA WAREHOUSING

Un datalagret di solito è definito come un “subject-oriented, integrated, time-variant, and nonvolatile collection of data in support of management’s decisions” (Inmon and Hackathorn, 1994). Subject-oriented and integrated indica che il datalagret è progettato per attraversare i confini funzionali dei legaci system per offrire una prospettiva integrata dei uppgifter.
Time-variant interessa lo storico o la natura time-series dei uppgifter i en datalagret, la quale abilita trend per essere analizzati. Non-volatile indica che il datalagret non è continuamente aggiornato come un databas di OLTP. Piuttosto è aggiornato periodicamente, con uppgifter provenienti da fonti interne ed esterne. Il datalagret specificatamente è disegnato per la ricerca piuttosto che per l’integrità degli aggiornamenti e le prestazioni delle operazioni.
L’idea di immagazzinare i uppgifter non è nuova, è stato uno degli scopi di gestione dei uppgifter fin dagli anni sessanta (Il Martin, 1982).
I datalagret offrono l’infrastruttura uppgifter per management support systems. Management support systems includono decision support systems (DSS) and executive information systems (EIS). Un DSS è un sistema di informazioni computer-based che è progettato per migliorare il processo e di conseguenza la presa di decisione umana. Un EIS è tipicamente un sistema di consegna di uppgifter che abilita dirigenti d’azienda ad accedere facilmente alla vista dei uppgifter.
L’architettura generale di un datalagret evidenzia il ruolo del datalagret nel supporto alla gestione. Oltre ad offrire l’infrastruttura uppgifter per EIS e DSS, al datalagret è possibile accedervi direttamente attraverso le query. I uppgifter inclusi in un datalagret si basano su un’analisi dei requisiti di informazioni di gestione e sono ottenuti da tre fonti: internal legacy systems, special purpose data capture systems and external data sources. I uppgifter negli internal legacy systems sono frequentemente ridondanti, inconsistenti, di bassa qualità, e immagazzinati in diversi formati quindi devono essere riconciliati e puliti prima di poterli caricare nel

datalagret (Inmon, 1992; McFadden, 1996). I uppgifter provenienti da sistemi di immagazzinamento uppgifter ad hoc e da sorgenti uppgifter esterne sono speso usati per aumentare (aggiornare, sostituire) i uppgifter da sistemi legacy.

Ci sono molte ragioni irresistibili per sviluppare un datalagret, che includono una migliore presa di decisione attraverso l’uso effettivo di più informazioni (Ives 1995), il supporto per un focus sugli affari completi (Graham 1996), e la riduzione in costi di provvedimento di uppgifter per EIS e DSS (Graham 1996, McFadden 1996).

Un recente studio empirico ha scoperto, in media, un ritorno degli investimenti per i datalagret del 401% dopo tre anni (Graham, 1996). Comunque, gli altri studi empirici di datalagret hanno trovato significanti problemi incluso la difficoltà nel misurare ed assegnare benefici, mancanza di un scopo chiaro, sottovalutando lo scopo e la complessità del processo di immagazzinare i uppgifter, in particolare quanto riguarda le fonti e la pulizia dei uppgifter. Immagazzinare i uppgifter può essere considerato come una soluzione al problema di gestione dei uppgifter fra le organizzazioni. La manipolazione dei uppgifter come risorsa sociale è rimasto uno dei problemi chiave nella gestione di sistemi di informazioni in tutto il mondo per molti anni (Brancheau et al. 1996, Galliers et al. 1994, Niederman et al. 1990, Pervan 1993).

Un approccio popolare alla gestione dei uppgifter negli anni ottanta era lo sviluppo di un modello uppgifter sociale. Il modello uppgifter sociale fu pensato per offrire una base stabile per lo sviluppo di nuovi sistemi applicativi e databas e la ricostruzione e l’integrazione di legacy systems (Brancheau et al.

1989, Goodhue et al. 1988:1992, Kim and Everest 1994). Comunque, ci sono molti problemi con questo approccio, in particolare, la complessità e il costo di ogni task, ed il lungo tempo richiesto per avere risultati tangibili (Beynon-Davies 1994, Earl 1993, Goodhue et al. 1992, Periasamy 1994, Shanks 1997).

Il datalagret è un databse separato che co-esiste coi legacy databases piuttosto che sostituirli. Esso perciò consente di indirizzare la gestione dei uppgifter ed evitare la costosa ricostruzione dei legacy systems.

APPROCCI ESISTENTI AL DISEGNO DI DATA

LAGER

Il processo di costruzione e perfezionamento di un datalagret va compreso più come un processo evolutivo piuttosto che un lifecycle di sviluppo di sistemi tradizionali (Desio, 1995, Shanks, O’Donnell and Arnott 1997a ). Ci sono molti processi coinvolti in un progetto di datalagret come inizializzazione, pianificazione; informazioni acquisite dai requisiti chieste ai dirigenti d’azienda; fonti, trasformazioni, pulizia dei uppgifter e di sincronizzazione da legacy systems e le altre fonti di uppgifter; sistemi di consegna in sviluppo; monitoraggio dei datalagret; e insensatezza del processo evolutivo e di costruzione di un datalagret (Stinchi, O’Donnell ed Arnott 1997b). In questo giornale, noi focalizziamo su come disegnare i uppgifter immagazzinati nel contesto di questi altri processi. Ci sono un numero di approcci proposti per l’architettura dei datalagret nella letteratura (Inmon 1994, Ives 1995, Kimball 1994 McFadden 1996). Ognuna di queste metodologie ha una breve rassegna con un’analisi dei loro punti di forza e non.

Inmon’s (1994) Approach for Datalager Designa

Inmon (1994) propose quattro passi iterativi per disegnare un datalagret (veda Figura 2). Il primo passo è progettare un modello uppgifter sociale per capire come i uppgifter possono essere integrati attraverso aree funzionali all’interno di un’organizzazione suddividendo i uppgifter immagazzini in aree. Il modello uppgifter è fatto per immagazzinare uppgifter attinenti a prese di decisione, incluso uppgifter storici, ed incluso uppgifter dedotti ed aggregati. Il secondo passo è identificare aree soggette per la realizzazione. Questi sono basati su priorità determinate da una particolare organizzazione. Il terzo passo comporta il disegno di un databas per l’area soggetta, pone particolare attenzione a includere appropriati livelli di granularità. Inmon raccomanda di usare il modello entità e relazioni. Il quarto passo è identificare sistemi di fonti uppgifter richiesti e sviluppare processi di trasformazione per acquisire, pulire e formattare i uppgifter.

Le forze dell’approccio di Inmon sono che il modello uppgifter sociale offre la base per l’integrazione di uppgifter all’interno dell’organizzazione e pianificazione di supporti per lo sviluppo iterativo di datalagret. Le sue pecche sono la difficoltà e il costo nel disegnare il modello uppgifter sociale, la difficoltà nel capire modelli di entità e relazioni usati in ambo i modelli, quello uppgifter sociale e quello di uppgifter immagazzinati per area soggetto, e l’appropriatezza dei uppgifter del disegno di datalagret för att förverkliga databas relazionali ma non per databas multi-dimensionali.

Ives’ (1995) Approach to Datalager Designa

Ives (1995) propone un approccio di quattro passi per disegnare un sistema informativo che lui ritiene applicabile al disegno di un datalagret (veda Figura 3). L’approccio è molto basato sull’ Information Engineering per lo sviluppo di sistemi di informazioni (Martin 1990). Il primo passo è determinare gli obiettivi, i fattori critici e di successo e gli indicatori chiave delle prestazioni. I processi chiave di business e le informazioni necessarie sono modellate per condurci ad un modello uppgifter sociale. Il secondo passo comporta lo sviluppo di un architettura che definisce uppgifter immagazzinati per aree, databas di datalagret, i componenti di tecnologia che sono richiesti, l’insieme di supporto organizzativo richiesto per implementare ed operare con datalagret. Il terzo passo include la selezione di pacchetti software e attrezzi richiesti. Il quarto passo è il disegno particolareggiato e la costruzione del datalagret. Ives nota che immagazzinare uppgifter è un vincolato processo iterativo.

La forza dell’approccio di Ives sono l’uso di specifiche tecniche per determinare i requisiti d’informazione, l’uso di uno strutturato processo per sostenere l’integrazione dei datalagret, l’opportuna selezione hardware e software, e l’uso di molteplici tecniche di rappresentazione per il datalagret. Le sue pecche sono inerenti alla complessità. Altre includono la difficoltà nello sviluppare molti livelli di databas all'interno del datalagret in tempi e costi ragionevoli.

Kimball’s (1994) Approach to Datalager Designa

Kimball (1994) propose cinque passi iterativi per disegnare un datalagret (vedi Figuri 4). Il suo approccio è particolarmente dedicato sul disegno di un solo datalagret e sull’uso di modelli dimensionali in preferenza a modelli di entità e relazioni. Kimball analizza quei modelli dimensionali perché è più facile capire per i dirigenti d’azienda gli affari, è più efficiente quando si trattano consultazioni complesse, e il disegno di databas fisico è più efficiente (Kimball 1994). Kimball riconosce che lo sviluppo di un datalagret è iterativo, e che datalagret separati possono essere integrati attraverso la ripartizione in tavole di dimensioni comuni.

Il primo passo è identificare la particolare area soggetto per essere perfezionato. Il secondo e terzo passo concernono modellatura dimensionale. Nel secondo passo le misure identificano cose di interesse nell’area soggetto e raggruppate in una tabella dei fatti. Per esempio, in un’area di soggetto di vendite le misure di interesse potrebbero includere l’ammontare di articoli venduto ed il dollaro come valuta di vendite. Il terzo passo comporta l’identificazione di dimensioni che sono i modi nei quali possono essere raggruppati i fatti. In un’area di soggetto di vendite, dimensioni attinenti potrebbero includere articolo, ubicazione e tempo periodo. La tabella dei fatti ha una chiave multi- part per collegarla ad ognuna delle tabelle di dimensione e tipicamente contiene un numero molto grande di fatti. In contrasto, tavole di dimensione contengono descrittive informazioni sulle dimensioni e gli altri attributi che possono essere usati per raggruppare i fatti. La tabella dei fatti e dimensioni associata proposta forma quello che è chiamato uno schema a stella a causa della sua forma. Il quarto passo comporta la costruzione di un databas multidimensionale per perfezionare lo schema della stella. Il passo finale è identificare sistemi di fonti uppgifter richiesti e sviluppare processi di trasformazione per acquisire, pulire e formattare i uppgifter.

Le forze dell’approccio di Kimball includono l’uso di modelli dimensionali per rappresentare i uppgifter immagazzinati che lo rendono facile da capire e conduce ad un disegno fisico efficiente. Un modello dimensionale che usa prontamente anche entrambi i sistemi di databas relazionali può essere perfezionato o sistemi di databas multidimensionali. Le sue pecche includono la mancanza di alcune tecniche per facilitare la pianificazione o l’integrazione di molti schemi della stella all’interno di un datalagret e la difficoltà di progettare dall’estrema struttura denormalizzata in un modello dimensionale a uppgifter in legacy system.

McFadden’s (1996) Approach to Data Lagerdesign

McFadden (1996) propone un approccio di cinque passi per disegnare un datalagret (vedi Figura 5).
Il suo approccio è basato su una sintesi delle idee dalla letteratura ed è focalizzato sul disegno di un solo datalagret. Il primo passo comporta un’analisi dei requisiti. Anche se le specifiche tecniche non sono prescritte, le note di McFadden identificano le entità uppgifter specifiche ed i loro attributi, e si riferisce ai lettori Watson e Frolick (1993) per l’acquisizione dei requisiti.
Nel secondo passo viene disegnato un modello entità relazioni per datalagret e poi convalidato dai dirigenti d’azienda. Il terzo passo comprende la determinazione del mapping da legacy system e fonti esterne di datalagret. Il quarto passo comporta processi in sviluppo, la distribuzione e sincronizzazione di uppgifter nel datalagret. Nel passo finale, la consegna del sistema è sviluppata con particolare enfasi su un’interfaccia utente. McFadden fa notare che il processo di disegno è generalmente iterativo.

Le forze dell’approccio di McFadden puntano sulla partecipazione da parte dei dirigenti d’azienda nel determinare i requisiti ed anche l’importanza delle risorse uppgifter, la loro pulizia e raccolta. Le sue pecche riguardano la mancanza di un processo per suddividere un grande progetto di datalagret in molti stages integrati, ed la

difficoltà nel capire i modelli di entità e relazione usati nel disegno di datalagret.

Det är inte bara de som är nära oss som väljer oss.

    0/5 (0 recensioner)
    0/5 (0 recensioner)
    0/5 (0 recensioner)

    Ta reda på mer från Online Web Agency

    Prenumerera för att få de senaste artiklarna via e-post.

    författarens avatar
    administration VD
    👍Webbbyrå online | Webbyråexpert inom digital marknadsföring och SEO. Web Agency Online är en Web Agency. För Agenzia Web Online är framgång inom digital transformation baserad på grunderna för Iron SEO version 3. Specialiteter: Systemintegration, Enterprise Application Integration, Service Oriented Architecture, Cloud Computing, Data Warehouse, Business Intelligence, Big Data, portaler, intranät, Web Application Design och hantering av relationella och multidimensionella databaser Designa gränssnitt för digitala medier: användbarhet och grafik. Online Web Agency erbjuder företag följande tjänster: -SEO på Google, Amazon, Bing, Yandex; -Webbanalys: Google Analytics, Google Tag Manager, Yandex Metrica; -Användarkonverteringar: Google Analytics, Microsoft Clarity, Yandex Metrica; -SEM på Google, Bing, Amazon Ads; -Marknadsföring i sociala medier (Facebook, Linkedin, Youtube, Instagram).
    Min agila integritet
    Denna webbplats använder tekniska cookies och profileringscookies. Genom att klicka på acceptera godkänner du alla profileringscookies. Genom att klicka på avvisa eller X:et avvisas alla profileringscookies. Genom att klicka på anpassa är det möjligt att välja vilka profileringscookies som ska aktiveras.
    Denna webbplats följer dataskyddslagen (LPD), schweizisk federal lag av den 25 september 2020 och GDPR, EU-förordning 2016/679, avseende skydd av personuppgifter samt fri rörlighet för sådan data.