fbpx

Datalager och Enterprise Resource Planning | DWH och ERP

Archivio DATA CENTRAL: HISTORIA ED EVOLUTIONER

De två dominerande teman för företagsteknologi på 90-talet var bl.a datalagret och ERP. Under lång tid har dessa två kraftfulla strömmar varit delar av företagens IT utan att någonsin ha korsningar. Det var nästan som om de var materia och antimateria. Men tillväxten av båda fenomenen har oundvikligen lett till att de skärs samman. Idag står företag inför problemet med vad man ska göra med ERP och datalagret. Den här artikeln kommer att beskriva vad problemen är och hur företagen tar itu med dem.

I BÖRJAN…

I början fanns det datalagret. Datalager skapades för att motverka applikationssystemet för transaktionsbearbetning. I de tidiga dagarna memorering av uppgifter det var tänkt att bara vara en motpol till ansökningar om transaktionsbearbetning. Men nuförtiden finns det mycket mer sofistikerade synpunkter på vad en datalagret. I dagens värld datalagret den infogas i en struktur som kan kallas Corporate Information Factory.

FÖRETAGSINFORMATIONSFABRIKEN (CIF)

Corporate Information Factory har standardarkitektoniska komponenter: en nivå av transformation och kodintegration som integrerar uppgifter medan jag uppgifter de går från applikationsmiljön till miljön av datalagret av företaget; a datalagret av företaget där uppgifter detaljerade och integrerade historiker. De datalagret av företaget fungerar som grunden på vilken alla andra delar av miljön kan byggas datalagret; ett operationellt datalager (ODS). En ODS är en hybridstruktur som innehåller vissa aspekter av datalagret och andra aspekter av en OLTP-miljö; data marts, där olika avdelningar kan ha sin egen version av datalagret; a datalagret av utforskning där företagets "filosofer" kan skicka in sina frågor i 72 timmar utan skadlig effekt på datalagret; och ett nära linjeminne, i vilket uppgifter gammal och uppgifter bulk detalj kan lagras billigt.

VAR KOMBINERAS ERP MED FÖRETAGSINFORMATIONSFABRIK

ERP:n går samman med Corporate Information Factory på två ställen. Först som en grundläggande applikation (baseline) som ger bl.a uppgifter av ansökan till datalagret. I detta fall jag uppgifter, som genereras som en biprodukt av en transaktionsprocess, integreras och laddas in i datalagret av företaget. Den andra unionspunkten mellan ERP och CIF och ODS. Faktum är att i många miljöer används ERP som en klassisk ODS.

Om ERP används som grundapplikation kan samma ERP också användas i CIF som ODS. I alla fall, om ERP ska användas i båda rollerna, måste det finnas en tydlig skillnad mellan de två enheterna. Med andra ord, när ERP spelar rollen som en kärnapplikation och en ODS, måste de två arkitektoniska enheterna särskiljas. Om en enda ERP-implementering försöker utföra båda rollerna samtidigt kommer det oundvikligen att uppstå problem i utformningen och implementeringen av den strukturen.

SEPARAT ODS OCH GRUNDLÄGGANDE APPLIKATIONER

Det finns många skäl som leder till uppdelningen av arkitektoniska komponenter. Den kanske mest talande frågan för att separera de olika komponenterna i en arkitektur är att varje komponent i arkitekturen har sin egen uppfattning. Baslinjeapplikationen tjänar ett annat syfte än ODS. Försök att överlappa varandra

en grundläggande applikationssyn på en ODS-värld eller vice versa är inte ett rätt sätt att arbeta.

Följaktligen är det första problemet med en ERP i CIF att verifiera om det finns en skillnad mellan baslinjeapplikationerna och ODS.

DATAMODELLER I FÖRETAGET INFORMATIONSFABRIK

För att uppnå sammanhållning mellan de olika komponenterna i CIF-arkitekturen måste det finnas en modell av uppgifter. Modellerna av uppgifter de fungerar som en länk mellan de olika komponenterna i arkitekturen, såsom baslinjeapplikationerna och ODS. Modellerna av uppgifter de blir den "intellektuella färdplanen" för att få rätt betydelse från de olika arkitektoniska komponenterna i CIF.

Går hand i hand med denna uppfattning är tanken att det ska finnas en stor och enkel modell av uppgifter. Självklart måste det finnas en modell av uppgifter för var och en av komponenterna och det måste också finnas en vettig väg som förbinder de olika modellerna. Varje komponent i arkitekturen – ODS, baslinjeapplikationer, datalagret av företaget, och så vidare.. – behöver en egen modell uppgifter. Och så det måste finnas en exakt definition av hur dessa modeller uppgifter de samverkar med varandra.

FLYTTA I DATA AV ERP I DATA LAGER

Om ursprunget till uppgifter är en baslinjeapplikation och/eller en ODS, när ERP:n infogar uppgifter nel datalagret, måste denna insättning ske på den lägsta nivån av "granularitet". Helt enkelt sammanfatta eller aggregera i uppgifter när de kommer ut ur ERP-baslinjeapplikationen eller ERP ODS är inte det rätta att göra. DE uppgifter detaljer behövs i datalagret att ligga till grund för DSS-processen. Sådan uppgifter kommer att omformas på många sätt av datamarts och utforskningar av datalagret.

Flytten av uppgifter från ERP-baslinjeapplikationsmiljön till datalagret av företaget sker på ett någorlunda avslappnat sätt. Denna flytt sker cirka 24 timmar efter uppdateringen eller skapandet i ERP. Det faktum att ha en "lat" rörelse av uppgifter nel datalagret av företaget tillåter uppgifter kommer från ERP till att "sätta in". När jag uppgifter lagras i baslinjeapplikationen, så kan du säkert flytta uppgifter av ERP i företaget. Ett annat mål som kan uppnås tack vare den "lata" rörelsen uppgifter det är den tydliga avgränsningen mellan operativa processer och DSS. Med en "snabb" rörelse av uppgifter skiljelinjen mellan DSS och operativ förblir vag.

Rörelsen av uppgifter från ERP:s ODS till datalagret av företaget görs regelbundet, vanligtvis veckovis eller månadsvis. I detta fall rörelsen av uppgifter det bygger på behovet av att "städa" de gamla uppgifter historiker. Naturligtvis innehåller ODS bl.a uppgifter som är mycket nyare än uppgifter historiker som finns i datalagret.

Flytten av uppgifter nel datalagret det görs nästan aldrig "grossist" (på ett grossistsätt). Kopiera en tabell från ERP-miljön till datalagret det låter inte rimligt. Ett mycket mer realistiskt tillvägagångssätt är att flytta utvalda enheter av uppgifter. Bara uppgifter som har ändrats sedan senaste uppdateringen av datalagret det är de som ska flyttas in i datalagret. Ett sätt att veta vilka uppgifter har ändrats sedan den senaste uppdateringen är att titta på tidsstämplarna för uppgifter finns i ERP-miljön. Designern väljer alla ändringar som har skett sedan den senaste uppdateringen. Ett annat tillvägagångssätt är att använda tekniker för att fånga förändringar uppgifter. Med dessa tekniker analyseras loggar och journalband för att avgöra vilka uppgifter måste flyttas från ERP-miljön till den för datalagret. Dessa tekniker är bäst eftersom loggar och journalband kan läsas från ERP-filer utan att ytterligare påverka andra ERP-resurser.

ANDRA KOMPLIKATIONER

En av ERP-problemen i CIF är vad som händer med andra applikationskällor eller till uppgifter av ODS de måste bidra till datalagret men de är inte en del av ERP-miljön. Med tanke på den slutna karaktären hos ERP, särskilt SAP, försöker integrera nycklar från externa källor uppgifter med jag uppgifter som kommer från ERP när du flyttar uppgifter nel datalagret, det är en stor utmaning. Och exakt vad är sannolikheterna för att jag uppgifter av applikationer eller ODS utanför ERP-miljön kommer att integreras i datalagret? Oddsen är faktiskt väldigt höga.

HITTA DATA HISTORISK FRÅN ERP

Ett annat problem med i uppgifter av ERP är det som härrör från behovet att ha uppgifter historiker inom datalagret. Vanligtvis datalagret han behöver uppgifter historiker. Och ERP-tekniken lagrar vanligtvis inte dessa uppgifter historiskt, åtminstone inte till den punkt där det är nödvändigt i datalagret. När en stor mängd uppgifter historia börjar lägga sig i ERP-miljön, den miljön måste städas upp. Anta till exempel att a datalagret måste laddas med fem år av uppgifter historisk medan ERP behåller maximalt sex månader av dessa uppgifter. Så länge företaget är nöjd med att samla in en rad uppgifter historiker som tiden går, då är det inga problem att använda ERP som en källa för datalagret. Men när datalagret han måste gå tillbaka i tiden och skaffa gudar uppgifter historier som inte tidigare har samlats in och sparats av ERP, då blir ERP-miljön ineffektiv.

ERP OCH METADATA

En annan övervägande att göra om ERP e datalagret är den på metadata som finns i ERP-miljön. Precis som metadata flödar från ERP-miljön till datalagret, måste metadata flyttas på samma sätt. Vidare måste metadata omvandlas till det format och den struktur som infrastrukturen kräver datalagret. Det är stor skillnad mellan operationell metadata och DSS-metadata. Operativ metadata är i första hand för utvecklaren och

programmerare. DSS-metadata är i första hand till för slutanvändaren. Befintlig metadata i ERP-applikationer eller ODS måste konverteras, och denna konvertering är inte alltid lätt och okomplicerad.

SKAPA ERP-DATA

Om affärssystemet används som leverantör av uppgifter för datalagret det måste finnas ett solidt gränssnitt som flyttar uppgifter från ERP-miljö till miljö datalagret. Gränssnittet måste:

  • ▪ vara lätt att använda
  • ▪ tillåta åtkomst till uppgifter av ERP
  • ▪ ta innebörden av uppgifter som är på väg att flyttas till datalagret
  • ▪ känna till de ERP-begränsningar som kan uppstå vid åtkomst till uppgifter av ERP:n:
  • ▪ referensintegritet
  • ▪ hierarkiska relationer
  • ▪ implicita logiska relationer
  • ▪ tillämpningskonvention
  • ▪ alla strukturer för uppgifter stöds av ERP, och så vidare...
  • ▪ vara effektiv när det gäller åtkomst uppgifter, genom att tillhandahålla:
  • ▪ direkt rörelse av uppgifter
  • ▪ förvärv av förändring uppgifter
  • ▪ stödja snabb tillgång till uppgifter
  • ▪ förstå formatet på uppgifter, och så vidare… GRÄNSSNITT MED SAP Gränssnittet kan vara av två typer, egentillverkat eller kommersiellt. Några av de stora handelsgränssnitten inkluderar:
  • ▪ SAS
  • ▪ Prims Solutions
  • ▪ D2k och så vidare... FLERA ERP-TEKNIKER Att behandla ERP-miljön som om det vore en enda teknik är ett stort misstag. Det finns många ERP-tekniker, var och en med sina egna styrkor. De mest kända leverantörerna på marknaden är:
  • ▪ SAP
  • ▪ Oracle Financials
  • ▪ PeopleSoft
  • ▪ JD Edwards
  • ▪ Baan SAP SAP är den största och mest kompletta ERP-mjukvaran. SAP-applikationer inkluderar många typer av applikationer inom många områden. SAP har ett rykte om sig att vara:
  • ▪ mycket stor
  • ▪ mycket svårt och dyrt att genomföra
  • ▪ behöver många människor och konsulter som ska implementeras
  • ▪ kräver specialiserade personer för implementering
  • ▪ tar lång tid att implementera Dessutom har SAP ett rykte om att memorera sina uppgifter mycket noggrant, vilket gör det svårt för någon utanför SAP-området att komma åt dem. SAPs styrka är att den kan fånga och lagra en stor mängd uppgifter. Nyligen meddelade SAP sin avsikt att utöka sina applikationer till datalagret. Det finns många fördelar och nackdelar med att använda SAP som leverantör datalagret. En fördel är att SAP redan är installerat och att de flesta konsulter redan känner till SAP.
    Nackdelarna med att ha SAP som leverantör av datalagret det finns många: SAP har ingen erfarenhet i världen av datalagret Om SAP är leverantör av datalagret, är det nödvändigt att "ta ut" dvs uppgifter från SAP till datalagret. nollpunkts en SAPs meritlista av slutet system är det osannolikt att det är lätt att få in i från SAP (???). Det finns många äldre miljöer som driver SAP, som IMS, VSAM, ADABAS, ORACLE, DB2 och så vidare. SAP insisterar på en "inte uppfunnen här"-strategi. SAP vill inte samarbeta med andra leverantörer för att använda eller skapa datalagret. SAP insisterar på att generera all sin programvara själv.

Även om SAP är ett stort och kraftfullt företag som försöker skriva om tekniken för ELT, OLAP, systemadministration och till och med kärnkoden för dbms det är bara galet. Istället för att samarbeta med leverantörer av datalagret Sedan länge har SAP följt metoden "de vet bäst". Denna attityd håller tillbaka den framgång som SAP skulle kunna ha inom området datalagret.
SAP:s vägran att tillåta externa leverantörer att snabbt och graciöst få tillgång till sina uppgifter. Själva kärnan i att använda en datalagret är lättillgänglig uppgifter. Hela SAP:s historia bygger på att göra det svårtillgängligt uppgifter.
SAP:s bristande erfarenhet av att hantera stora volymer av uppgifter; inom området för datalagret det finns mängder av uppgifter aldrig sett av SAP och att hantera dessa stora mängder uppgifter du måste ha lämplig teknik. SAP är tydligen inte medveten om denna tekniska barriär som finns för att komma in på området datalagret.
SAP:s företagskultur: SAP har gjort en affär av att få uppgifter från systemet. Men för att göra detta måste du ha en annan mentalitet. Traditionellt har mjukvaruföretag som varit bra på att få in data i en miljö inte varit bra på att få data att gå åt andra hållet. Om SAP lyckas göra den här typen av byte blir det det första företaget att göra det.

Kort sagt är det tveksamt om ett företag ska välja SAP som sin leverantör datalagret. Det finns mycket allvarliga risker å ena sidan och väldigt få belöningar å andra sidan. Men det finns en annan anledning som avskräcker från att välja SAP som leverantör datalagret. För alla företag borde ha samma datalagret än alla andra företag? De datalagret det är hjärtat av konkurrensfördelar. Om alla företag antog samma sak datalagret det skulle vara svårt, men inte omöjligt, att uppnå en konkurrensfördel. SAP verkar tro att en datalagret det kan ses som en cookie och detta är ytterligare ett tecken på deras "get the data in"-mentalitet hos applikationer.

Ingen annan ERP-leverantör är så dominerande som SAP. Utan tvekan kommer det att finnas företag som kommer att följa SAP:s väg för deras datalagret men förmodligen dessa datalagret SAP kommer att vara stort, dyrt och tidskrävande att skapa.

Dessa miljöer inkluderar sådana aktiviteter som bankkassörshantering, bokningsprocesser för flygbolag, processer för försäkringskrav och så vidare. Ju mer presterande transaktionssystemet var, desto mer uppenbart var behovet av separation mellan den operativa processen och DSS (Decision Support System). Men med HR- och personalsystem ställs du aldrig inför stora transaktionsvolymer. Och, naturligtvis, när en person anställs eller lämnar företaget är detta ett register över en transaktion. Men i förhållande till andra system har HR- och personalsystem helt enkelt inte många transaktioner. Därför är det i HR- och personalsystem inte helt självklart att det finns ett behov av ett DataWarehouse. På många sätt representerar dessa system en sammanslagning av DSS-system.

Men det finns en annan faktor som måste beaktas om du har att göra med datalager och PeopleSoft. I många miljöer, dvs uppgifter av mänskliga och personliga resurser är sekundära till företagets primära verksamhet. De flesta företag ägnar sig åt tillverkning, försäljning, tillhandahållande av tjänster och så vidare. Personal och personalsystem är vanligtvis sekundära till (eller stödjer) företagets huvudverksamhet. Därför är det tvetydigt och obekvämt datalagret separat för personal och personalstöd.

PeopleSoft skiljer sig mycket från SAP i detta avseende. Med SAP är det obligatoriskt att det finns en datalagret. Med PeopleSoft är det inte så tydligt. Ett datalager är valfritt med PeopleSoft.

Det bästa som kan sägas om uppgifter PeopleSoft är att datalagret kan användas för att arkivera i uppgifter relaterade till gamla mänskliga och personliga resurser. En andra anledning till varför ett företag skulle vilja använda en datalagret a

nackdelen för PeopleSoft-miljön är att tillåta åtkomst och fri tillgång till analysverktyg, för att uppgifter av PeopleSoft. Men utöver dessa skäl kan det finnas fall där det är att föredra att inte ha ett datalager för uppgifter PeopleSoft.

Sammanfattningsvis

Det finns många idéer om konstruktionen av en datalagret inom ett affärssystem.
Några av dessa är:

  • ▪ Det är vettigt att ha en datalagret det är som allt annat i branschen?
  • ▪ Hur flexibel ett affärssystem är datalagret programvara?
  • ▪ Ett affärssystem datalagret programvara kan hantera en volym av uppgifter som ligger i endatalagret arena"?
  • ▪ Vilken spårregistrering gör ERP-leverantören inför lätt och billigt, i termer av tid, uppgifter? (vilket är ERP-leverantörernas meritlista när det gäller leverans av billiga, i tid och lättillgängliga data?)
  • ▪ Vad är ERP-leverantörens förståelse för DSS-arkitekturen och företagsinformationsfabriken?
  • ▪ ERP-leverantörer förstår hur man uppnår uppgifter inom miljön, men också förstå hur man exporterar dem?
  • ▪ Hur öppen är ERP-leverantören för verktyg för datalager?
    Alla dessa överväganden måste göras för att bestämma var den ska placeras datalagret som kommer att vara värd för i uppgifter av ERP och andra uppgifter. I allmänhet, om det inte finns en övertygande anledning att göra något annat, rekommenderas att bygga datalagret utanför ERP-leverantörens miljö. KAPITEL 1 Översikt över BI-organisationens nyckelpunkter:
    Informationsarkiv fungerar i omvänd ordning till arkitekturen för business intelligence (BI):
    Företagskultur och IT kan begränsa framgången med att bygga BI-organisationer.

Teknik är inte längre den begränsande faktorn för BI-organisationer. Frågan för arkitekter och projektplanerare är inte om tekniken finns, utan om de effektivt kan implementera den tillgängliga tekniken.

För många företag a datalagret det är lite mer än en passiv insättning som distribuerar uppgifter till användare som behöver det. DE uppgifter de extraheras från källsystemen och fylls i målstrukturer för datalagret. Jag uppgifter de kan också rengöras med lite tur. Men inget mervärde tillförs eller samlas in av uppgifter under denna process.

I huvudsak ger passiv Dw i bästa fall bara i uppgifter ren och fungerande för användarföreningar. Informationsskapande och analytisk förståelse är helt upp till användarna. Bedöm om DW (Datalager) är en framgång är subjektiv. Om vi ​​bedömer framgång på förmågan att effektivt samla in, integrera och rengöra uppgifter företag på en förutsägbar basis, så ja, DW är en framgång. Å andra sidan, om vi tittar på insamling, konsolidering och utnyttjande av information av organisationen som helhet, då är DW ett misslyckande. En DW ger lite eller inget informationsvärde. Som ett resultat tvingas användare att klara sig, vilket skapar informationssilos. Detta kapitel presenterar en övergripande vy för att sammanfatta företagets BI-arkitektur (Business Intelligence). Vi börjar med en beskrivning av BI och går sedan över till diskussioner om informationsdesign och utveckling, i motsats till att bara tillhandahålla information. uppgifter till användare. Diskussionerna fokuserar sedan på att beräkna värdet av dina BI-insatser. Vi avslutar med att definiera hur IBM hanterar din organisations BI-arkitektoniska krav.

Arkitektur beskrivning av BI organisation

Kraftfulla transaktionsorienterade informationssystem är nu vanliga i alla stora företag, vilket effektivt utjämnar villkoren för företag runt om i världen.

Att förbli konkurrenskraftigt kräver nu analytiskt orienterade system som kan revolutionera företagets förmåga att återupptäcka och använda den information de redan har. Dessa analytiska system härrör från att förstå rikedomen av uppgifter tillgängliga. BI kan förbättra prestanda i hela företaget. Företag kan förbättra kund-leverantörsrelationer, förbättra lönsamheten för produkter och tjänster, generera nya och bättre erbjudanden, kontrollera risker och bland många andra vinster drastiskt minska kostnaderna. Med BI börjar ditt företag äntligen använda kundinformation som en konkurrenskraftig tillgång tack vare applikationer som har marknadsmål.

Att ha rätt affärsverktyg innebär att ha definitiva svar på nyckelfrågor som:

  • ▪ Vilken av våra kunder får de oss att tjäna mer, eller får de oss att förlora pengar?
  • ▪ Där våra bästa bor kunder i relation med butiken/ lager som de frekventerar?
  • ▪ Vilka av våra produkter och tjänster kan säljas mest effektivt och till vem?
  • ▪ Vilka produkter kan säljas mest effektivt och till vem?
  • ▪ Vilken säljkampanj är mest framgångsrik och varför?
  • ▪ Vilka försäljningskanaler är mest effektiva för vilka produkter?
  • ▪ Hur vi kan förbättra relationerna med våra bästa människor kunder? De flesta företag har uppgifter grova sätt att svara på dessa frågor.
    Operativa system genererar stora mängder produkt, kund och uppgifter marknaden från försäljningsställen, bokningar, kundservice och tekniska supportsystem. Utmaningen är att extrahera och utnyttja denna information. Många företag tjänar bara på små bråkdelar av sina uppgifter för strategiska analyser.
    I uppgifter återstående, ofta kombinerat med i uppgifter härledd från externa källor som regeringsrapporter och annan köpt information, är en guldgruva som bara väntar på att bli utforskad, och uppgifter de behöver bara förfinas inom informationskontexten för din organisation.

Denna kunskap kan appliceras på flera sätt, allt från att utforma en övergripande företagsstrategi till personlig kommunikation med leverantörer, via callcenter, fakturering, Internet och andra punkter. Dagens affärsmiljö dikterar att DW och relaterade BI-lösningar utvecklas bortom att driva traditionella affärsstrukturer. uppgifter som jag uppgifter normaliserad på atomnivå och ”stjärn-/kubgårdar”.

Vad som behövs för att förbli konkurrenskraftigt är en fusion av traditionell och avancerad teknologi i ett försök att stödja ett enormt analytiskt landskap.
Sammanfattningsvis måste den allmänna miljön förbättra kunskapen om företaget som helhet och säkerställa att de åtgärder som vidtas till följd av de analyser som genomförs är användbara så att alla drar nytta av det.

Låt oss till exempel säga att du rankar din egen kunder i hög- eller lågriskkategorier.
Om denna information genereras av en modellextraktor eller på annat sätt måste den läggas in i DW och göras tillgänglig för vem som helst med hjälp av alla åtkomstverktyg, såsom statiska rapporter, kalkylblad, tabeller eller online analytisk bearbetning (OLAP ) .

Men för närvarande finns mycket av denna typ av information kvar i silos uppgifter av de individer eller avdelningar som genererar analysen. Organisationen som helhet har liten eller ingen synlighet för förståelse. Endast genom att blanda denna typ av informationsinnehåll i ditt företags DW kan du eliminera informationssilos och höja din DW-miljö.
Det finns två stora hinder för att utveckla en BI-organisation.
För det första har vi problemet med själva organisationen och dess disciplin.
Även om vi inte kan hjälpa till med förändringar i organisationspolicy, kan vi hjälpa till att förstå komponenterna i en organisations BI, dess arkitektur och hur IBM-teknik underlättar dess utveckling.
Den andra barriären att övervinna är bristen på integrerad teknik och kunskap om en metod som adresserar hela BI-utrymmet i motsats till bara en liten komponent.

IBM tar tag i förändringar inom integrationstekniken. Det är ditt ansvar att tillhandahålla genomtänkt design. Denna arkitektur måste utvecklas med teknik vald för obegränsad integration, eller åtminstone med teknik som följer öppna standarder. Vidare måste din företagsledning säkerställa att BI-åtagandet genomförs enligt plan och att inte tillåta utveckling av informationssilos som uppstår från egennyttiga agendor eller mål.
Därmed inte sagt att BI-miljön inte är känslig för att reagera på olika användares olika behov och krav; istället innebär det att implementeringen av dessa individuella behov och krav görs till fördel för hela BI-organisationen.
En beskrivning av BI-organisationens arkitektur finns på sidan 9 i figur 1.1. Arkitekturen visar en rik blandning av teknologier och tekniker.
Ur den traditionella synen inkluderar arkitekturen följande lagerkomponenter

Atomlager (Atomlager).

Detta är grunden, hjärtat i hela DW och därför för strategisk rapportering.
I uppgifter lagras här kommer att behålla den historiska integriteten, rapporterar om uppgifter och inkluderar härledda mätvärden, samt att rengöras, integreras och lagras med hjälp av modellextraktion.
All efterföljande användning av dessa uppgifter och relaterad information härrör från denna struktur. Detta är en utmärkt källa för gruvdrift uppgifter och för rapporter med strukturerade SQL-frågor

Driftslager av uppgifter eller rapportera grund av uppgifter(Operational Data Store (ODS) eller rapportering databas.)

Detta är en struktur av uppgifter speciellt utformad för teknisk rapportering.

I uppgifter lagras och rapporteras ovanför kan dessa strukturer slutligen fortplanta sig in i lagret via uppställningsområdet, där det kan användas för strategisk signalering.

Uppställningsområde.

Första stoppet för de flesta uppgifter avsedd för lagermiljön är organisationszonen.
Här jag uppgifter integreras, rengörs och omvandlas till uppgifter vinster som kommer att fylla lagerstrukturen

Datum mars.

Denna del av arkitekturen representerar strukturen av uppgifter används specifikt för OLAP. Förekomsten av datamarts, om jag uppgifter lagras i de överlappande stjärnschemana uppgifter flerdimensionell i en relationsmiljö, eller i filerna för uppgifter Konfidentiell information som används av specifik OLAP-teknik, såsom DB2 OLAP Server, är inte relevant.

Den enda begränsningen är att arkitekturen underlättar användningen av uppgifter flerdimensionell.
Arkitekturen inkluderar också kritiska Bi-tekniker och tekniker som sticker ut som:

Rumslig analys

Utrymmet är en oväntad information för analytikern och är avgörande för fullständig upplösning. Rymden kan representera information om de människor som bor på en viss plats, såväl som information om var den platsen är fysiskt i förhållande till resten av världen.

För att utföra denna analys måste du börja med att knyta din information till latitud- och longitudkoordinater. Detta kallas "geokodning" och måste vara en del av extrahering, transformation och laddning (ETL)-processen på atomnivå i ditt lager.

Datautvinning.

Utvinningen av uppgifter gör det möjligt för våra företag att öka antalet kunder, för att förutsäga försäljningstrender och tillåta hantering av relationer med kunder (CRM), bland andra BI-initiativ.

Utvinningen av uppgifter den måste därför integreras med strukturerna för uppgifter av DWhouse och stöds av lagerprocesser för att säkerställa både effektiv och effektiv användning av relaterad teknologi och tekniker.

Som anges i BI-arkitekturen är atomnivån i Dwhouse, såväl som datamarts, en utmärkt källa till uppgifter för utvinning. Samma anläggningar måste också vara mottagare av utvinningsresultat för att säkerställa tillgänglighet för den bredaste publiken.

Agenter.

Det finns olika "agenter" för att undersöka klienten för varje punkt, såsom företagets operativsystem och dw själva. Dessa agenter kan vara avancerade neurala nätverk utbildade för att lära sig om trender vid varje punkt, såsom framtida produktefterfrågan baserad på säljkampanjer, regelbaserade motorer för att reagera på en dato uppsättning omständigheter, eller till och med enkla agenter som rapporterar undantag till "topchefer". Dessa processer sker vanligtvis i realtid och måste därför vara nära kopplade till deras rörelse uppgifter. Alla dessa strukturer av uppgifter, garanterar teknologier och tekniker att du inte kommer att spendera natten på att skapa en organisation av din BI.

Denna aktivitet kommer att utvecklas i stegvisa steg, för små poäng.
Varje steg är en oberoende projektinsats och kallas en iteration i ditt DW- eller BI-initiativ. Iterationer kan inkludera implementering av ny teknik, börja med nya tekniker, lägga till nya strukturer uppgifter , laddar i uppgifter ytterligare, eller med utökning av analys av din miljö. Denna paragraf diskuteras mer ingående i kapitel 3.

Förutom traditionella DW-strukturer och BI-verktyg finns det andra funktioner i din BI-organisation som du behöver designa för, till exempel:

Kundkontaktpunkter (Kundkontakt punkterna).

Som med alla moderna organisationer finns det ett antal kundkontaktpunkter som indikerar hur du kan få en positiv upplevelse för din kunder. Det finns traditionella kanaler som återförsäljare, växeloperatörer, direktreklam, multimedia och tryckt reklam, samt mer aktuella kanaler som e-post och webb, uppgifter produkter med någon kontaktpunkt måste införskaffas, transporteras, rengöras, bearbetas och sedan befolkas vid anläggningar uppgifter av BI.

Baser av uppgifter drift- och användarföreningar (operativa

databaser och användargemenskaper).
I slutet av kontaktpunkterna för kunder grunderna finns uppgifter av företagets applikations- och användargemenskaper. DE uppgifter befintliga är uppgifter traditionella som måste föras samman och slås samman med uppgifter som kommer från kontaktpunkterna för att tillgodose den nödvändiga informationen.

Analytiker. (Analytiker)

Den primära förmånstagaren av BI-miljön är analytikern. Det är han som gynnas av den nuvarande utvinningen av uppgifter operativt, integrerat med olika källor till uppgifter , utökad med funktioner som geografisk analys (geokodning) och presenterad i BI-tekniker som möjliggör extraktion, OLAP, avancerad SQL-rapportering och geografisk analys. Det primära analytikergränssnittet för rapporteringsmiljön är BI-portalen.

Analytikern är dock inte den enda som drar nytta av BI-arkitektur.
Chefer, stora användarföreningar och till och med medlemmar, leverantörer och i kunder bör hitta fördelar i företags-BI.

Back feed loop.

BI-arkitektur är en lärandemiljö. En karakteristisk princip för utveckling är att tillåta bestående strukturer av uppgifter ska uppdateras av den BI-teknik som används och av användarens åtgärder. Ett exempel är kundpoäng.

Om säljavdelningen modellerar kundpoäng för att använda en ny tjänst, bör säljavdelningen inte vara den enda gruppen som drar nytta av tjänsten.

Istället bör modellextraktion utföras som en naturlig del av dataflödet inom företaget och kundpoäng ska bli en integrerad del av lagerinformationskontexten, synlig för alla användare. Den Bi-bI-centrerade IBM Suite inklusive DB2 UDB, DB2 OLAP Server innehåller de flesta av de viktigaste teknologikomponenterna, definierade i figur 1.1.

Vi använder arkitekturen som den visas i den här illustrationen från boken för att ge oss en nivå av kontinuitet och visa hur varje IBM-produkt passar in i det övergripande BI-schemat.

Tillhandahålla informationsinnehåll (tillhandahålla informationsinnehåll)

Att designa, utveckla och implementera din BI-miljö är en svår uppgift. Designen måste omfatta både nuvarande och framtida affärskrav. Den arkitektoniska ritningen måste vara komplett för att inkludera alla slutsatser som hittats under designfasen. Utförandet måste förbli förpliktat till ett enda syfte: att utveckla BI-arkitekturen som formellt presenteras i designen och grundad i affärskrav.

Det är särskilt svårt att hävda att disciplin kommer att säkerställa relativ framgång.
Detta är enkelt eftersom du inte utvecklar en BI-miljö på en gång, utan du gör det i små steg över tid.

Det är dock viktigt att identifiera BI-komponenterna i din arkitektur av två skäl: Du kommer att vägleda alla efterföljande tekniska arkitekturbeslut.
Du kommer att medvetet kunna planera en viss användning av teknik även om du kanske inte får en repris som behöver tekniken på flera månader.

Att förstå dina affärskrav tillräckligt kommer att påverka vilken typ av produkter du skaffar för din arkitektur.
Att designa och utveckla din arkitektur säkerställer att ditt lager är

inte en slumpmässig händelse, utan snarare en noggrant konstruerad ”väl genomtänkt”. opera av konst som en mosaik av blandad teknik.

Designa informationsinnehåll

All initial design måste fokusera på och identifiera de viktigaste BI-komponenterna som kommer att behövas av den övergripande miljön nu och i framtiden.
Att känna till affärskraven är viktigt.

Redan innan någon formell design börjar kan projektplaneraren ofta identifiera en eller två komponenter direkt.
Balansen av komponenter som kan behövas för din arkitektur kan dock inte hittas lätt. Under designfasen knyter huvuddelen av arkitekturen samman applikationsutvecklingssessionen (JAD) till en strävan att identifiera affärskrav.

Ibland kan dessa krav anförtros fråge- och rapporteringsverktyg.
Användare uppger till exempel att om de vill automatisera en aktuell rapport måste de manuellt generera den genom att integrera två aktuella rapporter och lägga till beräkningar härledda från kombinationen av uppgifter.
Även om detta krav är enkelt, definierar det en viss funktionalitet hos funktionen som du måste inkludera när du köper rapporteringsverktyg för din organisation.

Konstruktören måste också fullfölja ytterligare krav för att få en helhetsbild. Vill användare prenumerera på den här rapporten?
Genereras och skickas delmängder av rapporter till olika användare? Vill de se den här rapporten i företagsportalen? Alla dessa krav är en del av det enkla behovet av att ersätta en manuell rapport som användarna begär. Fördelen med den här typen av krav är att alla, användare och designers, har en förståelse för begreppet rapporter.

Det finns dock andra typer av verksamheter som vi måste planera för. När affärskrav ställs i form av strategiska affärsfrågor är det lätt för expertdesignern att urskilja mått/fakta och dimensionella krav.

Om JAD-användare inte vet hur de ska ange sina krav i form av ett affärsproblem, kommer designern ofta att ge exempel för att kickstarta kravinsamlingssessionen.
Expertdesignern kan hjälpa användare att förstå inte bara strategisk handel, utan också hur man utformar den.
Kravsamlingsmetoden diskuteras i kapitel 3; för nu vill vi bara påpeka behovet av att designa för alla typer av BI-krav.

Ett strategiskt affärsproblem är inte bara ett affärskrav, utan också en design ledtråd. Om du ska svara på en flerdimensionell fråga måste du memorera, presentera bl.a uppgifter dimensionell, och om du behöver memorera uppgifter multidimensionell måste du bestämma vilken typ av teknik eller teknik du ska använda.

Implementerar du ett reserverat kubstjärnschema, eller båda? Som du kan se kan även ett enkelt affärsproblem påverka designen avsevärt. Men dessa typer av affärskrav är vanliga och förstås, åtminstone av designers och planerare med projekterfarenhet.

Det har varit tillräckligt med diskussioner om OLAP-teknik och support, och ett brett utbud av lösningar finns tillgängliga. Hittills har vi nämnt behovet av att sammanföra enkel rapportering med affärsdimensionella krav, och hur dessa krav påverkar tekniska arkitektoniska beslut.

Men vilka är kraven som inte lätt kan förstås av användarna eller Dw-teamet? Kommer du någonsin behöva rumslig analys?
Gruvmodellerna av uppgifter kommer de att vara en nödvändig del av din framtid? Vem vet?

Det är viktigt att notera att dessa typer av tekniker inte är välkända av de allmänna användargrupperna och Dw-teammedlemmarna, delvis kan det bero på att de vanligtvis hanteras av vissa interna eller tredjeparts tekniska experter. Det är ett extremfall av de problem som dessa typer av teknologier genererar. Om användare inte kan beskriva affärskrav eller rama in dem på ett sätt som ger vägledning till designers, kan de gå obemärkta förbi eller, ännu värre, helt enkelt ignoreras.

Mer problematiskt blir det när designern och utvecklaren inte kan känna igen tillämpningen av en av dessa avancerade men kritiska teknologier.
Som vi ofta har hört designers säga, "ja, varför lägger vi det inte åt sidan tills vi får den här andra saken? ”Är de verkligen intresserade av prioriteringar, eller undviker de helt enkelt krav som de inte förstår? Det är med största sannolikhet den sista hypotesen. Låt oss säga att ditt säljteam har kommunicerat ett affärskrav, som anges i figur 1.3, som du kan se är kravet inramat i form av ett affärsproblem. Skillnaden mellan detta problem och det typiska dimensionsproblemet är avståndet. I det här fallet vill säljteamet veta, på månadsbasis, den totala försäljningen från produkterna, lagren och kunder som bor inom 5 miles från lagret där de köper.

Tyvärr kan designers eller arkitekter helt enkelt ignorera den rumsliga komponenten genom att säga, "vi har kunden, produkten och uppgifter av insättningen. Låt oss hålla avståndet tills en ny iteration.

"Fel svar. Den här typen av affärsproblem handlar om BI. Det representerar en djupare förståelse för vår verksamhet och ett robust analytiskt utrymme för våra analytiker. BI är bortom enkel sökning eller standardrapportering, eller till och med OLAP. Detta är inte att säga att dessa tekniker inte är viktiga för din BI, men de ensamma representerar inte BI-miljön.

Design för informationssammanhang (Design för informationsinnehåll)

Nu när vi har identifierat de affärskrav som särskiljer olika grundläggande komponenter måste de ingå i en övergripande arkitektonisk design. Vissa av BI-komponenterna är en del av våra initiala ansträngningar, medan vissa inte kommer att implementeras på flera månader.

Men alla kända krav återspeglas i designen så att när vi behöver implementera en viss teknik är vi beredda att göra det. Något med projektet kommer att spegla traditionellt tänkande.

Denna uppsättning av uppgifter används för att stödja senare användning av uppgifter dimensionell vägledd av de affärsfrågor vi har identifierat. När ytterligare dokument genereras, såsom designutveckling av uppgifter, kommer vi att börja formalisera hur jag uppgifter de sprids i miljön. Vi har konstaterat behovet av att representera i uppgifter på ett dimensionellt sätt, dela upp dem (enligt specifika specifika behov) i datamars.

Nästa fråga att besvara är: hur kommer dessa datamarts att byggas?
Bygger du stjärnorna för att stödja kuberna, eller bara kuberna, eller bara stjärnorna? (eller högra kuber, eller rätt stjärnor). Generera arkitektur för beroende datamars som kräver ett atomlager för alla uppgifter förvärvar du? Tillåt oberoende datamarts att förvärva i uppgifter direkt från operativsystem?

Vilken Cube Technology kommer du att försöka standardisera?

Du har enorma mängder gudar uppgifter krävs för dimensionsanalys eller behöver du kuber från din nationella säljkår på veckobasis eller båda? Bygger du något så kraftfullt som DB2 OLAP Server för ekonomi eller Cognos PowerPlay-kuber för din säljorganisation, eller båda? Det här är de stora arkitektoniska designbesluten som kommer att påverka din BI-miljö från och med nu. Ja, du har konstaterat ett behov av OLAP. Hur ska du nu utföra den typen av teknik och teknik?

Hur påverkar några av de mest avancerade teknikerna din design? Låt oss anta att du har identifierat ett utrymmesbehov i din organisation. Du måste nu återkalla arkitektritningsutgåvorna även om du inte planerar att göra rumsliga komponenter på flera månader. Arkitekten ska rita idag utifrån vad som behövs. Förutsäg behovet av rumslig analys som genererar, lagrar, utför och ger tillgång till uppgifter rumslig. Detta bör i sin tur fungera som en begränsning för vilken typ av mjukvaruteknik och plattformsspecifikationer du för närvarande kan överväga. Till exempel administrationssystemet för databas relationsskikt (RDBMS) som du utför för ditt atomskikt måste ha en robust rumslig utsträckning tillgänglig. Detta skulle säkerställa maximal prestanda när du använder geometri och rumsliga objekt i dina analytiska applikationer. Om din RDBMS inte kan hantera uppgifter (rumscentrerad) internt, så du måste upprätta en databas (rumscentrerad) extern. Detta komplicerar hanteringen av problem och äventyrar din övergripande prestanda, för att inte tala om de ytterligare problem som skapas för dina DBA:er, eftersom de förmodligen har en minimal förståelse för grunderna i uppgifter också rumslig. Å andra sidan, om din RDMBS-motor hanterar alla rumsliga komponenter och dess optimerare är medveten om de speciella behoven (till exempel indexering) av rumsliga objekt, då kan dina DBA:er enkelt hantera hanteringen av problemen och du kan maximera prestandan.

Dessutom måste du justera mellanställningsområdet och atommiljölagret för att inkludera adressrensning (a

nyckelelement för rumslig analys), såväl som den efterföljande besparingen av utrymmesobjekt. Följden av ritutgåvor fortsätter nu när vi har introducerat begreppet tydlig riktning. För det första kommer den här applikationen att diktera vilken typ av programvara som behövs för din ETL-insats.

Behöver du produkter som Trillium för att ge den en ren adress, eller en ETL-leverantör som du väljer för att tillhandahålla den funktionen?
För nu är det viktigt att du uppskattar nivån på design som måste slutföras innan du börjar implementera ditt lager. Ovanstående exempel bör visa den mångfald av designbeslut som måste följa identifieringen av ett visst affärskrav. Om de fattas på rätt sätt främjar dessa designbeslut ett ömsesidigt beroende mellan de fysiska strukturerna i din miljö, valet av teknik som används och flödet av spridning av informationsinnehåll. Utan denna konventionella BI-arkitektur kommer din organisation att utsättas för en kaotisk blandning av befintliga teknologier, i bästa fall löst sammanfogade för att ge uppenbar stabilitet.

Underhåll informationsinnehåll

Att tillföra värdet av information till din organisation är en mycket svår uppgift. Utan tillräcklig förståelse och erfarenhet, eller korrekt planering och design, kommer även de bästa teamen att misslyckas. Å andra sidan, om du har stor intuition och detaljerad planering men ingen disciplin för utförande, har du bara slösat bort dina pengar och tid eftersom din ansträngning är dömd att misslyckas. Budskapet bör vara tydligt: ​​Om du saknar en eller flera av dessa färdigheter, förståelse/erfarenhet eller planering/design eller implementeringsdisciplin, kommer det att förlama eller förstöra byggnaden av BI-organisationen.

Är ditt team tillräckligt förberett? Finns det någon i ditt BI-team som förstår det enorma analytiska landskapet som är tillgängligt i BI-miljöer, och de tekniker och tekniker som behövs för att upprätthålla det landskapet? Finns det någon i ditt team som kan känna igen applikationsskillnaden mellan avancerade

statisk rapportering och OLAP, eller skillnaderna mellan ROLAP och OLAP? Inser en av dina teammedlemmar tydligt hur man extraherar och hur det kan påverka lagret eller hur lagret kan stödja utvinningsprestanda? En gruppmedlem förstår värdet av uppgifter rymd- eller agentbaserad teknik? Har du någon som uppskattar den unika tillämpningen av ETL-verktyg kontra meddelandemäklarteknik? Om du inte har en, skaffa en. BI är mycket större än ett normaliserat atomlager, OLAP, stjärnscheman och en ODS.

Att ha förståelsen och erfarenheten för att känna igen BI-krav och deras lösningar är avgörande för din förmåga att korrekt formalisera användarbehov och designa och implementera deras lösningar. Om din användargemenskap har svårt att beskriva krav är det lagerteamets uppgift att ge den förståelsen. Men om lagret laget

inte känner igen den specifika tillämpningen av BI - till exempel data mining - så är det inte det bästa att BI-miljöer ofta begränsas till att vara passiva repositories. Att ignorera dessa tekniker minskar dock inte deras betydelse och effekten de har på framväxten av din organisations affärsinformationskapacitet, såväl som informationslandskapet du planerar att främja.

Planering måste innehålla begreppet ritning, och båda kräver en kompetent person. Dessutom kräver design en teamlagerfilosofi och efterlevnad av standarder. Om ditt företag till exempel har etablerat en standardplattform eller har identifierat ett visst RDBMS som du vill standardisera över hela plattformen, ligger ansvaret på alla i teamet att följa dessa standarder. I allmänhet exponerar ett team behovet av standardisering (för användargemenskaper), men teamet självt är ovilligt att följa standarder som även etablerats inom andra områden i företaget eller kanske till och med i liknande företag. Detta är inte bara hycklande, utan det slår fast att företaget är oförmöget att utnyttja befintliga resurser och investeringar. Det betyder inte att det inte finns några situationer som motiverar en icke-standardiserad plattform eller teknologi; dock lagerinsatserna

de bör svartsjukt bevaka företagets standarder tills affärskraven dikterar något annat.

Den tredje nyckelkomponenten som behövs för att bygga en BI-organisation är disciplin.
Det beror totalt sett lika på individer och miljö. Projektplanerare, sponsorer, arkitekter och användare måste uppskatta den disciplin som krävs för att bygga företagets informationslandskap. Formgivare ska inrikta sina designinsatser på ett sådant sätt att de kompletterar andra nödvändiga insatser i samhället.

Låt oss till exempel säga att ditt företag bygger en ERP-applikation som har en lagerkomponent.
Därför är det ERP-designers ansvar att samarbeta med lagermiljöteamet för att inte konkurrera eller duplicera redan påbörjat arbete.

Disciplin är också ett ämne som måste tas upp av hela organisationen och som vanligtvis etableras och anförtros till en verkställande nivå.
Är chefer villiga att följa ett designat tillvägagångssätt? Ett tillvägagångssätt som lovar att skapa informationsinnehåll som i slutändan kommer att ge värde till alla delar av företaget, men kanske äventyrar individuella eller avdelningsagendor? Kom ihåg ordspråket "Att tänka på allt är viktigare än att tänka på bara en sak". Detta talesätt är sant för BI-organisationer.

Tyvärr fokuserar många lager sina ansträngningar på att försöka rikta in sig på och ge värde till en viss avdelning eller specifika användare, med liten hänsyn till organisationen i stort. Anta att chefen begär hjälp från lagerteamet. Teamet svarar med en 90-dagars ansträngning som inte bara inkluderar att leverera de aviseringskrav som definierats av chefen utan att se till att alla uppgifter baser blandas på atomnivå innan de introduceras i den föreslagna kubteknologin.
Detta tekniska tillägg säkerställer att lagerföretaget kommer att dra nytta av det uppgifter som behövs av chefen.
Emellertid talade chefen med externa konsultföretag som föreslog en liknande ansökan med leverans inom mindre än 4 veckor.

Förutsatt att det interna lagerteamet är kompetent, har chefen ett val. Vem kan stödja den ytterligare ingenjörsdisciplin som behövs för att odla informationstillgångsföretaget eller kan välja att bygga sin egen lösning snabbt. Den sista tycks väljas alldeles för ofta och tjänar bara till att skapa behållare av information som gynnar endast ett fåtal eller individen.

Kort- och långsiktiga mål

Arkitekter och projektdesigners måste formalisera en långsiktig vision av den övergripande arkitekturen och planer för tillväxt i en BI-organisation. Denna kombination av kortsiktig vinst och långsiktig planering representerar de två sidorna av BI-insatser. Kortsiktig vinst är den aspekt av BI som är associerad med iterationer av ditt lager.

Det är här planerare, arkitekter och sponsorer fokuserar på att uppfylla specifika kommersiella krav. Det är på denna nivå som fysiska strukturer byggs, teknik köps in och tekniker implementeras. De är på intet sätt gjorda för att tillgodose specifika krav som definieras av särskilda användargrupper. Allt görs för att möta specifika krav som definieras av en viss gemenskap.
Långsiktig planering är dock den andra aspekten av BI. Det var här som planerna och designerna säkerställde att alla fysiska strukturer byggdes, de valda teknikerna och de implementerade teknikerna gjordes med ett öga mot företaget. Det är långsiktig planering som ger den sammanhållning som behövs för att säkerställa att affärsnytta uppstår från eventuella kortsiktiga vinster.

Motivera din BI-ansträngning

Un datalagret i sig har det inget inneboende värde. Det finns med andra ord inget inneboende värde mellan lagerteknik och implementeringsteknik.

Värdet av varje lagerinsats återfinns i de åtgärder som utförs som ett resultat av lagermiljön och informationsinnehållet som odlas över tiden. Detta är en viktig punkt att förstå innan du någonsin försöker uppskatta värdet av ett wherehouse-initiativ.

Alltför ofta försöker arkitekter och designers att applicera värde på de fysiska och tekniska komponenterna i lagret när värdet i själva verket är baserat på de affärsprocesser som påverkas positivt av lagret och den välinhämtade informationen.

Här ligger utmaningen med att etablera BI: Hur motiverar du investeringen? Om själva wherehouse inte har något egenvärde, måste projektdesigners undersöka, definiera och formalisera fördelarna som uppnås av de individer som kommer att använda lagret för att förbättra specifika affärsprocesser eller värdet av skyddad information, eller både och.

För att komplicera saken kan alla affärsprocesser som påverkas av lagerinsatser ge "avsevärda" eller "små" fördelar. Avsevärda fördelar ger ett påtagligt mått för att mäta avkastningen på investeringen (ROI) – till exempel att vända lager en extra gång under en specifik period eller för lägre transportkostnad per försändelse. Det är svårare att definiera subtila fördelar, som förbättrad tillgång till information, i termer av påtagligt värde.

Anslut ditt projekt för att känna till affärsförfrågningar

Alltför ofta försöker projektplanerare koppla lagervärde till amorfa företagsmål. Genom att deklarera att "värdet av ett lager bygger på vår förmåga att tillfredsställa strategiska önskemål" öppnar vi diskussionen på ett trevligt sätt. Men det räcker inte ensamt för att avgöra om det är vettigt att investera i lager. Det är bäst att länka lager iterationer med specifika, kända affärskrav.

Mät ROI

Att beräkna ROI i en lagermiljö kan vara särskilt svårt. Det är särskilt svårt om fördelen

principen för en viss upprepning är något som inte är påtagligt eller lätt att mäta. En studie fann att användare upplever två huvudsakliga fördelar med BI-initiativ:

  • ▪ Skapa förmågan att fatta beslut
  • ▪ Skapa tillgång till information
    Dessa fördelar är mjuka (eller milda) fördelar. Det är lätt att se hur vi kan beräkna en ROI baserat på en hård (eller stor) fördel som minskade transportkostnader, men hur mäter vi förmågan att fatta bättre beslut?
    Detta är definitivt en utmaning för projektplanerare när de försöker övertyga företaget att investera i en viss lagerinsats. Ökande försäljning eller minskade kostnader är inte längre de centrala teman som driver BI-miljön.
    Istället tittar du på affärsförfrågningar om bättre tillgång till information så att en viss avdelning kan fatta snabbare beslut. Dessa är strategiska drivkrafter som råkar vara lika viktiga för företaget men som är mer tvetydiga och svårare att karakterisera i ett påtagligt mått. I det här fallet kan beräkning av ROI vara missvisande, om inte irrelevant.
    Projektplanerare måste kunna visa ett påtagligt värde för chefer att avgöra om investeringen i en viss iteration är värd det. Vi kommer dock inte att föreslå en ny metod för att beräkna ROI, och vi kommer inte heller att föra några argument för eller emot det.
    Det finns många artiklar och böcker tillgängliga som diskuterar grunderna för att beräkna ROI. Det finns speciella värdeförslag som till exempel värde på investeringar (VOI), som erbjuds av grupper som Gartner, som du kan undersöka. Istället kommer vi att fokusera på kärnaspekterna av alla ROI eller andra värdeförslag som du behöver överväga. Tillämpar ROI Utöver argumentet om "hårda" fördelar kontra "mjuka" fördelar förknippade med BI-insatser finns det andra frågor att tänka på när du tillämpar ROI. Till exempel:

Tillskriv för många besparingar till DW-insatser som skulle komma ändå
Låt oss säga att ditt företag gick från en stordatorarkitektur till en distribuerad UNIX-miljö. Så eventuella besparingar som kan (eller kanske inte) uppnås från den ansträngningen bör inte enbart, om alls (?), tillskrivas lagret.

Att inte ta hänsyn till allt är kostsamt. Och det finns många saker att ta hänsyn till. Tänk på följande lista:

  • ▪ Startkostnad, inklusive genomförbarhet.
  • ▪ Kostnad för dedikerad hårdvara med tillhörande lagring och kommunikation
  • ▪ Kostnad för programvaran, inklusive hantering uppgifter och klient/servertillägg, ETL-mjukvara, DSS-teknik, visualiseringsverktyg, schemaläggnings- och arbetsflödesapplikationer och övervakningsprogramvara, .
  • ▪ Konstruktionskostnad uppgifter, med skapandet och optimeringen av
  • ▪ Mjukvaruutvecklingskostnad direkt kopplad till BI-insatsen
  • ▪ Kostnad för support på plats, inklusive prestandaoptimering, inklusive programversionskontroll och hjälpoperationer Tillämpa "Big-Bang" ROI. Att bygga lagret som en enda, gigantisk ansträngning är dömt att misslyckas, så beräkna även ROI för ett stort företagsinitiativ. Erbjudandet är överraskande, och planerare fortsätter att göra svaga försök att uppskatta värdet av hela insatsen. Varför försöker planerare att sätta ett ekonomiskt värde på affärsinitiativet om det är allmänt känt och accepterat att det är svårt att uppskatta specifika upprepningar? Hur är det möjligt? Det är inte möjligt med några få undantag. Gör det inte. Nu när vi har fastställt vad vi inte ska göra när vi beräknar ROI, här är några punkter som hjälper oss att etablera en tillförlitlig process för att uppskatta värdet av dina BI-insatser.

Erhålla ROI-konsensus. Oavsett ditt val av teknik för att uppskatta värdet av dina BI-insatser måste alla parter komma överens om det, inklusive projektdesigners, sponsorer och företagsledare.

Minska ROI till identifierbara delar. Ett nödvändigt steg mot en rimlig beräkning av en ROI är att fokusera den beräkningen på ett specifikt projekt. Detta låter dig sedan uppskatta ett värde baserat på specifika affärskrav som uppfylls

Definiera kostnaderna. Som nämnts måste många kostnader beaktas. Dessutom måste kostnaderna inte bara inkludera de som är förknippade med den enstaka iterationen utan också kostnaderna för att säkerställa efterlevnad av företagsstandarder.

Definiera fördelar. Genom att tydligt koppla ROI till specifika affärskrav bör vi kunna identifiera de fördelar som kommer att leda till att kraven uppfylls.

Minska kostnader och fördelar i överhängande vinster. Det är det bästa sättet att basera dina värderingar på nettonuvärde (NPV) i motsats till att försöka förutsäga framtida värde i framtida intäkter.

Håll tidpunkten för att dela upp din ROI till ett minimum. Det är väldokumenterat under den långa tidsperioden det har använts i din ROI.

Använd mer än en ROI-formel. Det finns många metoder för att prognostisera ROI och du bör planera om du ska använda en eller flera av dem, inklusive nuvärde, intern avkastning (IRR) och återbetalning.

Definiera repeterbar process. Detta är avgörande för att beräkna eventuellt långsiktigt värde. En enda repeterbar process bör dokumenteras för att alla projektföljder ska följa.

De angivna problemen är de vanligaste som definieras av experter inom lagermiljön. Ledningens insisterande på att leverera en "Big-Bang" ROI är mycket desorienterande. Om du börjar alla dina ROI-beräkningar genom att dela upp dem i identifierbara, påtagliga bitar, har du goda möjligheter att uppskatta ett korrekt ROI-betyg.

Frågor om ROI-fördelar

Oavsett dina fördelar är, mjuka eller hårda, kan du använda några grundläggande frågor för att avgöra deras värde. Med hjälp av ett enkelt skalningssystem, från 1 till 10, kan du till exempel mäta effekten av alla ansträngningar genom att använda följande frågor:

  • Hur skulle du betygsätta förståelse för uppgifter följer ditt företags projekt?
  • Hur skulle du uppskatta processförbättringar som ett resultat av detta projekt?
  • Hur skulle du mäta effekten av nya insikter och slutsatser som nu görs tillgängliga genom denna iteration
  • Vilken påverkan hade nya och prestandafulla datormiljöer som ett resultat av det som hade lärts? Om svaren på dessa frågor är få är det möjligt att företaget inte är värt den investering som gjorts. Frågor med höga poäng pekar på betydande värdevinster och bör fungera som vägledning för vidare utredning. Till exempel bör ett högt betyg för processförbättringar leda till att designers undersöker hur processer har förbättrats. Du kanske upptäcker att en del eller alla vinster som görs är påtagliga och därför kan ett monetärt värde enkelt tillämpas. Få ut det mesta av den första iterationen av lager Det bästa resultatet av din företagsinsats är ofta i de första iterationerna. Dessa tidiga ansträngningar etablerar traditionellt det mest användbara informationsinnehållet för allmänheten och hjälper till att etablera den tekniska grunden för efterföljande BI-applikationer. Vanligtvis varje efterföljande sekvens av uppgifter av lagerprojekt ger allt mindre mervärde till företaget totalt sett. Detta gäller särskilt om iterationen inte lägger till nya ämnen eller möter behoven hos en ny användargemenskap.

Denna lagringsfunktion gäller även för växande högar av uppgifter historiker. Eftersom efterföljande ansträngningar kräver mer uppgifter och hur mer uppgifter hälls in i lagret med tiden, det mesta uppgifter det blir mindre relevant för den analys som används. Dessa uppgifter de kallas ofta uppgifter vilande och det är alltid dyrt att behålla dem eftersom de nästan aldrig används.

Vad betyder detta för projektsponsorer? I huvudsak delar tidiga sponsorer på mer än vad investeringen kostar. Detta är primärt eftersom de är drivkraften för att etablera lagrets breda teknik- och resursmiljöskikt, inklusive organiskt.

Men dessa första steg ger det högsta värdet och därför måste projektkonstruktörer ofta motivera investeringen.
Projekt som görs efter ditt BI-initiativ kan ha lägre (jämfört med det första) och direkta kostnader, men ger mindre värde för företaget.

Och organisationsägare måste börja överväga att slänga ackumuleringen uppgifter och mindre relevant teknik.

Data Mining: Extraktion Ge

Många arkitektoniska komponenter kräver variationer i datautvinningstekniker och -tekniker—
till exempel de olika "agenterna" för att undersöka intressepunkterna för kunder, företagets operativsystem och för dw själv. Dessa agenter kan vara avancerade neurala nätverk utbildade på POT-trender, såsom framtida produktefterfrågan baserad på säljkampanjer; regelbaserade motorer för att reagera på en uppsättning dato av omständigheter, till exempel medicinsk diagnos och behandlingsrekommendationer; eller till och med enkla agenter med rollen att rapportera undantag till högsta chefer. I allmänhet dessa extraktionsprocesser uppgifter si

verifiera i realtid; därför måste de förenas fullständigt med rörelsen av uppgifter sig själva.

Online analytisk bearbetning

Onlineanalys

Förmågan att skiva, tärna, rulla, borra ner och utföra analys
vad-om, ligger inom räckvidden, fokus för IBMs teknologisvit. Till exempel finns OLAP-funktioner (online analytical processing) för DB2 som för in dimensionsanalys i programvarumotorn. databas samma .

Funktionerna lägger till dimensionell nytta till SQL samtidigt som de drar fördel av alla fördelar med att vara en naturlig del av DB2. Ett annat exempel på OLAP-integrering är extraktionsverktyget DB2 OLAP Server Analyzer. Denna teknik gör att DB2 OLAP Server-kuber snabbt och automatiskt kan analyseras för att lokalisera och rapportera om värdevärden uppgifter ovanligt eller oväntat genom hela kuben för affärsanalytikern. Och slutligen ger DW Center-funktioner ett sätt för arkitekter att kontrollera bland annat profilen för en DB2 OLAP-serverkub som en naturlig del av ETL-processer.

Rumslig analys Rumslig analys

Utrymmet representerar hälften av de analytiska ankare (leads) som behövs för ett panorama
analytisk bred (tiden representerar den andra hälften). Lagrets atomnivå, avbildad i figur 1.1, inkluderar både tid och rymd. Tidsstämplar förankrar analyser efter tid och adresser informationsankaranalyser efter rum. Tidsstämplar utför analys efter tid, och adressinformation genomför analys per rum. Diagrammet visar geokodning – processen att omvandla adresser till punkter på en karta eller punkter i rymden så att begrepp som avstånd och insida/utsida kan användas i analysen – utförd på atomnivå och den rumsliga analys som görs tillgänglig för analytikern. IBM tillhandahåller rumsliga förlängningar, utvecklade med Environmental System Research Institute (ESRI), för att databas DB2 så att rymdobjekt kan lagras som en normal del av databas relationella. db2

Spatial Extenders, tillhandahåller också alla SQL-tillägg för att dra fördel av rumslig analys. Till exempel SQL-tilläggen att fråga mot
avstånd mellan adresser eller om en punkt är inom eller utanför ett definierat polygonområde, är en analytisk standard med Spatial Extender. Se kapitel 16 för mer information.

Databas-Resident Tools Tools Databas-Bosatt

DB2 har många BI-resident SQL-funktioner som hjälper till vid analys. Dessa inkluderar:

  • Rekursionsfunktioner för att utföra analys, som att " hitta alla möjliga flygvägar från San Francisco a New York".
  • Analytiska funktioner för rangordning, kumulativa funktioner, kub och rollup för att underlätta uppgifter som normalt bara sker med OLAP-teknik, är nu en naturlig del av motorn databas
  • Möjligheten att skapa tabeller som innehåller resultat
    Säljarna av databas ledare blandar mer av BI-kapaciteter i databas samma.
    Huvudleverantörerna av databas de blandar fler BI-funktioner i databas samma.
    Detta ger bättre prestanda och fler exekveringsalternativ för BI-lösningar.
    Funktionerna och funktionerna i DB2 V8 diskuteras i detalj i följande kapitel:
    Grunder för teknisk arkitektur och datahantering (kapitel 5)
  • Grunderna i DB2 BI (kapitel 6)
  • DB2 materialiserade frågetabeller (kapitel 7)
  • DB2 OLAP-funktioner (kapitel 13)
  • DB2 Enhanced BI-funktioner och funktioner (kapitel 15) Förenklat dataleveranssystem Leveranssystem av uppgifter förenklat

Arkitekturen som avbildas i figur 1.1 inkluderar många strukturer uppgifter fysisk. En är lagret av uppgifter fungerar. I allmänhet är en ODS ett subjektorienterat, integrerat och aktuellt objekt. Du skulle bygga en ODS för att stödja till exempel försäljningskontoret. ODS-försäljningen skulle komplettera uppgifter från många olika system men skulle bara behålla till exempel dagens transaktioner. ODS kan också uppdateras många gånger om dagen. Samtidigt driver processerna på uppgifter integreras i andra applikationer. Denna struktur är speciellt utformad för att integrera uppgifter aktuell och dynamisk och skulle vara en trolig kandidat för att stödja realtidsanalyser, såsom tillhandahållande till serviceagenter kunder en kunds aktuella försäljningsinformation genom att extrahera försäljningstrendinformation från själva lagret. En annan struktur som visas i figur 1.1 är ett formellt tillstånd för dw. Inte bara är detta platsen för genomförandet av den nödvändiga integrationen, kvaliteten på uppgifter, och omvandlingen av uppgifter av inkommande lager, men det är också ett pålitligt och tillfälligt lager för uppgifter replikat som skulle kunna användas i realtidsanalyser. Om du bestämmer dig för att använda en ODS eller ett iscensättningsområde, ett av de bästa verktygen för att fylla dessa strukturer uppgifter att använda olika operativa källor är DB2:s heterogena distribuerade fråga. Denna funktion levereras av den valfria DB2-funktionen som kallas DB2 Relational Connect (endast förfrågan) och genom DB2 DataJoiner (en separat produkt som ger möjlighet att fråga, infoga, uppdatera och ta bort till heterogena distribuerade RDBMS).

Denna teknik gör det möjligt för arkitekter uppgifter att knyta uppgifter produktion med analytiska processer. Inte bara kan tekniken anpassa sig till praktiskt taget alla replikeringskrav som kan uppstå med realtidsanalys, utan den kan också ansluta till en mängd olika databaser uppgifter mest populära, inklusive DB2, Oracle, Sybase, SQL Server, Informix och andra. DB2 DataJoiner kan användas för att fylla i en struktur uppgifter formell som en ODS eller till och med en permanent tabell representerad i lagret utformad för snabb återställning av omedelbara uppdateringar eller för försäljning. Naturligtvis samma strukturer uppgifter kan fyllas i med hjälp av

en annan viktig teknik designad för replikering av uppgifter, IBM DataPropagator Relational. (DataPropagator är en separat produkt för centrala system. DB2 UNIX, Linux, Windows och OS/2 inkluderar datareplikeringstjänster uppgifter som standardfunktion).
En annan metod för att flytta uppgifter Verksamhet runt företaget är en företagsapplikationsintegratör, annars känd som en meddelandeförmedlare. Denna unika teknik tillåter oöverträffad kontroll för inriktning och förflyttning uppgifter runt företaget. IBM har den mest använda meddelandeförmedlaren, MQSeries, eller en variant av produkten som inkluderar kraven för e-handel, IBM WebSphere MQ.
För mer diskussion om hur man kan utnyttja MQ för att stödja ett lager- och BI-miljö, besök webbplats av boken. För nu räcker det med att säga att denna teknik är ett utmärkt sätt att fånga och transformera (med MQSeries Integrator) uppgifter centrerade (riktade) operatörer rekryterade för BI-lösningar. MQ-tekniken har integrerats och paketerats i UDB V8, vilket innebär att meddelandeköer nu kan hanteras som om de vore DB2-tabeller. Konceptet att svetsa köade meddelanden och universum av databas relationella huvuden mot en kraftfull leveransmiljö av uppgifter.

Noll latens Noll latens

Det ultimata strategiska målet för IBM är noll-latensanalys. Som definieras av
Gartner måste ett BI-system kunna härleda, assimilera och tillhandahålla information till analytiker på begäran. Utmaningen är förstås hur man mixar uppgifter aktuell och realtid med nödvändig historisk information, såsom i uppgifter relaterat mönster/trend, eller extraherad förståelse, såsom kundprofilering.

Sådan information innefattar till exempel identifiering av kunder hög eller låg risk eller vilka produkter i kunder de kommer med största sannolikhet att köpa om de redan har ost i sina kundvagnar.

Att uppnå noll latens är faktiskt beroende av två grundläggande mekanismer:

  • Fullständig förening av uppgifter som analyseras med de etablerade tekniker och verktyg som skapats av BI
  • Ett leveranssystem av uppgifter effektivt för att säkerställa att realtidsanalys verkligen är tillgänglig. Dessa förutsättningar för noll latens skiljer sig inte från de två mål som IBM har satt upp och beskrivna ovan. Den nära parningen av uppgifter Det är en del av IBM:s sömlösa integrationsprogram. Och skapa ett leveranssystem av uppgifter effektiv är helt beroende av tillgänglig teknik som förenklar leveransprocessen av uppgifter. Som ett resultat är två av IBMs tre mål avgörande för att förverkliga det tredje. IBM utvecklar medvetet sin teknik för att säkerställa att noll latens är en realitet för lagerinsatser. Sammanfattning / Syntes BI-organisationen tillhandahåller en färdplan för att bygga din miljö
    iterativt. Den måste anpassas för att spegla ditt företags behov, både nuvarande och framtida. Utan en bred arkitektonisk vision är lager iterationer inte mycket mer än slumpmässiga implementeringar av centrallagret som inte gör mycket för att skapa ett brett, informativt företag. Det första hindret för projektledare är hur man motiverar de investeringar som behövs för att utveckla BI-organisationen. Även om ROI-beräkning har förblivit en stöttepelare i lagerimplementeringar, blir det svårare att förutsäga exakt. Detta har lett till andra metoder för att avgöra om du får värde för dina pengar. Värdet på investeringen2 (VOI), till exempel, marknadsförs som en lösning. Det åligger arkitekterna av uppgifter och projektplanerare genererar och tillhandahåller medvetet information till användarföreningar och tillhandahåller inte bara en tjänst till dem uppgifter. Det är en enorm skillnad mellan de två. Information är något som gör skillnad i beslutsfattande och effektivitet; relativt, dvs uppgifter de är byggstenar för att härleda den informationen.

Även om man är kritisk mot källan uppgifter För att hantera affärsförfrågningar bör BI-miljön spela en större roll för att skapa informationsinnehåll. Vi måste ta de extra stegen för att rensa, integrera, transformera eller på annat sätt skapa informationsinnehåll som användare kan agera på, och sedan måste vi säkerställa att dessa åtgärder och beslut, där det är rimligt, återspeglas i BI-miljön. Om vi ​​degraderar lagret till att bara tjäna på uppgifter, säkerställs att användarföreningar skapar det informationsinnehåll som behövs för att vidta åtgärder. Detta säkerställer att deras samhälle kommer att kunna fatta bättre beslut, men företaget lider av bristen på kunskap som de har använt. nollpunkts Eftersom arkitekter och projektplanerare initierar specifika projekt i BI-miljön förblir de ansvariga inför företaget som helhet. Ett enkelt exempel på denna tvåsidiga egenskap hos BI-iterationer finns i källan uppgifter. Alla uppgifter mottagna för specifika affärsförfrågningar måste fyllas i i det första atomskiktet. Detta säkerställer utvecklingen av företagets informationstillgång, samt hanterar, adresserar de specifika användarförfrågningar som definieras i iterationen.

WhatisaDataWarehouse?

Datalager det har varit hjärtat i informationssystemarkitekturen sedan 1990 och stödjer informationsprocesser genom att erbjuda en solid integrerad plattform uppgifter historiska data som ligger till grund för efterföljande analyser. DE datalagret de erbjuder enkel integration i en värld av inkompatibla applikationssystem. Datalager det har utvecklats till en trend. Datalager organisera och memorera i uppgifter nödvändig för information och analytiska processer utifrån ett långt historiskt tidsperspektiv. Allt detta medför ett stort och ständigt engagemang i uppförande och underhåll av datalagret.

Så vad är en datalagret? ETT datalagret är:

  • ▪ ämnesorienterad
  • ▪ integrerat system
  • ▪ varianttid
  • ▪ icke-flyktig (kan inte raderas)

en samling av uppgifter används för att stödja ledningsbeslut vid implementering av processer.
I uppgifter insatt i datalagret i de flesta fall härrör de från operativa miljöer. De datalagret den skapas av en lagringsenhet, fysiskt skild från resten av systemet, som den innehåller uppgifter som tidigare transformerats av applikationer som arbetar på information som härrör från operativmiljön.

Den bokstavliga definitionen av a datalagret förtjänar en djupgående förklaring då det finns viktiga motiveringar och bakomliggande betydelser som beskriver egenskaperna hos ett lager.

ÄMNESORIENTERING ORIENTERING TEMATISK

Den första egenskapen hos en datalagret är att den är inriktad mot de stora aktörerna i ett företag. Guiden för försöken genom uppgifter det står i motsats till den mer klassiska metoden som involverar orientering av applikationer mot processer och funktioner, en metod som oftast delas av de flesta av de mindre nya ledningssystemen.

Den operativa världen är designad kring applikationer och funktioner som lån, sparande, bankkort och förtroende för en finansiell institution. Dws värld är organiserad kring huvudämnen som kunden, säljaren, produkten och aktiviteten. Samordning kring ämnen påverkar utformningen och genomförandet av uppgifter finns i dw. Ännu viktigare är att huvudämnet påverkar den viktigaste delen av nyckelstrukturen.

Applikationens värld påverkas av både databasens design och processdesignen. Dws värld är uteslutande fokuserad på modellering uppgifter och om utformningen av databas. Processdesign (i sin klassiska form) är inte en del av dw-miljön.

Skillnaderna mellan val av process-/funktionsansökan och val av ämne avslöjas också som skillnader i innehållet i uppgifter på detaljnivå. DE uppgifter del dw inkluderar inte i uppgifter som inte kommer att användas för DSS-processen medan applikationer

verksamhetsinriktad uppgifter innehålla i uppgifter för att omedelbart tillgodose funktions-/bearbetningskrav som kan eller inte kan ha någon användning för DSS-analytikern.
Ett annat viktigt sätt på vilket verksamhetsinriktade applikationer uppgifter avvika från uppgifter av dw finns i rapporterna för uppgifter. Jag uppgifter verksamheten upprätthåller en kontinuerlig relation mellan två eller flera tabeller baserat på en affärsregel som är aktiv. DE uppgifter av dw korsar ett spektrum av tid och sambanden som finns i dw är många. Många handelsregler (och på motsvarande sätt många relationer av uppgifter ) är representerade i beståndet av uppgifter mellan två eller flera bord.

(För en detaljerad förklaring av hur relationerna mellan uppgifter hanteras i DW, hänvisar vi till Tech Topic i den frågan.)
Ur inget annat perspektiv än den grundläggande skillnaden mellan ett funktions-/processapplikationsval och ett ämnesval, finns det en större skillnad mellan operativsystem och uppgifter och DW.

INTEGRATION INTEGRATION

Den viktigaste aspekten av dw-miljön är att jag uppgifter som finns i dw är lätt integrerade. ALLTID. UTAN UNDANTAG. Själva kärnan i dw-miljön är att jag uppgifter som finns inom gränserna för lagret är integrerade.

Integration visar sig på många olika sätt – i konsekventa identifierade konventioner, i konsekvent variabel mätning, i konsekventa kodade strukturer, i de fysiska attributen hos uppgifter konsekvent och så vidare.

Genom åren har designers av olika applikationer tagit många beslut om hur en applikation ska utvecklas. Stilen och de individuella designbesluten för designers applikationer visar sig på hundra sätt: i skillnader i kodning, nyckelstruktur, fysiska egenskaper, identifierande konventioner och så vidare. Den kollektiva förmågan hos många applikationsdesigners att skapa inkonsekventa applikationer är legendarisk. Figur 3 visar några av de viktigaste skillnaderna i hur applikationer utformas.

Kodning: Koda:

Applikationsdesigners har valt fältets kodning – sex – på olika sätt. En designer representerar sex som ett "m" och "f". En annan designer representerar kön som en "1" och en "0". En annan designer representerar sex som ett "x" och "y". En annan designer representerar sex som "man" och "kvinnlig". Det spelar ingen större roll hur könet kommer in i DW. "M" och "F" är förmodligen lika bra som hela pjäsen.

Det som spelar roll är att från vilket ursprung könsfältet än härstammar kommer det fältet till DW i ett konsekvent integrerat tillstånd. Följaktligen när fältet laddas in i DW från en applikation där det har representerats i formatet "M" och "F", uppgifter måste konverteras till DW-format.

Mätning av attribut: Mätning av Attribut:

Applikationsdesigners har valt att mäta pipeline på en mängd olika sätt under åren. En designer lagrar uppgifter av rörledningen i centimeter. En annan applikationsdesigner lagrar uppgifter av rörledningen uttryckt i tum. En annan applikationsdesigner lagrar uppgifter av rörledningen i miljoner kubikfot per sekund. Och en annan designer lagrar pipelineinformation i termer av varv. Oavsett källa, när rörledningsinformation kommer till DW måste den mätas på samma sätt.

Enligt indikationerna i figur 3 påverkar integrationsfrågor nästan alla aspekter av projektet – de fysiska egenskaperna hos uppgifter, dilemmat att ha mer än en källa till uppgifter, frågan om inkonsekventa identifierade prover, format av uppgifter inkonsekvent och så vidare.

Oavsett designämne är resultatet detsamma – dvs uppgifter måste lagras i DW på ett unikt och globalt acceptabelt sätt även när de underliggande operativsystemen lagrar dem på olika sätt uppgifter.

När DSS-analytikern tittar på DW, bör analytikerns mål vara att utnyttja uppgifter som finns i lagret,

snarare än att undra över trovärdigheten eller konsekvensen av uppgifter.

TIDSVARIANS

allt uppgifter i DW är de exakta till någon tidpunkt. Denna grundläggande egenskap hos uppgifter i DW är mycket annorlunda från uppgifter finns i driftmiljön. DE uppgifter av driftsmiljön är lika exakta som vid tillträdesögonblicket. Med andra ord i driftsmiljön när en enhet är åtkomlig uppgifter, förväntas det återspegla exakta värden som vid tidpunkten för åtkomst. För jag uppgifter i DW är exakta som vid någon tidpunkt (dvs inte "just nu"), sägs det att jag uppgifter som finns i DW är "tidsvarians".
Tidsvariationen av uppgifter av DW hänvisas till på många sätt.
Det enklaste sättet är att jag uppgifter av en DW representerar uppgifter över en lång tidshorisont – fem till tio år. Den representerade tidshorisonten för driftsmiljön är mycket kortare än dagens nuvarande värden från upp till sextio nittio
Applikationer som måste fungera väl och som måste vara tillgängliga för transaktionsbehandling måste innehålla minsta mängd uppgifter om de tillåter någon grad av flexibilitet. Så operativa applikationer har en kort tidshorisont, som ett ämne för design av ljudapplikationer.
Det andra sättet "tidsvarians" visas i DW är i nyckelstrukturen. Varje nyckelstruktur i DW innehåller, implicit eller explicit, ett tidselement, såsom dag, vecka, månad, etc. Tidselementet är nästan alltid längst ner i den sammanlänkade nyckeln som finns i DW. Vid dessa tillfällen kommer tidselementet att existera implicit, till exempel fallet där en hel fil dupliceras i slutet av månaden eller kvartalet.
Det tredje sättet att visa tidsvariationen är att jag uppgifter av DW, när den väl har registrerats korrekt, kan den inte uppdateras. DE uppgifter av DW är, för alla praktiska ändamål, en lång serie ögonblicksbilder. Naturligtvis om ögonblicksbilderna togs felaktigt, kan ögonblicksbilderna modifieras. Men förutsatt att ögonblicksbilderna är tagna på rätt sätt, ändras de inte så fort de tas. I några

I vissa fall kan det vara oetiskt eller till och med ogiltigt för ögonblicksbilder i DW att modifieras. DE uppgifter operativa, eftersom de är exakta som vid tillträdesögonblicket, kan de uppdateras när behov uppstår.

INTE FLYKTIG

Den fjärde viktiga egenskapen hos DW är att den är icke-flyktig.
Uppdateringar, infogningar, raderingar och modifieringar görs regelbundet i operativa miljöer på en rekord-för-post-basis. Men den grundläggande manipulationen av uppgifter som behövs i DW är mycket enklare. Det finns bara två typer av operationer som förekommer i DW - den initiala laddningen av uppgifter och tillgång till uppgifter. Det finns ingen uppdatering av uppgifter (i den allmänna meningen av uppdatering) i DW som en normal bearbetningsoperation. Det finns några mycket kraftfulla konsekvenser av denna grundläggande skillnad mellan operativ bearbetning och DW-bearbetning. På designnivå är behovet av att vara försiktig med onormal uppdatering inte en faktor i DW, eftersom uppdateringen av uppgifter inte genomförs. Detta innebär att på den fysiska designnivån kan man ta sig friheter att optimera tillgången till uppgifter, särskilt när det gäller ämnena fysisk normalisering och denormalisering. En annan konsekvens av DW-driftens enkelhet ligger i den underliggande teknologin som används för att driva DW-miljön. Att behöva stödja inline-post-för-post-uppdateringar (som ofta är fallet med operativ bearbetning) kräver att tekniken har en mycket komplex grund under uppenbar enkelhet.
Tekniken som stöder säkerhetskopiering och återställning, transaktioner och integritet av uppgifter och upptäckten och åtgärden av dödlägestillståndet är ganska komplext och inte nödvändigt för DW-bearbetning. Egenskaperna hos en DW, designorientering, integration av uppgifter inom DW, tidsvariation och enkelhet i hanteringen uppgifter, det hela leder till en miljö som är väldigt, väldigt olik den klassiska driftmiljön. Källan till nästan alla uppgifter av DW är driftsmiljön. Det är frestande att tro att det finns en massiv redundans av uppgifter mellan de två miljöerna.
Faktum är att det första intrycket som många människor har är att det är en stor redundans uppgifter mellan verksamhetsmiljön och miljön av

DW. En sådan tolkning är ytlig och visar en bristande förståelse för vad som händer i DW.
Det finns faktiskt ett minimum av redundans uppgifter mellan driftsmiljön och i uppgifter av DW. Tänk på följande:I uppgifter de filtreras dato byte från driftmiljön till DW-miljön. Många uppgifter de passerar aldrig utanför driftsmiljön. Förutom att jag uppgifter som är nödvändiga för DSS-bearbetning hittar sin riktning i miljön

▪ tidshorisonten för uppgifter det är väldigt olika från en miljö till en annan. DE uppgifter i driftsmiljön är de väldigt fräscha. DE uppgifter i DW är de mycket äldre. Endast ur tidshorisontsperspektivet finns det mycket liten överlappning mellan den operativa miljön och DW.

▪ DW innehåller uppgifter sammanfattning som aldrig finns i miljön

▪ Jag uppgifter genomgår en fundamental omvandling när de övergår till figur 3 illustrerar att de flesta uppgifter är väsentligt modifierade förutsatt att de väljs och flyttas till DW. Med andra ord, det mesta uppgifter den förändras fysiskt och radikalt när den flyttas in i DW. Ur integrationssynpunkt är de inte samma sak uppgifter som finns i driftmiljön. Mot bakgrund av dessa faktorer, redundansen av uppgifter mellan de två miljöerna är en sällsynt händelse, vilket leder till mindre än 1 % redundans mellan de två miljöerna. LAGRETS STRUKTUR DW har en distinkt struktur. Det finns olika nivåer av sammanfattning och detaljer som avgränsar DW:erna.
De olika komponenterna i en DW är:

  • metadata
  • Ge aktuella detaljer
  • Ge av gamla detaljer
  • Ge lite sammanfattat
  • Ge mycket sammanfattad

Den överlägset största oro är för i uppgifter aktuella detaljer. Det är det främsta problemet eftersom:

  • I uppgifter aktuella detaljer speglar de senaste händelserna, som alltid är av stort intresse och
  • i uppgifter av aktuell detalj är voluminös eftersom den lagras på den lägsta nivån av granularitet och
  • i uppgifter Aktuella detaljer lagras nästan alltid på diskminne, vilket är snabbt att komma åt, men dyrt och komplicerat att använda uppgifter detaljerna är äldre uppgifter som är lagrade i något minne Massa. Den nås sporadiskt och lagras på en detaljnivå som är kompatibel med uppgifter aktuella detaljer. Även om det inte är obligatoriskt att lagra på ett alternativt lagringsmedium, på grund av den stora volymen av uppgifter kombinerat med sporadisk tillgång till uppgifter, lagringsmediet för uppgifter äldre detaljdata lagras vanligtvis inte på disken. DE uppgifter lätt sammanfattade är de uppgifter som destilleras från den låga detaljnivån som finns till den nuvarande detaljnivån. Denna nivå av DW lagras nästan alltid på disklagring. Designproblemen som arkitekten står inför uppgifter i konstruktionen av denna nivå av DW är:
  • Vilken tidsenhet är sammanfattningen ovan
  • Vilket innehåll, attribut kommer att sammanfatta innehållet i uppgifter Nästa nivå av uppgifter finns i DW är det av uppgifter mycket sammanfattad. DE uppgifter mycket sammanfattade är kompakta och lättillgängliga. DE uppgifter mycket sammanfattade finns ibland i DW-miljön och i andra fall i uppgifter mycket sammanfattade finns utanför de omedelbara väggarna av tekniken som inrymmer DW. (i alla fall, dvs uppgifter mycket sammanfattade är en del av DW oavsett var jag uppgifter är fysiskt inhysta). Den sista komponenten i DW är metadata. I många avseenden sitter metadata i en annan dimension än andra uppgifter av DW, eftersom metadata inte innehåller några dato tagna direkt från driftmiljön. Metadata har en speciell och mycket viktig roll i DW. Metadata används som:
  • en katalog för att hjälpa DSS-analytikern att hitta innehållet i DW,
  • en guide för att kartlägga uppgifter av hur jag uppgifter har förvandlats från operativ miljö till DW-miljö,
  • en guide till de algoritmer som används för att summera mellan uppgifter av aktuella detaljer ei uppgifter något sammanfattat, dvs uppgifter mycket sammanfattat spelar Metadata en mycket större roll i DW-miljön än den någonsin haft i den operativa miljön GAMMAL DETALJ FÖRVARINGSMEDEL Magnettejp kan användas för att förvara den sortens uppgifter. Faktum är att det finns ett brett utbud av lagringsmedia som bör övervägas för gammal lagring uppgifter av detaljer. Beroende på volymen av uppgifterfrekvensen av åtkomst, kostnaden för verktygen och typen av åtkomst, är det helt troligt att andra verktyg kommer att behöva den gamla detaljnivån i DW. DATAFLÖDE Det finns ett normalt och förutsägbart flöde av uppgifter inom DW.
    I uppgifter de går in i DW från operativmiljön. (OBS: Det finns några mycket intressanta undantag från denna regel. Men nästan alla uppgifter ange DW från operativmiljön). nollpunkts att jag uppgifter ange DW från operativmiljön, transformeras den som den beskrevs tidigare. Under förutsättning att man går in i DW, dvs uppgifter ange den aktuella detaljnivån, som visas. Den finns där och används tills en av tre händelser inträffar:
  • är renad,
  • sammanfattas, och/eller ▪è Den föråldrade processen inom en DW flyttar i uppgifter aktuella detaljer a uppgifter av detalj gammal, enligt ålder av uppgifter. Processen

sammanfattning använder detaljen av uppgifter att beräkna uppgifter lätt sammanfattade och mycket sammanfattade nivåer av uppgifter. Det finns några undantag från det visade flödet (kommer att diskuteras senare). Men vanligtvis för de allra flesta uppgifter finns inom en DW, flödet av uppgifter det är som representerat.

ANVÄNDA DATAWAREHOUSE

Inte överraskande de olika nivåerna av uppgifter inom DW får de inte olika användningsnivåer. Som regel gäller att ju högre sammanfattningsnivå, desto mer i uppgifter de är använda.
Många användningsområden förekommer i uppgifter mycket sammanfattat, medan det gamla uppgifter detaljer används nästan aldrig. Det finns en god anledning att flytta organisationen till resursutnyttjandeparadigmet. Mer sammanfattat i uppgifter, desto snabbare och effektivare är det att komma fram till uppgifter. Om en butiken upptäcker att den gör många processer på detaljnivån för DW, då förbrukas en motsvarande stor mängd maskinresurser. Det ligger i allas bästa att bearbeta en så hög nivå av sammanfattningar så snart som möjligt.

För många butiker har DSS-analytikern i en pre-DW-miljö använt uppgifter på detaljnivå. I många avseenden ankomsten kl uppgifter detaljerad sammanfattning liknar en säkerhetsfilt, även när andra sammanfattningsnivåer är tillgängliga. En av arkitektens aktiviteter uppgifter är att avvänja DSS-användaren från konstant användning av uppgifter på lägsta detaljnivå. Det finns två motiveringar tillgängliga för arkitekten uppgifter:

  • genom att installera ett återkravssystem, där slutanvändaren betalar för de resurser som förbrukas och
  • vilket tyder på att mycket god responstid kan uppnås när beteendet med bl.a uppgifter är på en hög sammanfattningsnivå, medan den dåliga svarstiden kommer från beteendet hos uppgifter på en låg nivå av ANDRA ÖVERVÄGANDEN Det finns några andra DW-konstruktions- och förvaltningsöverväganden.
    Det första övervägandet är index. DE uppgifter vid högre sammanfattningar kan de fritt indexeras, medan i uppgifter

på lägre detaljnivåer är de så skrymmande att de kan indexeras sparsamt. Av samma skäl, dvs uppgifter vid höga detaljnivåer kan relativt enkelt omstruktureras, medan volymen av uppgifter på de lägre nivåerna är den så stor att jag uppgifter de kan inte lätt renoveras. Följaktligen modellen av uppgifter och det formella arbetet med designen lägger grunden för den DW som nästan uteslutande tillämpas på nuvarande detaljnivå. Med andra ord, modelleringsverksamheten för uppgifter de gäller inte för sammanfattningsnivåer, i nästan alla fall. Ett annat strukturellt övervägande är att indelningen av uppgifter av DW.

Partitionen kan göras på två nivåer - på nivån för dbms och på applikationsnivå. I divisionen på nivån dbms, The dbms informeras om indelningarna och kontrollerar dem därefter. Vid uppdelning på applikationsnivå är endast programmeraren informerad om divisionerna och ansvaret för deras administration överlåts till honom

Under nivå dbms, mycket arbete görs automatiskt. Det finns en hel del oflexibilitet förknippad med att automatiskt administrera divisioner. Vid avdelningar på tillämpningsnivå av uppgifter del datalagret, mycket arbete tynger programmeraren, men slutresultatet är flexibilitet i administrationen av uppgifter nel datalagret

ALTRE ANOMALI

Medan komponenterna i datalagret De fungerar enligt beskrivningen för nästan alla uppgifter, det finns några användbara undantag som måste diskuteras. Ett undantag är att uppgifter offentliga sammanfattande uppgifter. Dessa är uppgifter sammanfattningar som har beräknats ur datalagret men de används av samhället. DE uppgifter offentliga sammanfattningar lagras och hanteras i datalagret, även om de som tidigare nämnts är uträknade. Revisorer arbetar för att producera sådana kvartalsvis uppgifter såsom inkomster, kvartalskostnader, kvartalsvinster och så vidare. Arbetet som utförs av revisorer är externt mot datalagret. Hur som helst, jag uppgifter används ”internt” inom företaget – från marknadsföring, försäljning osv. En annan anomali, som inte kommer att diskuteras, är den av uppgifter extern.

En annan enastående typ av uppgifter som finns i en datalagret är den för permanenta detaljdata. Dessa orsakar behovet av att permanent lagra uppgifter på en detaljerad nivå av etiska eller juridiska skäl. Om ett företag utsätter sina anställda för farliga ämnen finns det ett behov av det uppgifter detaljerad och permanent. Om ett företag producerar en produkt som involverar allmän säkerhet, såsom flygplansdelar, finns det ett behov av det uppgifter permanenta detaljer, samt om ett företag ingår farliga kontrakt.

Företaget har inte råd att förbise detaljer eftersom under de närmaste åren, vid stämning, återkallelse, omtvistat byggfel m.m. bolagets exponering kan vara stor. Som ett resultat finns det en unik typ av uppgifter känd som permanent detaljdata.

SAMMANFATTNING

Un datalagret är en objektorienterad, integrerad, tidsvariant, en samling av uppgifter icke-flyktiga för att stödja förvaltningens beslutsbehov. Var och en av de framträdande funktionerna i en datalagret har sina konsekvenser. Plus att det finns fyra nivåer av uppgifter del datalagret:

  • Gammal detalj
  • Aktuell detalj
  • Ge lite sammanfattat
  • Ge mycket sammanfattad Metadata är också en viktig del av datalagret. ABSTRAKT Konceptet med lagring av uppgifter Det har nyligen fått mycket uppmärksamhet och har blivit en trend på 90-talet. Detta beror på förmågan hos en datalagret för att övervinna begränsningarna hos ledningsstödsystem såsom beslutsstödssystem (DSS) och executive information system (EIS). Även om begreppet datalagret ser lovande ut, implementera i datalagret kan vara problematiskt på grund av storskaliga lagerprocesser. Trots komplexiteten i lagerprojekt uppgifter, många leverantörer och konsulter som lagerför uppgifter de hävdar att lagring av uppgifter strömmen orsakar inga problem. Men i början av detta forskningsprojekt hade nästan ingen oberoende, rigorös och systematisk forskning utförts. Därför är det svårt att säga vad som faktiskt händer i branschen när de byggs datalagret. Denna studie undersökte lagringspraxis uppgifter samtida som syftar till att utveckla en rikare förståelse för australiensisk praxis. Litteraturgenomgången gav sammanhanget och grunden för den empiriska studien. Det finns ett antal resultat från denna forskning. Först avslöjade denna studie de aktiviteter som uppstod under utvecklingen av datalagret. På många områden, dvs uppgifter insamlade bekräftade den praxis som rapporterats i litteraturen. För det andra, de frågor och problem som kan påverka utvecklingen av datalagret identifierades av denna studie. Slutligen fördelar som vunnits av australiska organisationer i samband med användningen av datalagret har avslöjats.

Kapitel 1

Sök sammanhang

Begreppet datalager fick stor exponering och blev en framväxande trend under 90-talet (McFadden 1996, TDWI 1996, Shah och Milstein 1997, Shanks et al. 1997, Eckerson 1998, Adelman och Oates 2000). Detta kan ses av det växande antalet artiklar om datalagring i fackpublikationer (Little och Gibson 1999). Många artiklar (se t.ex. Fisher 1995, Hackathorn 1995, Morris 1995a, Bramblett och King 1996, Graham et al. 1996, Sakaguchi och Frolick 1996, Alvarez 1997, Brousell 1997, Clarke 1997, Don McCarthy 1997, 1997 McCarthy 1998'1999, XNUMX McCarthy Edwards XNUMX, TDWI XNUMX) har rapporterat betydande fördelar som uppnåtts av organisationer som implementerar i datalagret. De stödde sin teori med anekdotiska bevis på framgångsrika implementeringar, hög avkastning på investeringen (ROI) och även genom att tillhandahålla riktlinjer eller metoder för att utveckla datalagret

(Shanks et al. 1997, Seddon och Benjamin 1998, Little och Gibson 1999). I ett extremt fall, Graham et al. (1996) rapporterade en genomsnittlig avkastning på en treårig investering på 401%.

Mycket av den aktuella litteraturen har dock förbisett komplexiteten i att genomföra sådana projekt. Projekten av datalagret de är normalt komplexa och storskaliga och har därför stor sannolikhet att misslyckas om de inte kontrolleras noggrant (Shah och Milstein 1997, Eckerson 1997, Foley 1997b, Zimmer 1997, Bort 1998, Gibbs och Clymer 1998, Rao 1998). De kräver stora mängder av både mänskliga och ekonomiska resurser och tid och ansträngning för att bygga dem (Hill 1998, Crofts 1998). Den typiska tiden och de ekonomiska medlen som krävs är ungefär två år respektive två till tre miljoner dollar (Braly 1995, Foley 1997b, Bort 1998, Humphries et al. 1999). Denna tid och ekonomiska medel krävs för att kontrollera och konsolidera många olika aspekter av datalagring (Cafasso 1995, Hill 1998). Vid sidan av hård- och mjukvaruöverväganden, andra funktioner, som varierar från utvinning av uppgifter till lastningsprocesserna av uppgifter, minneskapaciteten för att hantera uppdateringar och meta uppgifter för användarutbildning, måste övervägas.

Vid den tidpunkt då detta forskningsprojekt startade bedrivs det mycket lite akademisk forskning inom området datalager, särskilt i Australien. Detta framgick av bristen på publicerade artiklar om datalagring från tidskrifter eller andra akademiska skrifter på den tiden. Många av de tillgängliga akademiska skrifterna beskrev USA:s erfarenhet. Bristen på akademisk forskning inom området datalager har orsakat krav på rigorös forskning och empiriska studier (McFadden 1996, Shanks et al. 1997, Little och Gibson 1999). I synnerhet forskningsstudier om implementeringsprocessen av datalagret behöver utföras för att utöka den allmänna kunskapen om genomförandet av datalagret och kommer att tjäna som grund för en framtida forskningsstudie (Shanks et al. 1997, Little och Gibson 1999).

Syftet med denna studie är därför att studera vad som faktiskt händer när organisationer genomför och använder i datalagret i Australien. Specifikt kommer denna studie att involvera en analys av en hel utvecklingsprocess av en datalagret, med början från initiering och planering till design och implementering och efterföljande användning inom australiska organisationer. Dessutom kommer studien också att bidra till nuvarande praxis genom att identifiera områden där praktiken kan förbättras ytterligare och ineffektivitet och risker kan minimeras eller undvikas. Vidare kommer den att fungera som underlag för andra studier om datalagret i Australien och kommer att fylla den lucka som för närvarande finns i litteraturen.

Forskningsfrågor

Målet med denna forskning är att studera de aktiviteter som är involverade i genomförandet av datalagret och deras användning av australiska organisationer. Speciellt studeras moment rörande projektering, utveckling, drift, användning och risker. Så frågan om denna forskning är:

"Vad är den nuvarande praxisen för datalagret i Australien?"

För att effektivt svara på denna fråga krävs ett antal underordnade forskningsfrågor. I synnerhet identifierades tre delfrågor från litteraturen, som presenteras i kapitel 2, för att vägleda detta forskningsprojekt: Hur är datalagret från australiska organisationer? Vilka problem har du stött på?

Vilka är fördelarna?
För att besvara dessa frågor användes en explorativ forskningsdesign med en undersökning. Som en explorativ studie är svaren på ovanstående frågor inte fullständiga (Shanks et al. 1993, Denscombe 1998). I det här fallet krävs triangulering för att förbättra svaren på dessa frågor. Utredningen kommer dock att ge en solid grund för det framtida arbetet med att undersöka dessa frågor. En utförlig diskussion om forskningsmetods motivering och design redovisas i kapitel 3.

Forskningsprojektets struktur

Detta forskningsprojekt är uppdelat i två delar: den kontextuella studien av datalagerkonceptet och den empiriska forskningen (se figur 1.1), som var och en diskuteras nedan.

Del I: Kontextstudier

Den första delen av forskningen bestod av att granska aktuell litteratur om olika typer av datalager inklusive beslutsstödssystem (DSS), executive information system (EIS), fallstudier av datalagret och begreppen datalagret. Dessutom resultaten av forumen datalagret och expert- och praktikermötesgrupper ledda av Monash DSS-forskargruppen, bidrog till denna fas av studien som var avsedd att få insikter i praktiken av datalagret och att identifiera riskerna med att anta dem. Under denna kontextuella studieperiod etablerades förståelse för problemområdet för att ge bakgrundskunskapen för efterföljande empiriska undersökningar. Detta var dock en pågående process under genomförandet av forskningsstudien.

Del II: Empirisk forskning

Det relativt nya konceptet med datalager, särskilt i Australien, har skapat behov av en undersökning för att få en bred bild av användarupplevelsen. Denna del genomfördes när problemdomänen hade etablerats genom omfattande litteraturgenomgång. Datalagringskonceptet som bildades under den kontextuella studiefasen användes som input för det första frågeformuläret för denna studie. Efter detta granskades frågeformuläret. Ni är experter på datalagret deltog i provet. Syftet med att testa det första frågeformuläret var att kontrollera frågornas fullständighet och riktighet. Baserat på testresultaten modifierades frågeformuläret och den modifierade versionen skickades till undersökningsdeltagarna. De returnerade frågeformulären analyserades sedan för bl.a uppgifter i tabeller, diagram och andra format. DE

analysresultat av uppgifter de bildar en ögonblicksbild av datalagringspraxis i Australien.

DATAWAREHOUSING ÖVERSIKT

Begreppet datalager har utvecklats med förbättringar inom datorteknik.
Det syftar till att övervinna de problem som applikationsstödgrupper som Decision Support System (DSS) och Executive Information System (EIS) möter.

Tidigare har det största hindret för dessa applikationer varit dessa applikationers oförmåga att tillhandahålla en databas nödvändig för analysen.
Detta beror främst på karaktären av ledningens arbete. Företagsledningens intressen varierar ständigt beroende på vilket område som omfattas. Därför jag uppgifter grundläggande för dessa applikationer måste de kunna ändras snabbt beroende på vilken del som ska behandlas.
Det betyder att jag uppgifter måste finnas tillgänglig i lämplig form för de efterfrågade analyserna. Faktum är att applikationsstödgrupper hade mycket svårt förr att samla in och integrera uppgifter från komplexa och olika källor.

Resten av det här avsnittet presenterar en översikt över konceptet med datalager och diskuterar hur datalagret kan övervinna problemen med applikationsstödgrupper.
Termen "Datalager” populariserades av William Inmon 1990. Hans ofta citerade definition ser Datalager som en samling av uppgifter ämnesorienterad, integrerad, icke-flyktig och varierande över tid, till stöd för ledningsbeslut.

Genom att använda denna definition framhäver Inmon att jag uppgifter bosatt i en datalagret de måste ha följande fyra egenskaper:

  • ▪ Ämnesinriktad
  • ▪ Integrerad
  • ▪ Icke-flyktig
  • ▪ Variabel över tid Med ämnesorienterad Inmon menas att jag uppgifter nel datalagret inom de största organisatoriska områden som funnits

definieras i modellen uppgifter. Till exempel alla uppgifter angående kunder finns i ämnesområdet KUNDER. Likaså alla uppgifter relaterade till produkterna finns i ämnesområdet PRODUKTER.

Med Integrated Inmon betyder att jag uppgifter som kommer från olika plattformar, system och platser kombineras och lagras på ett ställe. Följaktligen uppgifter liknande måste omvandlas till konsekventa format så att de enkelt kan läggas till och jämföras.
Till exempel representeras manligt och kvinnligt kön av bokstäverna M och F i ett system och av 1 och 0 i ett annat. För att integrera dem ordentligt måste ett eller båda formaten transformeras så att de två formaten är samma. I det här fallet kan vi ändra M till 1 och F till 0 eller vice versa. Ämnesorienterad och Integrerad indikerar att datalagret är utformad för att ge en funktionell och tvärgående vision av uppgifter från företaget.

Med Non-volatile menar han att jag uppgifter nel datalagret förbli konsekvent och uppdateringen av uppgifter Det är inte nödvändigt. Istället varje förändring i uppgifter original läggs till databas del datalagret. Detta innebär att den historiska dei uppgifter finns i datalagret.

För variabler med tid indikerar Inmon att jag uppgifter nel datalagret innehåller alltid ei tidsindikatorer uppgifter de korsar normalt en viss tidshorisont. Till exempel a
datalagret kan innehålla 5 års historiska värden av kunder från 1993 till 1997. Tillgängligheten av historien och en tidsserie av uppgifter låter dig analysera trender.

Un datalagret han kan samla sina egna uppgifter från OLTP-system; uppgifter externt till organisationen och/eller av andra speciella fångstsystemprojekt uppgifter.
I uppgifter extrakt kan gå igenom en rengöringsprocess, i det här fallet dvs uppgifter omvandlas och integreras innan de lagras i databas del datalagret. Sedan, jag uppgifter

invånare inom databas del datalagret görs tillgängliga för slutanvändarinloggningar och återställningsverktyg. Med hjälp av dessa verktyg kan slutanvändaren få tillgång till den integrerade vyn över organisationen uppgifter.

I uppgifter invånare inom databas del datalagret de lagras både i detalj och i sammanfattningsformat.
Nivån på sammanfattningen kan bero på typen av uppgifter. Jag uppgifter detaljerad kan bestå av uppgifter nuvarande och uppgifter historiker
I uppgifter royalties ingår inte i datalagret tills jag uppgifter nel datalagret är uppdaterade.
Förutom att lagra uppgifter sig själva, a datalagret den kan också lagra en annan typ av dato kallas METADATA som beskriver uppgifter invånare i hans databas.
Det finns två typer av metadata: utvecklingsmetadata och analysmetadata.
Utvecklingsmetadata används för att hantera och automatisera processerna för utvinning, rensning, kartläggning och laddning av uppgifter nel datalagret.
Informationen i utvecklingsmetadata kan innehålla detaljer om operativsystem, detaljer om de element som ska extraheras, modellen uppgifter del datalagret och affärsregler för konvertering uppgifter.

Den andra typen av metadata, känd som analytisk metadata, gör det möjligt för slutanvändaren att utforska innehållet i datalagret att hitta uppgifter tillgängliga och deras innebörd i tydliga, icke-tekniska termer.

Därför fungerar analytisk metadata som en brygga mellan datalagret och slutanvändarapplikationer. Denna metadata kan innehålla affärsmodellen, beskrivningar av uppgifter motsvarande affärsmodellen, fördefinierade frågor och rapporter, information för användaråtkomst och index.

Analys- och utvecklingsmetadata måste kombineras till en enda integrerad inneslutningsmetadata för att fungera korrekt.

Tyvärr har många av de befintliga verktygen sina egna metadata och det finns för närvarande inga befintliga standarder för det

tillåta datalagerverktyg att integrera denna metadata. För att råda bot på denna situation bildade många handlare av de viktigaste datalagerverktygen Meta Data Council som senare blev Meta Data Coalition.

Målet med denna koalition är att bygga en standardmetadatauppsättning som tillåter olika datalagerverktyg att konvertera metadata
Deras ansträngningar resulterade i födelsen av Meta Data Interchange Specification (MDIS) som kommer att möjliggöra utbyte av information mellan Microsofts arkiv och relaterade MDIS-filer.

Existensen av uppgifter både sammanfattad/indexerad och detaljerad ger användaren möjlighet att utföra en DRILLDRUKNING (borrning) från uppgifter indexeras till detaljerade och vice versa. Existensen av uppgifter detaljerade historik gör det möjligt att skapa trendanalyser över tid. Dessutom kan analysmetadata användas som en katalog för databas del datalagret för att hjälpa slutanvändare att hitta uppgifter nödvändig.

I jämförelse med OLTP-system, med deras förmåga att stödja analys av uppgifter och rapportering, den datalagret det ses som ett mer lämpligt system för informationsprocesser som att göra och svara på frågor och producera rapporter. Nästa avsnitt kommer att belysa skillnaderna mellan de två systemen i detalj.

DATALAGER MOT OLTP-SYSTEM

Många av informationssystemen inom organisationer är avsedda att stödja den dagliga verksamheten. Dessa system som kallas OLTP SYSTEMS, fångar kontinuerligt uppdaterade dagliga transaktioner.

I uppgifter inom dessa system ändras, läggs eller raderas de ofta. Till exempel ändras en kunds adress när han flyttar från en plats till en annan. I detta fall kommer den nya adressen att registreras genom att adressfältet ändras databas. Huvudsyftet med dessa system är att minska transaktionskostnaderna och samtidigt minska handläggningstiden. Exempel på OLTP-system inkluderar kritiska åtgärder som orderinmatning, lön, faktura, tillverkning, kundservice kunder.

Till skillnad från OLTP-system, som skapades för transaktions- och händelsebaserade processer, dvs datalagret skapades för att ge stöd för analysbaserade processer uppgifter och beslutsprocesser.

Detta uppnås normalt genom att integrera i uppgifter från olika OLTP och externa system i en enda "behållare" av uppgifter, som diskuterades i föregående avsnitt.

Monash Data Warehousing Process Model

Processmodellen för datalagret Monash utvecklades av forskare vid Monash DSS Research Group och bygger på litteraturen från datalagret, om erfarenhet av att stödja utvecklingen av systemområden, om diskussioner med leverantörer av applikationer för användning på datalagret, på en grupp experter på användningen av datalagret.

Faserna är: Initiering, Planering, Utveckling, Verksamhet och Förklaringar. Diagrammet förklarar den iterativa eller evolutionära karaktären av utvecklingen av en datalagret process med hjälp av tvåvägspilar placerade mellan de olika faserna. I detta sammanhang betyder "iterativ" och "evolutionär" att implementeringsaktiviteter i varje steg i processen alltid kan fortplanta sig bakåt mot föregående fas. Detta beror på ett projekts karaktär datalagret där ytterligare förfrågningar från slutanvändaren uppstår när som helst. Till exempel under utvecklingsfasen av en process datalagret, efterfrågas en ny dimension eller ämnesområde av slutanvändaren, vilket inte ingick i den ursprungliga planen, måste detta läggas till i systemet. Detta orsakar en förändring i projektet. Resultatet är att designteamet måste ändra kraven på de dokument som hittills skapats under designfasen. I många fall måste projektets nuvarande tillstånd gå tillbaka till designfasen där det nya kravet ska läggas till och dokumenteras. Slutanvändaren ska kunna se den specifika dokumentation som granskats och de ändringar som har gjorts i utvecklingsfasen. I slutet av denna utvecklingscykel måste projektet få utmärkt feedback från både utvecklings- och användarteam. Feedbacken återanvänds sedan för att förbättra ett framtida projekt.

Kapacitetsplanering
Dw tenderar att vara mycket stor i storlek och växa mycket snabbt (Best 1995, Rudin 1997a) som ett resultat av mängden uppgifter historia som de behåller från sin varaktighet. Tillväxt kan också orsakas av uppgifter tillägg som begärs av användare för att öka värdet på uppgifter som de redan har. Följaktligen lagringskraven för uppgifter kan förbättras avsevärt (Eckerson 1997). Därför är det väsentligt att säkerställa, genom att genomföra kapacitetsplanering, att systemet som byggs kan växa när behoven växer (Best 1995, LaPlante 1996, Lang 1997, Eckerson 1997, Rudin 1997a, Foley 1997a).
Vid planering för skalbarhet av databasen måste man känna till den förväntade tillväxten i storleken på lagret, vilka typer av frågor som sannolikt kommer att göras och antalet slutanvändare som stöds (Best 1995, Rudin 1997b, Foley 1997a). Att bygga skalbara applikationer kräver en kombination av skalbara serverteknologier och skalbara applikationsdesigntekniker (Best 1995, Rudin 1997b. Båda är nödvändiga för att bygga en mycket skalbar applikation. Skalbar serverteknologi kan göra det enkelt och fördelaktigt att lägga till lagring, minne och CPU utan att försämra performance (Lang 1997, Telephony 1997).

Det finns två huvudsakliga skalbara serverteknologier: symmetrisk multipelbehandling (SMP) och massiv parallell bearbetning (MPP) (IDC 1997, Humphries et al. 1999). En SMP-server har vanligtvis flera processorer som delar ett minne, systembuss och andra resurser (IDC 1997, Humphries et al. 1999). Ytterligare processorer kan läggas till för att öka dess Potenza beräkningsmässigt. En annan metod för att öka Potenza av SMP-servern, är att kombinera många SMP-maskiner. Denna teknik är känd som klustring (Humphries et al. 1999). En MPP-server, å andra sidan, har flera processorer var och en med sitt eget minne, bussystem och andra resurser (IDC 1997, Humphries et al. 1999). Varje processor kallas en nod. En ökning i Potenza beräkning kan uppnås

lägga till ytterligare noder till MPP-servrar (Humphries et al. 1999).

En svaghet med SMP-servrar är att för många input-output (I/O) operationer kan överbelasta systembussen (IDC 1997). Detta problem uppstår inte inom MPP-servrar eftersom varje processor har sitt eget bussystem. Emellertid är sammankopplingarna mellan varje nod i allmänhet mycket långsammare än SMP-bussystemet. Dessutom kan MPP-servrar lägga till en ytterligare komplexitetsnivå för applikationsutvecklare (IDC 1997). Således kan valet mellan SMP- och MPP-servrar påverkas av många faktorer, inklusive applikationernas komplexitet, pris/prestanda-förhållandet, den nödvändiga bearbetningskapaciteten, de förhindrade dw-applikationerna och ökningen av storleken på databas av dw och i antalet slutanvändare.

Många skalbara applikationsdesigntekniker kan användas vid kapacitetsplanering. Man använder olika anmälningsperioder som dagar, veckor, månader och år. Med olika anmälningsperioder databas den kan delas in i hanterbart grupperade bitar (Inmon et al. 1997). En annan teknik är att använda sammanfattningstabeller som är konstruerade genom att summera uppgifter da uppgifter detaljerad. Så jag uppgifter sammanfattade är mer kompakta än detaljerade, vilket kräver mindre minnesutrymme. Så den uppgifter detaljer kan lagras i en billigare förvaringsenhet, vilket sparar ännu mer lagring. Även om användning av sammanfattningstabeller kan spara minnesutrymme, kräver de mycket ansträngning för att hålla dem uppdaterade och i linje med affärsbehov. Denna teknik används dock ofta och används ofta i kombination med den tidigare tekniken (Best 1995, Inmon 1996a, Chauduri och Dayal
1997).

Definiera Datalager Tekniska arkitekturer Definition av dw-arkitekturtekniker

Tidiga användare av datalagring tänkte i första hand på en centraliserad implementering av dw där alla uppgifter, inklusive i uppgifter externa, integrerades i en enda,
fysisk lagring (Inmon 1996a, Bresnahan 1996, Peacock 1998).

Den största fördelen med detta tillvägagångssätt är att slutanvändare kan få tillgång till företagsomfattande syn på uppgifter organisatorisk (Ovum 1998). En annan fördel är att den erbjuder standardisering av uppgifter genom organisation, vilket innebär att det bara finns en version eller definition för varje terminologi som används i dw-förvaret (metadata) (Flanagan och Safdie 1997, Ovum 1998). Nackdelen med detta tillvägagångssätt är å andra sidan att det är dyrt och svårt att konstruera (Flanagan och Safdie 1997, Ovum 1998, Inmon et al. 1998). Inte långt efter lagringsarkitekturen uppgifter centraliserad blev populär, konceptet att utvinna mindre delmängder av det utvecklade uppgifter för att stödja behoven hos specifika tillämpningar (Varney 1996, IDC 1997, Berson och Smith 1997, påfågel 1998). Dessa små system är derivat av det större datalagret centraliserad. De är namngivna datalagret beroende avdelnings- eller beroende datamars. Den beroende datamart-arkitekturen är känd som treskiktsarkitektur där den första nivån består av datalagret centraliserad, den andra består av insättningar av uppgifter avdelning och den tredje består av tillgång till uppgifter och genom analysverktyg (Demarest 1994, Inmon et al. 1997).

Data marts byggs normalt efter datalagret centralized byggdes för att möta behoven hos specifika enheter (White 1995, Varney 1996).
Data marts lagrar uppgifter mycket relevant när det gäller särskilda enheter (Inmon et al. 1997, Inmon et al. 1998, IA 1998).

Fördelen med denna metod är att det inte kommer att finnas några dato inte integrerad och att jag uppgifter kommer att vara mindre överflödig inom datamarts som alla uppgifter de kommer från ett lager uppgifter integrerad. En annan fördel är att det blir få kopplingar mellan varje datamarknad och dess källor uppgifter eftersom varje datamart bara har en källa till uppgifter. Plus med denna arkitektur på plats kan slutanvändare fortfarande få tillgång till översikten över uppgifter

företagsorganisationer. Denna metod är känd som top-down-metoden, där datamarts byggs efter datalagret (påfågel 1998, Goff 1998).
Vissa organisationer har ökat behovet av att visa resultat tidigt, och vissa organisationer har börjat bygga oberoende datamarts (Flanagan och Safdie 1997, White 2000). I det här fallet får datamarts sina egna uppgifter direkt från grunderna i uppgifter OLTP och inte från det centraliserade och integrerade lagret, vilket eliminerar behovet av att ha centrallagret på plats.

Varje datamarknad kräver minst en länk till sina källor uppgifter. En nackdel med att ha flera anslutningar för varje datamart är att, jämfört med de två föregående arkitekturerna, överflöd av uppgifter ökar betydligt.

Varje datamart måste lagra alla uppgifter krävs lokalt för att inte ha någon effekt på OLTP-system. Detta gör att jag uppgifter de lagras i olika datamarts (Inmon et al. 1997). En annan nackdel med denna arkitektur är att den leder till skapandet av komplexa sammankopplingar mellan datamarts och deras datakällor. uppgifter som är svåra att genomföra och kontrollera (Inmon et al. 1997).

En annan nackdel är att slutanvändare inte kan komma åt översikten av företagsinformation eftersom bl.a uppgifter av de olika datamartsen är inte integrerade (Ovum 1998).
Ytterligare en nackdel är att det kan finnas mer än en definition för varje terminologi som används i datamarts, vilket genererar inkonsekvenser av uppgifter i organisationen (Ovum 1998).
Trots de nackdelar som diskuterats ovan, lockar oberoende datamars fortfarande många organisationers intresse (IDC 1997). En faktor som gör dem attraktiva är att de är snabbare att utvecklas och kräver mindre tid och resurser (Bresnahan 1996, Berson och Smith 1997, Ovum 1998). Följaktligen fungerar de främst som testprojekt som kan användas för att snabbt identifiera fördelar och/eller brister i projektet (Parsaye 1995, Braly 1995, Newing 1996). I detta fall måste den del som ska implementeras i pilotprojektet vara liten men viktig för organisationen (Newing 1996, Mansell-Lewis 1996).

Genom att undersöka prototypen kan slutanvändare och administration bestämma om de ska fortsätta eller stoppa projektet (Flanagan och Safdie 1997).
Om beslutet ska fortsätta bör datamarts för andra branscher byggas en i taget. Det finns två alternativ för slutanvändare baserat på deras behov av att bygga oberoende datamatriser: integrerad/federerad och ointegrerad (Ovum 1998)

I den första metoden ska varje ny datamart byggas utifrån nuvarande datamart och modellen uppgifter används av företaget (Varney 1996, Berson och Smith 1997, Peacock 1998). Behovet av att använda modellen uppgifter av företaget innebär att det måste säkerställas att det bara finns en definition för varje terminologi som används över datamarts, detta är också för att säkerställa att olika datamarts kan kombineras för att ge en överblick över företagsinformation (Bresnahan 1996). Denna metod kallas bottom-up och är bäst när det finns en begränsning av ekonomiska medel och tid (Flanagan och Safdie 1997, Ovum 1998, Peacock 1998, Goff 1998). I den andra metoden kan de konstruerade datamartsen bara tillgodose behoven hos en specifik enhet. En variant av den federerade datamarknaden är datalagret distribueras där databas Hub Server-mellanvara används för att slå samman många datamarts till ett enda arkiv uppgifter distribueras (White 1995). I detta fall, dvs uppgifter företag är distribuerade i flera datamarts. Slutanvändarförfrågningar vidarebefordras till databas server hub middleware, som extraherar alla uppgifter begärs av datamarts och returnerar resultaten till slutanvändarapplikationer. Denna metod tillhandahåller affärsinformation till slutanvändare. Problemen med oberoende datamarts är dock fortfarande inte eliminerade. Det finns en annan arkitektur som kan användas som kallas datalagret virtuell (White 1995). Denna arkitektur, som beskrivs i figur 2.9, är dock inte en datalagringsarkitektur. uppgifter verklig eftersom den inte flyttar laddning från OLTP-system till datalagret (Demarest 1994).

Faktum är att förfrågningarna från uppgifter från slutanvändare skickas vidare till OLTP-system som returnerar resultat efter bearbetning av användarförfrågningar. Även om den här arkitekturen tillåter slutanvändare att generera rapporter och göra förfrågningar, kan den inte tillhandahålla

uppgifter historisk och översikt över företagsinformation som jag uppgifter från de olika OLTP-systemen är inte integrerade. Därför kan denna arkitektur inte tillfredsställa analysen av uppgifter komplexa som prognoser.

Val av åtkomst- och återställningsapplikationer uppgifter

Syftet med att bygga en datalagret är att förmedla information till slutanvändare (Inmon et al. 1997, Poe 1996, McFadden 1996, Shanks et al. 1997, Hammergren 1998); ett eller flera åtkomst- och återställningsprogram uppgifter måste bli försedd. Hittills finns det en stor variation av dessa applikationer som användaren kan välja mellan (Hammergren 1998, Humphries et al. 1999). Applikationerna du väljer avgör framgången för ditt lagerarbete uppgifter i en organisation eftersom applikationer är den mest synliga delen av datalagret till slutanvändaren (Inmon et al. 1997, Poe 1996). Att bli framgångsrik a datalagret, ska kunna stödja analysverksamheten av uppgifter av slutanvändaren (Poe 1996, Seddon och Benjamin 1998, Eckerson 1999). Således måste ”nivån” av vad slutanvändaren vill ha identifieras (Poe 1996, Mattison 1996, Inmon et al. 1997, Humphries et al. 1999).

I allmänhet kan slutanvändare grupperas i tre kategorier: verkställande användare, affärsanalytiker och avancerade användare (Poe 1996, Humphries et al. 1999). Executive användare behöver enkel tillgång till fördefinierade uppsättningar av rapporter (Humphries et al. 1999). Dessa förhållanden kan lätt nås med menynavigering (Poe 1996). Dessutom bör rapporter presentera information med hjälp av grafisk representation såsom tabeller och mallar för att snabbt förmedla information (Humphries et al. 1999). Affärsanalytiker, som kanske inte har den tekniska förmågan att utveckla rapporter från grunden på egen hand, måste kunna modifiera aktuella rapporter för att möta deras specifika behov (Poe 1996, Humphries et al. 1999). Power users, å andra sidan, är den typ av slutanvändare som har förmågan att generera och skriva förfrågningar och rapporter från grunden (Poe 1996, Humphries et al. 1999). Det är de som

de utvecklar rapporter för andra typer av användare (Poe 1996, Humphries et al. 1999).

När slutanvändarkraven har fastställts måste ett urval av åtkomst- och återställningsapplikationer göras uppgifter bland alla tillgängliga (Poe 1996, Inmon et al. 1997).
Tillgång till uppgifter och hämtningsverktyg kan klassificeras i fyra typer: OLAP-verktyg, EIS/DSS-verktyg, fråge- och rapporteringsverktyg och datautvinningsverktyg.

OLAP-verktyg tillåter användare att skapa ad hoc-frågor såväl som de som görs på databas del datalagret. Dessutom tillåter dessa produkter användare att borra ner från uppgifter allmänna till detaljerade.

EIS/DSS-verktyg tillhandahåller chefsrapportering som "tänk om"-analys och tillgång till menystyrda rapporter. Rapporter bör vara fördefinierade och sammanfogade med menyer för enklare navigering.
Fråge- och rapporteringsverktyg tillåter användare att producera fördefinierade och specifika rapporter.

Datautvinningsverktyg används för att identifiera relationer som kan kasta nytt ljus över bortglömda operationer i uppgifter av datalagret.

Förutom att optimera kraven för varje typ av användare måste de valda verktygen vara intuitiva, effektiva och lätta att använda. De behöver också vara kompatibla med andra delar av arkitekturen och kunna arbeta med befintliga system. Det rekommenderas också att välja verktyg för dataåtkomst och hämtning med rimliga priser och prestanda. Andra kriterier att överväga inkluderar verktygsleverantörens engagemang för att stödja deras produkt och hur den kommer att utvecklas i framtida utgåvor. För att säkerställa användarens engagemang i användningen av datalagret involverar utvecklingsteamet användare i verktygsvalsprocessen. I detta fall bör en praktisk användarbedömning göras.

För att förbättra värdet på datalagret kan utvecklingsteamet även ge webbåtkomst till sitt datalager. Ett webbaktiverat datalager tillåter användare att komma åt uppgifter från avlägsna platser eller när du reser. Vidare kan information

tillhandahållas till lägre kostnader genom sänkta utbildningskostnader.

2.4.3 Datalager Driftfas

Denna fas består av tre aktiviteter: definition av datauppdateringsstrategier, kontroll av datalageraktiviteter och hantering av datalagersäkerhet.

Definition av datauppdateringsstrategier

Efter den första laddningen, dvs uppgifter nel databas av datalagret måste uppdateras regelbundet för att återskapa ändringarna som gjorts i dem uppgifter original. Du måste därför bestämma när du ska uppdatera, hur ofta uppdateringen ska schemaläggas och hur du ska uppdatera data uppgifter. Det rekommenderas att uppdatera uppgifter när systemet kan tas offline. Uppdateringsfrekvensen bestäms av utvecklingsteamet baserat på användarkrav. Det finns två metoder för att uppdatera datalagret: fullständig uppdatering och kontinuerlig laddning av ändringar.

Den första metoden, full uppdatering, kräver att alla laddas om uppgifter från början. Detta betyder att alla uppgifter krävs måste extraheras, rengöras, omvandlas och integreras i varje uppdatering. Detta tillvägagångssätt bör så långt det är möjligt undvikas eftersom det kräver mycket tid och resurser.

Ett alternativt tillvägagångssätt är att kontinuerligt ladda upp ändringar. Detta tillägger i uppgifter som har ändrats sedan den senaste uppdateringscykeln för datalager. Att identifiera nya eller modifierade poster minskar avsevärt mängden uppgifter som måste spridas till datalagret i varje uppdatering eftersom endast dessa uppgifter kommer att läggas till databas av datalagret.

Det finns minst 5 metoder som kan användas för att dra tillbaka, dvs uppgifter ny eller modifierad. För att få en effektiv datauppdateringsstrategi uppgifter en blandning av dessa tillvägagångssätt som fångar alla förändringar i systemet kan vara användbar.

Den första metoden, som använder tidsstämplar, förutsätter att alla är tilldelade uppgifter redigerade och uppdaterade en tidsstämpel så att du enkelt kan identifiera alla uppgifter modifierad och ny. Detta tillvägagångssätt har dock inte använts i stor utsträckning i de flesta av dagens operativsystem.
Det andra tillvägagångssättet är att använda en deltafil som genereras av en applikation som endast innehåller de ändringar som gjorts uppgifter. Att använda den här filen förstärker också uppdateringscykeln. Men även denna metod har inte använts i många tillämpningar.
Den tredje metoden är att skanna en loggfil, som i princip innehåller information som liknar deltafilen. Den enda skillnaden är att en loggfil skapas för återställningsprocessen och kan vara svår att förstå.
Det fjärde tillvägagångssättet är att modifiera applikationskoden. De flesta applikationskoder är dock gamla och ömtåliga; därför bör denna teknik undvikas.
Det sista tillvägagångssättet är att jämföra uppgifter källor med huvudfilen uppgifter.

Kontroll av datalagerverksamhet

När datalagret väl har släppts till användarna måste det övervakas över tid. I detta fall kan datalageradministratören använda ett eller flera hanterings- och kontrollverktyg för att övervaka användningen av datalagret. I synnerhet kan information samlas in om personer och den tid under vilken de kommer åt datalagret. Kom igen uppgifter samlas in, kan en profil av det utförda arbetet skapas som kan användas som input i användarens återkravsimplementering. Återbetalning gör att användarna kan informeras om kostnaden för bearbetning av datalager.

Dessutom kan datalagerrevisionen också användas för att identifiera typerna av frågor, deras storlek, antalet frågor per dag, frågornas reaktionstid, de sektorer som nås och mängden uppgifter bearbetas. Ett annat syfte med att göra datalagerrevision är att identifiera uppgifter som inte används. Dessa uppgifter de kan tas bort från datalagret för att förbättra tiden

av frågekörningssvar och övervaka tillväxten av uppgifter som bor inom databas av datalagret.

Säkerhetshantering för datalager

Ett datalager innehåller uppgifter integrerad, kritisk, känslig som lätt kan nås. Av denna anledning bör den skyddas från obehöriga användare. Ett sätt att implementera säkerhet är att använda delfunktionen DBMS att tilldela olika privilegier till olika typer av användare. På så sätt måste en åtkomstprofil upprätthållas för varje typ av användare. Ett annat sätt att säkra datalagret är att kryptera det som skrivet i databas av datalagret. Tillgång till uppgifter och hämtningsverktyg måste dekryptera uppgifter innan resultaten presenteras för användarna.

2.4.4 Datalager Implementeringsfas

Det är den sista fasen i implementeringscykeln för datalager. Aktiviteterna som ska genomföras i denna fas inkluderar att utbilda användare att använda datalagret och att genomföra granskningar av datalagret.

Användarutbildning

Användarutbildning bör göras innan du får tillgång till uppgifter av datalagret och användningen av hämtningsverktyg. Generellt bör sessioner börja med en introduktion till begreppet lagring uppgifter, innehållet i datalagret, meta uppgifter och verktygens grundläggande funktioner. Sedan kan mer avancerade användare också studera de fysiska tabellerna och användarfunktionerna för verktyg för dataåtkomst och hämtning.

Det finns många sätt att göra användarträning. En av dessa involverar ett urval av många användare eller analytiker som väljs från en uppsättning användare, baserat på deras ledarskap och kommunikationsförmåga. De är personligt utbildade i allt de behöver veta för att bli bekanta med systemet. När utbildningen är klar återvänder de till sina jobb och börjar lära andra användare hur de använder systemet. På

Baserat på vad de har lärt sig kan andra användare börja utforska datalagret.
Ett annat tillvägagångssätt är att utbilda många användare samtidigt, som om du skulle gå en klassrumskurs. Denna metod är lämplig när det är många användare som behöver tränas samtidigt. Ännu en metod är att träna varje användare individuellt, en efter en. Denna metod är lämplig när det finns få användare.

Syftet med användarutbildning är att göra dig bekant med tillgången till uppgifter och hämtningsverktyg samt innehållet i datalagret. Vissa användare kan dock bli överväldigade av mängden information som ges under träningspasset. Därför måste ett visst antal repetitionssessioner genomföras för löpande assistans och för att svara på specifika frågor. I vissa fall bildas en användargrupp för att tillhandahålla denna typ av support.

Samla feedback

När datalagret har rullats ut kan användare använda i uppgifter som finns i datalagret för olika ändamål. För det mesta använder analytiker eller användare i uppgifter i datalagret för:

  1. 1 Identifiera företagstrender
  2. 2 Analysera inköpsprofilerna för kunder
  3. 3 Dela i kunder och
  4. 4 Ge de bästa tjänsterna till kunder – anpassa tjänster
  5. 5 Formulera strategier marknadsföring
  6. 6 Ge konkurrenskraftiga offerter för kostnadsanalyser och hjälp med kontroll
  7. 7 Stöd strategiskt beslutsfattande
  8. 8 Identifiera möjligheter att sticka ut
  9. 9 Förbättra kvaliteten på nuvarande affärsprocesser
  10. 10 Kontrollera vinsten

Efter utvecklingsriktningen för datalagret kunde en serie granskningar genomföras av systemet för att få feedback

både från utvecklingsteamet och från slutanvändargemenskapen.
De erhållna resultaten kan beaktas för nästa utvecklingscykel.

Eftersom datalagret har ett inkrementellt tillvägagångssätt är det avgörande att lära av framgångarna och misstagen från tidigare utveckling.

2.5 Sammanfattning

I detta kapitel har de tillvägagångssätt som finns i litteraturen diskuterats. I avsnitt 1 diskuterades begreppet datalager och dess roll i beslutsvetenskap. Avsnitt 2 beskrev de huvudsakliga skillnaderna mellan datalager och OLTP-system. I avsnitt 3 diskuterade vi Monashs datalagermodell som användes i avsnitt 4 för att beskriva aktiviteterna som är involverade i processen att utveckla ett datalager, dessa teser var inte baserade på rigorös forskning. Vad som händer i verkligheten kan skilja sig mycket från vad litteraturen rapporterar, men dessa resultat kan användas för att skapa en grundläggande bakgrund som understryker konceptet med datalager för denna forskning.

Kapitel 3

Forskning och designmetoder

Detta kapitel tar upp forskningen och designmetoderna för denna studie. Den första delen visar en generisk bild av de forskningsmetoder som finns tillgängliga för informationssökning, vidare diskuteras kriterierna för att välja den bästa metoden för en viss studie. I avsnitt 2 diskuteras sedan två metoder som valts ut med de just exponerade kriterierna; av dessa kommer ett att väljas och antas med de skäl som anges i avsnitt 3 där skälen för att utesluta det andra kriteriet också anges. I avsnitt 4 presenteras forskningsdesignen och i avsnitt 5 slutsatserna.

3.1 Forskning inom informationssystem

Forskning inom informationssystem är inte bara begränsad till den tekniska domänen utan måste också utvidgas till att omfatta beteende- och organisatoriska syften.
Vi är skyldiga detta till teserna inom olika discipliner, från samhällsvetenskap till naturvetenskap; detta leder till att det behövs ett visst spektrum av forskningsmetoder som involverar kvantitativa och kvalitativa metoder som ska användas för informationssystem.
Alla tillgängliga forskningsmetoder är viktiga, faktiskt flera forskare som Jenkins (1985), Nunamaker et al. (1991) och Galliers (1992) menar att det inte finns någon specifik universell metod för att bedriva forskning inom de olika områdena av informationssystem; i själva verket kan en metod vara lämplig för en viss forskning men inte för andra. Detta ger oss ett behov av att välja en metod som är lämplig för vårt specifika forskningsprojekt: för detta val Benbasat et al. (1987) anger att forskningens art och syfte måste beaktas.

3.1.1 Forskningens art

De olika metoderna baserade på forskningens karaktär kan delas in i tre traditioner välkända inom informationsvetenskapen: positivistisk, tolknings- och kritisk forskning.

3.1.1.1 Positivistisk forskning

Positivistisk forskning är också känd som vetenskaplig eller empirisk studie. Den syftar till att: "förklara och förutsäga vad som kommer att hända i den sociala världen genom att titta på regelbundenheterna och orsak-verkan relationer mellan de element som utgör den" (Shanks et al 1993).

Positivistisk forskning kännetecknas också av repeterbarhet, förenklingar och vederläggningar. Vidare medger positivistisk forskning förekomsten av a priori-samband mellan de studerade fenomenen.
Enligt Galliers (1992) är taxonomi en forskningsmetod som ingår i det positivistiska paradigmet, som dock inte är begränsad till detta, i själva verket finns det laboratorieexperiment, fältexperiment, fallstudier, demonstrationer av teorem, förutsägelser och simuleringar. Genom att använda dessa metoder erkänner forskarna att de studerade fenomenen kan observeras objektivt och rigoröst.

3.1.1.2 Tolkningsforskning

Tolkande forskning, som ofta kallas fenomenologi eller anti-positivism, beskrivs av Neuman (1994) som ”den systematiska analysen av handlingens sociala innebörd genom direkt och detaljerad observation av människor i naturliga situationer, för att komma fram till en förståelse och till tolkningen av hur människor skapar och underhåller sin sociala värld”. Tolkningsstudier avvisar antagandet att observerade fenomen kan observeras objektivt. I själva verket är de baserade på subjektiva tolkningar. Dessutom lägger tolkningsforskare inte på företeelser a priori betydelser av de fenomen de studerar.

Denna metod omfattar subjektiva/argumentativa studier, aktionsforskning, deskriptiva/tolkande studier, framtidsforskning och rollspel. Utöver dessa undersökningar och fallstudier kan inkluderas i detta tillvägagångssätt eftersom de avser studier av individer eller organisationer i komplexa verkliga situationer.

3.1.1.3 Kritisk forskning

Kritisk undersökning är det minst kända tillvägagångssättet inom samhällsvetenskapen men har nyligen fått uppmärksamhet från informationssystemforskare. Det filosofiska antagandet att social verklighet är historiskt producerad och reproducerad av människor, såväl som sociala system med deras handlingar och interaktioner. Deras förmåga förmedlas dock av ett antal sociala, kulturella och politiska överväganden.

Liksom tolkningsforskning hävdar kritisk forskning att positivistisk forskning inte har något med det sociala sammanhanget att göra och ignorerar dess inflytande på mänskliga handlingar.
Kritisk forskning kritiserar å andra sidan tolkningsforskning för att vara för subjektiv och för att inte syfta till att hjälpa människor att förbättra sina liv. Den största skillnaden mellan kritisk forskning och de andra två ansatserna är dess utvärderande dimension. Medan objektiviteten hos de positivistiska och tolkningstraditionerna är att förutsäga eller förklara status quo eller social verklighet, syftar kritisk forskning till att kritiskt utvärdera och transformera den sociala verkligheten som studeras.

Kritiska forskare motsätter sig vanligtvis status quo för att ta bort sociala skillnader och förbättra sociala förhållanden. Kritisk forskning har ett engagemang för en processuell syn på fenomenen av intresse och är därför normalt longitudinell. Exempel på forskningsmetoder är långtidshistoriska studier och etnografiska studier. Kritisk forskning har dock inte använts i stor utsträckning i informationssystemforskning

3.1.2 Syftet med forskningen

Tillsammans med forskningens karaktär kan dess syfte användas för att vägleda forskaren i valet av en viss forskningsmetod. Syftet med ett forskningsprojekt är nära relaterat till forskningens position i förhållande till forskningscykeln som består av tre faser: teoriuppbyggnad, teoriprovning och teoriförfining. Baserat på tidpunkten för forskningscykeln kan ett forskningsprojekt alltså ha ett förklarande, beskrivande, utforskande eller prediktivt syfte.

3.1.2.1 Undersökande forskning

Utforskande forskning syftar till att undersöka ett helt nytt ämne och formulera frågor och hypoteser för framtida forskning. Denna typ av forskning används i teoribyggnad för att få initiala referenser inom ett nytt område. Typiskt används kvalitativa forskningsmetoder, såsom fallstudier eller fenomenologiska studier.

Men det är också möjligt att använda kvantitativa tekniker som explorativa undersökningar eller experiment.

3.1.3.3 Beskrivande forskning

Beskrivande forskning syftar till att i detalj analysera och beskriva en viss organisatorisk situation eller praxis. Detta är lämpligt för att bygga teorier och kan också användas för att bekräfta eller utmana hypoteser. Beskrivande forskning innefattar vanligtvis användning av mått och stickprov. De mest lämpliga forskningsmetoderna är undersökningar och analys av antecedent.

3.1.2.3 Förklarande forskning

Förklarande forskning försöker förklara varför saker händer. Den bygger på fakta som redan har studerats och försöker hitta orsakerna till dessa fakta.
Således bygger förklarande forskning normalt på utforskande eller deskriptiv forskning och är underordnad att testa och förfina teorier. Förklarande forskning använder normalt fallstudier eller undersökningsbaserade forskningsmetoder.

3.1.2.4 Förebyggande forskning

Förebyggande forskning syftar till att förutsäga de händelser och beteenden under observation som studeras (Marshall och Rossman 1995). Förutsägelse är det vetenskapliga standardtestet för sanning. Denna typ av forskning använder sig vanligtvis av undersökningar eller analyser av uppgifter historiker. (Yin 1989)

Ovanstående diskussion visar att det finns ett antal möjliga forskningsmetoder som kan användas i en viss studie. Det måste dock finnas en specifik metod som är mer lämpad än de andra för en viss typ av forskningsprojekt. (Galliers 1987, Yin 1989, De Vaus 1991). Varje forskare behöver därför noggrant utvärdera styrkorna och svagheterna hos olika metoder för att anta den mest lämpliga och kompatibla forskningsmetoden med forskningsprojektet. (Jenkins 1985, Pervan och Klass 1992, Bonomia 1985, Yin 1989, Himilton och Ives 1992).

3.2. Möjliga forskningsmetoder

Målet med detta projekt var att studera erfarenheterna i australiensiska organisationer med bl.a uppgifter lagras med en utveckling av datalagret. nollpunkts att det för närvarande finns en brist på forskning inom området data warehousing i Australien, är detta forskningsprojekt fortfarande i den teoretiska fasen av forskningscykeln och har ett utforskande syfte. Att utforska erfarenheten i australiska organisationer som använder datalagring kräver tolkning av det verkliga samhället. Följaktligen följer det filosofiska antagandet som ligger till grund för forskningsprojektet den traditionella tolkningen.

Efter en rigorös granskning av tillgängliga metoder identifierades två möjliga forskningsmetoder: undersökningar och fallstudier, som kan användas för explorativ forskning (Shanks et al. 1993). Galliers (1992) argumenterar för lämpligheten av dessa två metoder för just denna studie i sin reviderade taxonomi genom att säga att de är lämpliga för teoriuppbyggnad. De följande två underavsnitten diskuterar varje metod i detalj.

3.2.1 Undersökningsmetod

Enkätundersökningsmetoden kommer från den antika folkräkningsmetoden. En folkräkning består av att samla in information från en hel befolkning. Denna metod är dyr och opraktisk, särskilt om befolkningen är stor. Jämfört med en folkräkning fokuserar alltså en undersökning normalt på att samla in information för ett litet antal, eller urval, av befolkningens representanter (Fowler 1988, Neuman 1994). Ett urval speglar populationen från vilken det är hämtat, med olika nivåer av noggrannhet, beroende på urvalsstruktur, storlek och urvalsmetod som används (Fowler 1988, Babbie 1982, Neuman 1994).

Undersökningsmetoden definieras som "ögonblicksbilder av praxis, situationer eller åsikter vid en viss tidpunkt, utförda med hjälp av frågeformulär eller intervjuer, från vilka slutsatser kan dras
gjort” (Galliers 1992:153) [ögonblicksbild av praxis, situationer eller åsikter vid en viss tidpunkt, genomförd med hjälp av frågeformulär eller intervjuer, från vilka slutsatser kan dras]. Undersökningar handlar om att samla in information om någon aspekt av studien, från ett visst antal deltagare, genom att ställa frågor (Fowler 1988). Dessa frågeformulär och intervjuer, som inkluderar telefonintervjuer ansikte mot ansikte och strukturerade sådana, är också insamlingsteknikerna för uppgifter vanligast i undersökningar (Blalock 1970, Nachmias och Nachmias 1976, Fowler 1988), observationer och analyser kan användas (Gable 1994). Av alla dessa metoder för att samla in uppgifter, är användningen av frågeformulär den mest populära tekniken, eftersom den säkerställer att jag uppgifter

insamlade är strukturerade och formaterade och underlättar därför klassificeringen av information (Hwang 1987, de Vaus 1991).

När man analyserar i uppgifter, en utredningsstrategi använder ofta kvantitativa tekniker, såsom statistisk analys, men kvalitativa tekniker kan också användas (Galliers 1992, Pervan

och Klass 1992, Gable 1994). Normalt, dvs uppgifter insamlade används för att analysera fördelningar och mönster av associationer (Fowler 1988).

Även om undersökningar i allmänhet är lämpliga för forskning som handlar om frågan "vad?" (vad) eller härrörande från det, såsom 'hur mycket' och 'hur många', kan de ställas via frågan 'varför' (Sonquist och Dunkelberg 1977, Yin 1989). Enligt Sonquist och Dunkelberg (1977) syftar undersökningsforskning till att utmana hypoteser, utvärdera program, beskriva befolkningen och utveckla modeller för mänskligt beteende. Vidare kan undersökningar användas för att studera en viss befolkningsuppfattning, villkor, åsikter, egenskaper, förväntningar och även tidigare eller nuvarande beteenden (Neuman 1994).

Undersökningar gör det möjligt för forskaren att upptäcka samband mellan befolkningen och resultaten är normalt mer generella än andra metoder (Sonquist och Dunkelberg 1977, Gable 1994). Undersökningar tillåter forskare att täcka ett större geografiskt område och nå många svarande (Blalock 1970, Sonquist och Dunkelberg 1977, Hwang och Lin 1987, Gable 1994, Neuman 1994). Slutligen kan undersökningar ge information som inte finns tillgänglig någon annanstans eller i den form som krävs för analyser (Fowler 1988).

Det finns dock vissa begränsningar i att genomföra en undersökning. En nackdel är att forskaren inte kan få mycket information om det studerade föremålet. Detta beror på att undersökningarna endast genomförs vid en viss tidpunkt och därför finns det ett begränsat antal variabler och personer som forskaren kan

studie (Yin 1989, de Vaus 1991, Gable 1994, Denscombe 1998). En annan nackdel är att genomförandet av en undersökning kan vara mycket kostsamt i termer av tid och resurser, särskilt om det involverar intervjuer ansikte mot ansikte (Fowler 1988).

3.2.2. Enquiry Research Method

Undersökningsmetoden innebär fördjupade studier av en viss situation inom dess verkliga kontext under en definierad tidsperiod, utan något ingripande från forskarens sida (Shanks & C. 1993, Eisenhardt 1989, Jenkins 1985). Denna metod används främst för att beskriva sambanden mellan de variabler som studeras i en viss situation (Galliers 1992). Undersökningar kan involvera enstaka eller flera fall, beroende på vilket fenomen som analyseras (Franz och Robey 1987, Eisenhardt 1989, Yin 1989).

Undersökningsmetoden definieras som "en empirisk undersökning som studerar ett samtida fenomen inom dess faktiska sammanhang, med hjälp av flera källor insamlade från en eller flera enheter såsom människor, grupper eller organisationer" (Yin 1989). Det finns ingen tydlig åtskillnad mellan fenomenet och dess sammanhang och det finns ingen experimentell kontroll eller manipulation av variablerna (Yin 1989, Benbasat et al. 1987).

Det finns en mängd olika tekniker för att samla in uppgifter som kan användas i förfrågningsmetoden, som omfattar direkta observationer, granskning av arkivhandlingar, enkäter, dokumentationsgranskning och strukturerade intervjuer. Att ha ett varierat utbud av skördetekniker uppgifter, undersökningar gör det möjligt för forskare att hantera båda uppgifter kvalitativ och kvantitativ på samma gång (Bonoma 1985, Eisenhardt 1989, Yin 1989, Gable 1994). Som fallet är med undersökningsmetoden fungerar en undersökningsforskare som observatör eller forskare och inte som en aktiv deltagare i den undersökta organisationen.

Benbasat et al (1987) hävdar att undersökningsmetoden är särskilt lämpad för att bygga forskningsteori, som börjar med en forskningsfråga och fortsätter med utbildning.

av en teori under insamlingsprocessen uppgifter. Passar även på scenen

av teoribyggnad föreslår Franz och Robey (1987) att undersökningsmetoden även kan användas för den komplexa teorifasen. I det här fallet, baserat på insamlade bevis, verifieras eller vederläggs en given teori eller hypotes. Dessutom lämpar sig undersökningen även för forskning som handlar om "hur" eller "varför"-frågor (Yin 1989).

Jämfört med andra metoder tillåter undersökningar forskaren att fånga väsentlig information mer i detalj (Galliers 1992, Shanks et al. 1993). Vidare tillåter undersökningar forskaren att förstå karaktären och komplexiteten hos de studerade processerna (Benbasat et al. 1987).

Det finns fyra huvudsakliga nackdelar med undersökningsmetoden. Den första är bristen på kontrollerade avdrag. Forskarens subjektivitet kan förändra studiens resultat och slutsatser (Yin 1989). Den andra nackdelen är bristen på kontrollerad observation. Till skillnad från experimentella metoder kan utredningsforskaren inte kontrollera de studerade fenomenen då de undersöks i sitt naturliga sammanhang (Gable 1994). Den tredje nackdelen är bristen på replikerbarhet. Detta beror på att forskaren sannolikt inte kommer att observera samma händelser och inte kan verifiera resultaten av en viss studie (Lee 1989). Slutligen, som en konsekvens av icke-replikabilitet, är det svårt att generalisera resultaten från en eller flera undersökningar (Galliers 1992, Shanks et al. 1993). Alla dessa problem är dock inte oöverstigliga och kan faktiskt minimeras av forskaren genom att tillämpa lämpliga åtgärder (Lee 1989).

3.3. Motivera forskningsmetodiken antagits

Av de två möjliga forskningsmetoderna för denna studie anses undersökningsmetoden vara den mest lämpliga. Utredningen lades ner efter noggrant övervägande av de relevanta

förtjänster och svagheter. Lämpligheten eller olämpligheten av varje metod för denna studie diskuteras nedan.

3.3.1. Olämplighet av forskningsmetoden av utredning

Undersökningsmetoden kräver fördjupning av en viss situation inom en eller flera organisationer över en tidsperiod (Eisenhardt 1989). I detta fall kan perioden överskrida den tidsram som anges för denna studie. Ett annat skäl till att inte använda undersökningsmetoden är att resultaten kan lida av bristande noggrannhet (Yin 1989). Forskarens subjektivitet kan påverka resultaten och slutsatserna. En annan anledning är att denna metod är mer lämpad för forskning kring "hur"- eller "varför"-frågor (Yin 1989), medan forskningsfrågan för denna studie är av typen "vad". Sist men inte minst är det svårt att generalisera resultat från bara en eller ett fåtal undersökningar (Galliers 1992, Shanks et al. 1993). Utifrån detta skäl valdes inte enkätundersökningsmetoden då den var olämplig för denna studie.

3.3.2. Bekvämlighet med sökmetoden för undersökning

När denna forskning utfördes hade praxisen med datalagring inte antagits i stor utsträckning av australiensiska organisationer. Så det fanns inte mycket information om deras implementering inom australiska organisationer. Den tillgängliga informationen kom från organisationer som hade implementerat eller använt en datalagret. I detta fall är enkätundersökningsmetoden den mest lämpliga eftersom den gör det möjligt att få information som inte finns tillgänglig någon annanstans eller i den form som krävs för analys (Fowler 1988). Dessutom tillåter enkätundersökningsmetoden forskaren att få en god insikt i praktiker, situationer eller åsikter vid en viss tidpunkt (Galliers 1992, Denscombe 1998). En översikt krävdes för att öka kunskapen om den australiensiska datalagringsupplevelsen.

Vidare konstaterar Sonquist och Dunkelberg (1977) att resultaten av enkätforskning är mer generella än andra metoder.

3.4. Enkätforskningsdesign

Undersökningen om datalagringsmetoder genomfördes 1999. Målgruppen bildades av australiensiska organisationer som var intresserade av datalagerstudier, eftersom de förmodligen redan var informerade om uppgifter som de lagrar och därför kan ge användbar information för denna studie. Målpopulationen identifierades genom en första undersökning av alla australiska medlemmar av The Data Warehousing Institute (Tdwi-aap). Detta avsnitt diskuterar utformningen av den empiriska forskningsfasen i denna studie.

3.4.1. Skördeteknik uppgifter

Från de tre tekniker som vanligtvis används i enkätforskning (d.v.s. postenkät, telefonintervju och personlig intervju) (Nachmias 1976, Fowler 1988, de Vaus 1991) användes postenkäten för denna studie. Det första skälet till att anta det senare är att det kan nå en geografiskt spridd befolkning (Blalock 1970, Nachmias och Nachmias 1976, Hwang och Lin 1987, de Vaus 1991, Gable 1994). För det andra är mailenkäten lämplig för högutbildade deltagare (Fowler 1988). E-postenkäten för denna studie riktades till projektsponsorer, direktörer och/eller projektledare för datalagerprojekt. För det tredje, postenkäter är lämpliga när en säker e-postlista är tillgänglig (Salant och Dilman 1994). TDWI, i det här fallet, har en betrodd datalagerförening tillhandahållit e-postlistan över sina australiska medlemmar. En annan fördel med e-postenkäten framför telefonenkäten eller personliga intervjuer är att den gör det möjligt för respondenterna att svara mer exakt, särskilt när respondenterna måste läsa anteckningar eller diskutera frågor med andra människor (Fowler 1988).

En potentiell nackdel kan vara den tid som krävs för att genomföra frågeformulär via post. Normalt genomförs en postenkät i denna sekvens: skicka brev, vänta på svar och skicka bekräftelse (Fowler 1988, Bainbridge 1989). Den totala tiden kan alltså bli längre än den tid som krävs för personliga intervjuer eller telefonintervjuer. Den totala tiden kan dock vara känd i förväg (Fowler 1988, Denscombe 1998). Tiden som går åt till att genomföra personliga intervjuer kan inte vara känd i förväg eftersom den varierar från en intervju till en annan (Fowler 1988). Telefonintervjuer kan vara snabbare än postenkäter och personliga intervjuer men kan ha en hög bortfallsfrekvens på grund av att vissa personer inte är tillgängliga (Fowler 1988). Dessutom är telefonintervjuer i allmänhet begränsade till relativt korta listor med frågor (Bainbridge 1989).

En annan svaghet med ett mailenkät är den höga bortfallsfrekvensen (Fowler 1988, Bainbridge 1989, Neuman 1994). Motåtgärder har dock vidtagits genom att associera denna studie med en betrodd datalagerinstitution (dvs. TDWI) (Bainbridge 1989, Neuman 1994), som skickar två påminnelsebrev till icke-svarare (Fowler 1988, Neuman 1994) och inkluderar även ett extra brev förklara syftet med studien (Neuman 1994).

3.4.2. Analysenhet

Syftet med denna studie är att få information om implementeringen av datalager och dess användning inom australiensiska organisationer. Målgruppen består av alla australiska organisationer som har implementerat, eller håller på att implementera, dvs datalagret. De enskilda organisationerna registreras sedan i namnet. Frågeformuläret skickades per post till organisationer som var intresserade av att adoptera datalagret. Denna metod säkerställer att informationen som samlas in kommer från de mest lämpliga resurserna för varje deltagande organisation.

3.4.3. Enkätprov

"Mailinglistan" över undersökningsdeltagare erhölls från TDWI. Från denna lista valdes 3000 australiensiska organisationer ut som grund för provtagning. Ett ytterligare brev som förklarar projektet och syftet med undersökningen, tillsammans med ett svarsformulär och ett förbetalt kuvert för att returnera det ifyllda frågeformuläret skickades till urvalet. Av de 3000 198 organisationerna gick XNUMX med på att delta i studien. Ett så litet antal svar förväntades dato det stora antalet australiensiska organisationer som då hade anammat eller anammat datalagringsstrategi inom sina organisationer. Målgruppen för denna studie består alltså av endast 198 organisationer.

3.4.4. Enkätens innehåll

Strukturen på frågeformuläret baserades på Monashs datalagermodell (diskuterat tidigare i del 2.3). Innehållet i enkäten baserades på den litteraturanalys som presenterades i kapitel 2. En kopia av enkäten som skickades till undersökningsdeltagarna finns i bilaga B. Enkäten består av sex avsnitt, som följer faserna i modellen som omfattas. Följande sex stycken sammanfattar kort innehållet i varje avsnitt.

Avsnitt A: Grundläggande information om organisationen
Det här avsnittet innehåller frågor som rör profilen för deltagande organisationer. Dessutom är några av frågorna relaterade till deltagarens datalagerprojektstatus. Konfidentiell information såsom namnet på organisationen avslöjades inte i undersökningsanalysen.

Avsnitt B: Början
Frågorna i detta avsnitt är relaterade till uppgiften att starta datalager. Frågor ställdes om projektinitiatorer, garanter, nödvändiga färdigheter och kunskaper, utvecklingsmål för datalager och slutanvändarnas förväntningar.

Avsnitt C: Design
Detta avsnitt innehåller frågor relaterade till planering av aktiviteter datalagret. I synnerhet handlade frågorna om genomförandets omfattning, projektets varaktighet, kostnaden för projektet och kostnads-/nyttoanalysen.

Avsnitt D: Utveckling
I utvecklingssektionen finns frågor som rör utvecklingsverksamheten datalagret: samling av slutanvändarkrav, källor till uppgifter, den logiska modellen av uppgifter, prototyper, kapacitetsplanering, tekniska arkitekturer och val av utvecklingsverktyg för datalager.

Avsnitt E: Drift
Operativa frågor relaterade till driften och utbyggbarheten av datalagret, hur det utvecklas i nästa utvecklingsfas. där Datakvalitet, uppdateringsstrategierna för uppgifter, granulariteten hos uppgifter, skalbarhet av datalagret och säkerhetsfrågorna för datalagret var bland de typer av frågor som ställdes.

Avsnitt F: Utveckling
Det här avsnittet innehåller frågor relaterade till att använda datalagret av slutanvändare. Forskaren var intresserad av syftet och användbarheten av datalagret, de översyns- och utbildningsstrategier som antagits och kontrollstrategin för datalagret antagen.

3.4.5. Svarsfrekvens

Även om postundersökningar kritiseras för att ha en låg svarsfrekvens har åtgärder vidtagits för att öka returfrekvensen (som diskuterats tidigare i del 3.4.1). Termen "svarsfrekvens" hänvisar till andelen personer i ett visst undersökningsurval som svarar på frågeformuläret (Denscombe 1998). Följande formel användes för att beräkna svarsfrekvensen för denna studie:

Antal personer som svarat
Svarsfrekvens = ———————————————————————————– X 100 Totalt antal skickade frågeformulär

3.4.6. Pilottest

Innan frågeformuläret skickades till urvalet undersöktes frågorna genom att utföra pilottester, som föreslagits av Luck och Rubin (1987), Jackson (1988) och de Vaus (1991). Syftet med pilottesterna är att avslöja alla obekväma, tvetydiga uttryck och frågor som är svåra att tolka, att klargöra eventuella definitioner och termer som används och att identifiera den ungefärliga tid som krävs för att fylla i frågeformuläret (Warwick och Lininger 1975, Jackson 1988, Salant och Dilman 1994). Pilottesterna utfördes genom att välja ämnen med egenskaper som liknar de slutgiltiga ämnen, som föreslagits av Davis e Cosenza (1993). I den här studien valdes sex specialister inom datalagring ut som pilotämnen. Efter varje pilottest gjordes nödvändiga korrigeringar. Från de genomförda pilottesterna bidrog deltagarna till att omforma och nollställa den slutliga versionen av frågeformuläret.

3.4.7. Analysmetoder av Ge

I uppgifter av undersökningar som samlats in från de slutna frågeformulären analyserades med hjälp av ett statistiskt programpaket kallat SPSS. Många av svaren analyserades med hjälp av beskrivande statistik. Ett antal frågeformulär returnerades ofullständiga. Dessa behandlades med större omsorg för att säkerställa att jag uppgifter saknades var inte en följd av inmatningsfel, utan för att frågorna inte var lämpliga för den registrerade, eller att den registrerade valde att inte svara på en eller flera specifika frågor. Dessa uteblivna svar ignorerades under analysen uppgifter och kodades som "- 9" för att säkerställa att de uteslöts från analysprocessen.

När frågeformuläret förbereddes förkodades de stängda frågorna genom att tilldela ett nummer till varje alternativ. Numret användes sedan för att förbereda uppgifter under analysen (Denscombe 1998, Sapsford och Jupp 1996). Till exempel fanns sex alternativ listade i fråga 1 i avsnitt B: styrelse, ledande befattningshavare, IT-avdelning, affärsenhet, konsulter och annat. I filen av uppgifter av SPSS genererades en variabel för att indikera 'projektinitiatorn', med sex värdeetiketter: '1' för 'styrelse', '2' för 'ledande befattningshavare' och så vidare. Användningen av Likertin-skalan i några av de stängda frågorna möjliggjorde också enkel identifiering med tanke på användningen av motsvarande numeriska värden inmatade i SPSS. För frågor med icke uttömmande svar, som inte utesluter varandra, behandlades varje alternativ som en enda variabel med två värdeetiketter: '1' för 'markerad' och '2' för 'ej markerad'.

Öppna frågor behandlades annorlunda än slutna frågor. Svaren på dessa frågor fördes inte in i SPSS. Istället analyserades de för hand. Användningen av denna typ av frågor ger oss möjlighet att få information om de fritt uttryckta idéerna och personliga erfarenheterna hos respondenterna (Bainbridge 1989, Denscombe 1998). Där det var möjligt gjordes en kategorisering av svaren.

För analys av uppgifter, används enkla statistiska analysmetoder, såsom svarsfrekvens, medelvärde, standardavvikelse och median (Argyrous 1996, Denscombe 1998).
Gammatestet fungerade bra för att erhålla kvantitativa mått på sambanden mellan uppgifter ordningstal (Norusis 1983, Argyrous 1996). Dessa test var lämpliga eftersom de använda ordningsskalorna inte hade många kategorier och kunde visas i en tabell (Norusis 1983).

3.5 Sammanfattning

I detta kapitel diskuterades forskningsmetodik och design som använts för denna studie.

Att välja den mest lämpliga forskningsmetoden för en viss studie tar hänsyn
övervägande av ett antal regler, inklusive arten och typen av forskning, såväl som fördelarna och svagheterna med varje möjlig metod (Jenkins 1985, Benbasat et al. 1097, Galliers and Land 1987, yin 1989, Hamilton och ives 1992, Galliers 1992, Neuman 1994). Med tanke på bristen på befintlig kunskap och teori angående adoption av datalager i Australien, kräver denna forskningsstudie en tolkningsmetod med en utforskande förmåga att utforska australiensiska organisationers erfarenheter. Den valda forskningsmetoden valdes för att samla information om antagandet av datalagringskonceptet av australiensiska organisationer. En postenkät valdes som insamlingsteknik uppgifter. Motiveringar för forskningsmetod och insamlingsteknik uppgifter valda kommer att tillhandahållas i detta kapitel. Vidare presenterades en diskussion om analysenheten, urvalet som använts, procentandelen svar, innehållet i frågeformuläret, förtestet av frågeformuläret och analysmetoden för frågeformuläret. uppgifter.

Designa en Datalager:

Kombinera Entity Relationship och Dimensional Modeling

SAMMANDRAG
Lagring i uppgifter är en stor aktuell fråga för många organisationer. En nyckelfråga i utvecklingen av datorlagring uppgifter det är hans design.
Designen måste stödja upptäckten av begrepp i datalagret till äldre system och andra källor till uppgifter och även enkel förståelse och effektivitet i genomförandet av datalagret.
Mycket av lagringslitteraturen av uppgifter rekommenderar användning av entitetsrelationsmodellering eller dimensionsmodellering för att representera utformningen av datalagret.
I den här artikeln visar vi hur båda representationerna kan kombineras i ett tillvägagångssätt för ritning datalagret. Metoden som används är systematisk

granskas i en fallstudie och identifieras i ett antal viktiga implikationer med praktiker.

DATALAGRING

Un datalagret det definieras vanligtvis som en "ämnesorienterad, integrerad, tidsvarierande och icke-flyktig insamling av data till stöd för ledningens beslut" (Inmon och Hackathorn, 1994). Ämnesorienterad och integrerad indikerar att datalagret är utformad för att korsa de funktionella gränserna för Legaci-system för att erbjuda ett integrerat perspektiv på uppgifter.
Tidsvariant påverkar den historiska eller tidsseriemässiga karaktären av uppgifter i en datalagret, vilket gör det möjligt att analysera trender. Icke-flyktigt indikerar att datalagret den uppdateras inte kontinuerligt som en databas av OLTP. Snarare uppdateras den med jämna mellanrum, med uppgifter kommer från interna och externa källor. De datalagret den är speciellt utformad för sökning snarare än uppdateringsintegritet och driftprestanda.
Idén med att lagra i uppgifter är inte ny, det var ett av förvaltningssyften för uppgifter sedan sextiotalet (The Martin, 1982).
I datalagret de erbjuder infrastrukturen uppgifter för ledningsstödsystem. Ledningsstödsystem inkluderar beslutsstödssystem (DSS) och executive information system (EIS). En DSS är ett datorbaserat informationssystem som är utformat för att förbättra mänskligt beslutsfattande. En EIS är vanligtvis ett leveranssystem av uppgifter vilket gör det möjligt för företagsledare att enkelt komma åt synen på uppgifter.
Den allmänna arkitekturen för en datalagret lyfter fram rollen av datalagret i ledningsstöd. Samt att erbjuda infrastrukturen uppgifter för EIS och DSS, al datalagret den kan nås direkt via frågor. DE uppgifter ingår i a datalagret baseras på en analys av ledningsinformationskrav och erhålls från tre källor: interna äldre system, datainsamlingssystem för särskilda ändamål och externa datakällor. DE uppgifter i interna äldre system är de ofta redundanta, inkonsekventa, låg kvalitet och lagras i olika format så de måste stämmas av och rengöras innan de kan laddas in i

datalagret (Inmon, 1992; McFadden, 1996). DE uppgifter kommer från lagringssystem uppgifter ad hoc och från källor uppgifter externa används ofta för att utöka (uppdatera, ersätta) dvs uppgifter från äldre system.

Det finns många övertygande skäl att utveckla en datalagret, som inkluderar förbättrat beslutsfattande genom effektiv användning av mer information (Ives 1995), stöd för fokus på hela affärer (Graham 1996) och minskning av uppgifter för EIS och DSS (Graham 1996, McFadden 1996).

En färsk empirisk studie fann i genomsnitt en avkastning på investeringen för datalagret med 401 % efter tre år (Graham, 1996). Men de andra empiriska studierna av datalagret fann betydande problem inklusive svårigheter att mäta och tilldela fördelar, brist på tydligt syfte, underskattning av syftet och komplexiteten i processen att lagra fördelar uppgifter, särskilt när det gäller källorna och renligheten av uppgifter. Lagring i uppgifter kan betraktas som en lösning på förvaltningsproblemet uppgifter mellan organisationer. Manipulationen av uppgifter som en social resurs har den förblivit ett av nyckelproblemen i att hantera informationssystem runt om i världen i många år (Brancheau et al. 1996, Galliers et al. 1994, Niederman et al. 1990, Pervan 1993).

Ett populärt sätt att hantera uppgifter på åttiotalet var det utvecklingen av en modell uppgifter social. Modell uppgifter social utformades för att erbjuda en stabil grund för utveckling av nya applikationssystem och databas och rekonstruktion och integration av äldre system (Brancheau et al.

1989, Goodhue et al. 1988:1992, Kim och Everest 1994). Det finns dock många problem med detta tillvägagångssätt, i synnerhet komplexiteten och kostnaden för varje uppgift, och den långa tid som krävs för att producera påtagliga resultat (Beynon-Davies 1994, Earl 1993, Goodhue et al. 1992, Periasamy 1994, Shanks 1997 ).

Il datalagret det är en separat databas som samexisterar med äldre databaser snarare än att ersätta dem. Det låter dig därför styra hanteringen av uppgifter och undvika kostsam rekonstruktion av äldre system.

EXISTERANDE FÖRSÄTTNINGAR FÖR DATADESIGN

LAGER

Processen att bygga och fullända en datalagret det bör förstås mer som en evolutionär process snarare än en utvecklingslivscykel för traditionella system (Desio, 1995, Shanks, O'Donnell och Arnott 1997a). Det finns många processer inblandade i ett projekt datalagret såsom initiering, planering; information inhämtad från de krav som ställs av företagsledare; källor, omvandlingar, rengöring av uppgifter och synkronisering från äldre system och andra källor uppgifter; leveranssystem under utveckling; övervakning av datalagret; och meningslöshet i den evolutionära processen och konstruktionen av en datalagret (Stinchi, O'Donnell och Arnott 1997b). I den här journalen fokuserar vi på hur man ritar uppgifter lagras i samband med dessa andra processer. Det finns ett antal föreslagna metoder för arkitektur datalagret i litteratur (Inmon 1994, Ives 1995, Kimball 1994 McFadden 1996). Var och en av dessa metoder har en kort genomgång med en analys av deras styrkor och svagheter.

Inmons (1994) tillvägagångssätt för Datalager Designa

Inmon (1994) föreslog fyra iterativa steg för att utforma en datalagret (se figur 2). Det första steget är att designa en mall uppgifter socialt för att förstå hur jag uppgifter de kan integreras över funktionella områden inom en organisation genom att dela upp uppgifter lagra i områden. Modell uppgifter den är gjord för förvaring uppgifter relaterade till beslutsfattande, inklusive uppgifter historiker, och inklusive uppgifter härledas och aggregeras. Det andra steget är att identifiera ämnesområden för implementering. Dessa baseras på prioriteringar som bestämts av en viss organisation. Det tredje steget innebär att rita en databas för ämnesområdet, var särskilt uppmärksam på att inkludera lämpliga nivåer av granularitet. Inmon rekommenderar att du använder modellen för enheter och relationer. Det fjärde steget är att identifiera källsystem uppgifter krävs och utvecklar transformationsprocesser för att fånga, rensa och formatera i uppgifter.

Styrkan med Inmons tillvägagångssätt är att modellen uppgifter sociala ger grunden för integrationen av uppgifter inom organisation och planering av stöd för iterativ utveckling av datalagret. Dess brister är svårigheten och kostnaden för att designa modellen uppgifter sociala, svårigheten att förstå modeller av enheter och relationer som används i båda modellerna, att uppgifter sociala och det av uppgifter lagras efter ämnesområde, och lämpligheten av uppgifter av ritningen av datalagret för att förverkliga databas relationell men inte för databas flerdimensionell.

Ives (1995) Approach to Datalager Designa

Ives (1995) föreslår ett tillvägagångssätt i fyra steg för att designa ett informationssystem som han tror är tillämpbart för utformningen av en datalagret (se figur 3). Tillvägagångssättet är mycket baserat på Information Engineering för utveckling av informationssystem (Martin 1990). Det första steget är att fastställa målen, kritiska faktorer och framgångsfaktorer och nyckeltal. Viktiga affärsprocesser och nödvändig information modelleras för att leda oss till en modell uppgifter social. Det andra steget innebär att utveckla en definierande arkitektur uppgifter lagras av områden, databas di datalagret, de teknologikomponenter som krävs, uppsättningen av organisatoriskt stöd som krävs för att implementera och arbeta med datalagret. Det tredje steget inkluderar att välja nödvändiga programvarupaket och verktyg. Det fjärde steget är den detaljerade designen och konstruktionen av datalagret. Ives noterar att lagring uppgifter det är en begränsad iterativ process.

Styrkan med Ives-metoden är användningen av specifika tekniker för att fastställa informationskrav, användningen av en strukturerad process för att stödja integrationen av datalagret, lämpligt val av hårdvara och mjukvara, och användningen av flera representationstekniker för datalagret. Dess brister är inneboende i komplexitet. Andra inkluderar svårigheter att utveckla många nivåer av databas all'interno del datalagret inom rimliga tider och kostnader.

Kimballs (1994) tillvägagångssätt till Datalager Designa

Kimball (1994) föreslog fem iterativa steg för att designa en datalagret (se figur 4). Hans tillvägagångssätt är särskilt ägnat åt designen av ett solo datalagret och på användningen av dimensionsmodeller framför enhets- och relationsmodeller. Kimball analyserar dessa dimensionsmodeller eftersom det är lättare för företagsledare att förstå affärer, det är mer effektivt när de hanterar komplexa konsultationer och utformningen av databas fysiskt är mer effektivt (Kimball 1994). Kimball inser att utvecklingen av en datalagret det är iterativt, och det datalagret separata tabeller kan integreras genom att dela in dem i tabeller med gemensamma dimensioner.

Det första steget är att identifiera det särskilda ämnesområdet som ska fulländas. Det andra och tredje steget gäller dimensionsmodellering. I det andra steget identifierar åtgärderna saker av intresse inom ämnesområdet och grupperas i en faktatabell. Till exempel, inom ett ämnesområde för försäljning kan måtten av intresse inkludera mängden sålda varor och dollarn som försäljningsvaluta. Det tredje steget innebär att identifiera dimensioner som är sätten på vilka fakta kan grupperas. I ett ämnesområde för försäljning kan relevanta dimensioner inkludera artikel, plats och tidsperiod. Faktatabellen har en nyckel i flera delar för att länka den till var och en av dimensionstabellerna och innehåller vanligtvis ett mycket stort antal fakta. Däremot innehåller dimensionstabeller beskrivande information om dimensioner och andra attribut som kan användas för att gruppera fakta. Den associerade föreslagna fakta- och dimensionstabellen bildar vad som kallas ett stjärnschema på grund av dess form. Det fjärde steget innebär att bygga en databas flerdimensionell för att perfekta stjärnmönstret. Det sista steget är att identifiera källsystem uppgifter krävs och utvecklar transformationsprocesser för att fånga, rensa och formatera i uppgifter.

Styrkan med Kimballs tillvägagångssätt inkluderar användningen av dimensionella modeller för att representera uppgifter lagras vilket gör det lätt att förstå och leder till effektiv fysisk design. En dimensionell modell som också lätt använder båda systemen av databas relationella kan fulländas eller system databas flerdimensionell. Dess brister inkluderar avsaknaden av vissa tekniker för att underlätta planering eller integration av många stjärnmönster inom en datalagret och svårigheten att designa från den extremt denormaliserade strukturen till en dimensionell modell a uppgifter i äldre system.

McFaddens (1996) Approach to Data Lagerdesign

McFadden (1996) föreslår en fem-stegs metod för att designa en datalagret (se figur 5).
Hans tillvägagångssätt bygger på en syntes av idéer från litteraturen och fokuserar på designen av en singel datalagret. Det första steget innebär en kravanalys. Även om de tekniska specifikationerna inte är föreskrivna, identifierar McFaddens anteckningar enheterna uppgifter specifikationer och deras attribut, och hänvisar till läsarna Watson och Frolick (1993) för kravfångst.
I det andra steget utformas en enhetsrelationsmodell för datalagret och sedan valideras av företagsledare. Det tredje steget inkluderar att bestämma kartläggningen från äldre system och externa källor datalagret. Det fjärde steget omfattar processer inom utveckling, driftsättning och synkronisering uppgifter nel datalagret. I det sista steget utvecklas systemleveransen med särskild tonvikt på ett användargränssnitt. McFadden noterar att ritningsprocessen i allmänhet är iterativ.

Styrkan i McFaddens tillvägagångssätt pekar på företagsledares deltagande i att fastställa kraven och även vikten av resurser uppgifter, deras rengöring och insamling. Dess brister inkluderar avsaknaden av en process för att bryta ner ett stort projekt datalagret i många integrerade steg, och

svårigheter att förstå de enhets- och relationsmodeller som används vid utformningen av datalagret.

Det är inte bara de som är nära oss som väljer oss.

    0/5 (0 recensioner)
    0/5 (0 recensioner)
    0/5 (0 recensioner)

    Ta reda på mer från Online Web Agency

    Prenumerera för att få de senaste artiklarna via e-post.

    författarens avatar
    administration VD
    👍Webbbyrå online | Webbyråexpert inom digital marknadsföring och SEO. Web Agency Online är en Web Agency. För Agenzia Web Online är framgång inom digital transformation baserad på grunderna för Iron SEO version 3. Specialiteter: Systemintegration, Enterprise Application Integration, Service Oriented Architecture, Cloud Computing, Data Warehouse, Business Intelligence, Big Data, portaler, intranät, Web Application Design och hantering av relationella och multidimensionella databaser Designa gränssnitt för digitala medier: användbarhet och grafik. Online Web Agency erbjuder företag följande tjänster: -SEO på Google, Amazon, Bing, Yandex; -Webbanalys: Google Analytics, Google Tag Manager, Yandex Metrica; -Användarkonverteringar: Google Analytics, Microsoft Clarity, Yandex Metrica; -SEM på Google, Bing, Amazon Ads; -Marknadsföring i sociala medier (Facebook, Linkedin, Youtube, Instagram).
    Min agila integritet
    Denna webbplats använder tekniska cookies och profileringscookies. Genom att klicka på acceptera godkänner du alla profileringscookies. Genom att klicka på avvisa eller X:et avvisas alla profileringscookies. Genom att klicka på anpassa är det möjligt att välja vilka profileringscookies som ska aktiveras.
    Denna webbplats följer dataskyddslagen (LPD), schweizisk federal lag av den 25 september 2020 och GDPR, EU-förordning 2016/679, avseende skydd av personuppgifter samt fri rörlighet för sådan data.