fbpx

Data Warehousing und Enterprise Resource Planning | DWH und ERP

ARCHIV DATA ZENTRALE: GESCHICHTE ED EVOLUTION

Die beiden dominierenden Themen der Unternehmenstechnologie in den 90er Jahren waren i Data Warehouse und das ERP. Diese beiden mächtigen Strömungen sind seit langem Teil der Unternehmens-IT, ohne jemals eine Schnittmenge zu haben. Es war fast so, als wären sie Materie und Antimaterie. Aber das Wachstum beider Phänomene hat unweigerlich zu ihrer Überschneidung geführt. Unternehmen stehen heute vor dem Problem, was mit ERP zu tun ist Data Warehouse. Dieser Artikel erklärt, was die Probleme sind und wie sie von Unternehmen angegangen werden.

AM ANFANG…

Am Anfang war die Data Warehouse. Data Warehouse es wurde geboren, um dem Transaktionsverarbeitungs-Anwendungssystem entgegenzuwirken. In den frühen Tagen Auswendiglernen von geben es sollte nur ein Kontrapunkt zu Transaktionsverarbeitungsanwendungen sein. Aber heutzutage gibt es viel ausgefeiltere Visionen davon, was ein Data Warehouse. In der heutigen Welt die Data Warehouse es ist in eine Struktur eingefügt, die als Corporate Information Factory bezeichnet werden kann.

DIE UNTERNEHMENSINFORMATIONSFABRIK (CIF)

Die Corporate Information Factory verfügt über standardmäßige Architekturkomponenten: eine Code-Integrations- und Transformationsschicht, die i geben während ich geben Sie bewegen sich von der Anwendungsumgebung in die Umgebung der Data Warehouse des Unternehmens; ein Data Warehouse des Unternehmens, in dem ich geben detaillierte und integrierte Historien. Das Data Warehouse des Unternehmens dient als Grundlage, auf der alle anderen Teile der Umgebung aufbauen können Data Warehouse; ein Betriebsdatenspeicher (ODS). Ein ODS ist eine Hybridstruktur, die einige Aspekte des enthält Data Warehouse und andere Aspekte einer OLTP-Umgebung; Data Marts, in denen verschiedene Abteilungen ihre eigene Version des haben können Data Warehouse; a Data Warehouse Exploration, bei der die Denker des Unternehmens ihre 72-Stunden-Anfragen ohne nachteilige Auswirkungen auf die stellen können Data Warehouse; und einen Near-Line-Speicher, in dem geben alt und geben Massendetails können günstig gespeichert werden.

WO ERP MIT DEM KOMBINIERT UNTERNEHMENSINFORMATIONSFABRIK

Das ERP verschmilzt an zwei Stellen mit der Corporate Information Factory. In erster Linie als Basisanwendung, die i geben der Bewerbung an Data Warehouse. In diesem Fall geben, die als Nebenprodukt eines Transaktionsprozesses generiert werden, integriert und in die geladen werden Data Warehouse des Unternehmens. Das zweite Bindeglied zwischen ERP und CIF ist das ODS. Tatsächlich wird ERP in vielen Umgebungen als klassisches ODS verwendet.

Falls ERP als Basisanwendung verwendet wird, kann das gleiche ERP auch im CIF als ODS verwendet werden. Wenn ERP in beiden Rollen verwendet werden soll, muss in jedem Fall eine klare Trennung zwischen den beiden Einheiten erfolgen. Mit anderen Worten, wenn ERP die Rolle von Basisanwendung und ODS spielt, müssen die beiden architektonischen Einheiten unterschieden werden. Wenn eine einzelne ERP-Implementierung versucht, beide Rollen gleichzeitig zu erfüllen, treten zwangsläufig Probleme bei der Gestaltung und Implementierung dieser Struktur auf.

SEPARATE ODS UND GRUNDLEGENDE ANWENDUNGEN

Es gibt viele Gründe, die zur Trennung von architektonischen Komponenten führen. Der vielleicht aussagekräftigste Punkt bei der Trennung der verschiedenen Komponenten einer Architektur ist, dass jede Komponente der Architektur ihre eigene Ansicht hat. Die Basisanwendung dient einem anderen Zweck als das ODS. Versuchen Sie es mit Überlappung

eine grundlegende Anwendungssicht auf die Welt eines ODS oder umgekehrt ist keine faire Arbeitsweise.

Folglich besteht das erste Problem eines ERP im CIF darin, zu überprüfen, ob es einen Unterschied zwischen den Baseline-Anwendungen und dem ODS gibt.

DATENMODELLE IM UNTERNEHMEN INFORMATIONSFABRIK

Um eine Kohäsion zwischen den verschiedenen Komponenten der CIF-Architektur zu erreichen, muss es ein Modell von geben geben. Die Modelle von geben Sie dienen als Bindeglied zwischen den verschiedenen Komponenten der Architektur wie den Basisanwendungen und dem ODS. Die Modelle von geben Sie werden zum „intellektuellen Fahrplan“, um den verschiedenen architektonischen Komponenten des CIF die richtige Bedeutung zu geben.

Hand in Hand mit dieser Vorstellung geht die Idee, dass es ein großes und einziges Muster geben sollte geben. Offensichtlich muss es ein Muster von geben geben für jede der Komponenten und außerdem muss es einen sinnvollen Verbindungsweg zwischen den verschiedenen Modellen geben. Jede Komponente der Architektur – ODS, Basisanwendungen, Data Warehouse des Unternehmens, und so weiter.. – braucht ein eigenes Modell von geben. Und so muss es eine genaue Definition geben, wie diese Modelle funktionieren geben sie sind miteinander verbunden.

BEWEGE ICH DATA DES ERP-DATUMS WARENHAUS

Wenn der Ursprung des geben eine Basisanwendung und/oder ein ODS ist, wenn das ERP i geben in Data Warehouse, muss diese Einfügung auf der untersten Ebene der "Granularität" erfolgen. Rekapitulieren oder aggregieren Sie einfach i geben wie sie aus der ERP-Baseline-Anwendung oder ERP ODS kommen, ist nicht das Richtige. DER geben Details sind in der erforderlich Data Warehouse um die Grundlage des DSS-Prozesses zu bilden. Solch geben Sie werden in vielerlei Hinsicht durch Data Marts und Exploration umgestaltet Data Warehouse.

Die Verschiebung von geben von der ERP-Basisanwendungsumgebung zum Data Warehouse des Unternehmens erfolgt einigermaßen entspannt. Dieser Umzug erfolgt ca. 24 Stunden nach der Aktualisierung bzw. Erstellung im ERP. Die Tatsache, eine "faule" Bewegung des geben in Data Warehouse des Unternehmens erlaubt die geben aus dem ERP kommend zu "begleichen". Sobald ich geben in der Baseline-Anwendung gespeichert sind, dann können Sie die sicher verschieben geben des ERP im Unternehmen. Ein weiteres Ziel, das dank der "faulen" Bewegung des erreicht werden kann geben ist die klare Abgrenzung zwischen betrieblichen Prozessen und DSS. Bei einer „schnellen“ Bewegung des geben Die Grenze zwischen DSS und Operational bleibt vage.

Die Bewegung von geben aus dem ODS des ERP zu Data Warehouse des Unternehmens erfolgt periodisch, in der Regel wöchentlich oder monatlich. In diesem Fall ist die Bewegung von geben es basiert auf der Notwendigkeit, das Alte zu "reinigen" geben Historiker. Natürlich enthält das ODS i geben die viel neuer sind als die geben Historiker gefunden in Data Warehouse.

Die Verschiebung von geben in Data Warehouse es wird fast nie „Großhandel“ (in der Weise eines Großhändlers) durchgeführt. Kopieren Sie eine Tabelle aus der ERP-Umgebung nach Data Warehouse es ergibt keinen Sinn. Ein viel realistischerer Ansatz besteht darin, ausgewählte Einheiten von zu verschieben geben. Nur ich geben die sich seit dem letzten Update geändert haben Data Warehouse sind diejenigen, die in die verschoben werden sollten Data Warehouse. Eine Möglichkeit zu wissen, welche geben sich seit dem letzten Update geändert haben, ist es, sich die Zeitstempel von anzusehen geben im ERP-Umfeld gefunden. Der Designer wählt alle Änderungen aus, die seit der letzten Aktualisierung aufgetreten sind. Ein weiterer Ansatz ist die Verwendung von Änderungserfassungstechniken geben. Mit diesen Techniken werden Protokolle und Journalbänder analysiert, um festzustellen, welche geben müssen aus der ERP-Umgebung in die von verschoben werden Data Warehouse. Diese Techniken sind am besten geeignet, da Protokolle und Journalbänder aus ERP-Dateien ohne weitere Auswirkungen auf andere ERP-Ressourcen gelesen werden können.

ANDERE KOMPLIKATIONEN

Eines der ERP-Probleme im CIF ist, was mit anderen Anwendungsquellen oder KI passiert geben des ODS, der dazu beitragen muss Data Warehouse Sie sind jedoch nicht Teil der ERP-Umgebung. Angesichts der geschlossenen Natur von ERP, insbesondere SAP, versucht man, Schlüssel aus externen Quellen zu integrieren geben mit der geben die zum Zeitpunkt des Umzugs aus dem ERP stammen i geben in Data Warehouse, es ist eine große Herausforderung. Und was genau sind die Wahrscheinlichkeiten, dass i geben von Anwendungen oder ODS außerhalb des ERP-Umfeldes in die integriert werden Data Warehouse? Die Chancen stehen tatsächlich sehr hoch.

FINDEN DATA HISTORIK AUS ERP

Ein weiteres Problem mit dem geben von ERP ist das, was sich aus dem Bedürfnis ergibt, zu haben geben Historiker innerhalb der Data Warehouse. Normalerweise die Data Warehouse Bedürfnisse geben Historiker. Und ERP-Technologie speichert diese normalerweise nicht geben historisch, zumindest nicht in dem Maße, wie es in der notwendig ist Data Warehouse. Wenn eine große Menge von geben Protokolle in der ERP-Umgebung ansammeln, muss diese Umgebung bereinigt werden. Angenommen, a Data Warehouse sollte mit fünf Jahren geladen werden geben historisch, während das ERP diese maximal sechs Monate aufbewahrt geben. Solange das Unternehmen zufrieden ist, eine Reihe von zu sammeln geben Wenn die Zeit vergeht, gibt es kein Problem, das ERP als Quelle für die zu verwenden Data Warehouse. Aber wenn die Data Warehouse muss in der Zeit zurückgehen und Götter nehmen geben Historie, die zuvor nicht vom ERP erfasst und gespeichert wurde, dann wird die ERP-Umgebung ineffizient.

ERP UND METADATEN

Eine weitere Überlegung zu ERP und Data Warehouse setzt zum einen auf die vorhandenen Metadaten im ERP-Umfeld. So wie Metadaten aus der ERP-Umgebung in die Data Warehouse, müssen die Metadaten auf die gleiche Weise verschoben werden. Außerdem müssen die Metadaten in das von der Infrastruktur geforderte Format und die Struktur transformiert werden Data Warehouse. Es gibt einen großen Unterschied zwischen operativen Metadaten und DSS-Metadaten. Operative Metadaten sind hauptsächlich für den Entwickler und für die

Programmierer. DSS-Metadaten sind in erster Linie für den Endbenutzer bestimmt. Bestehende Metadaten in ERP-Anwendungen oder ODSs müssen konvertiert werden, und diese Konvertierung ist nicht immer einfach und unkompliziert.

QUELLE DER ERP-DATEN

Wenn das ERP als Anbieter von verwendet wird geben für die Data Warehouse es muss eine solide Schnittstelle geben, die mich bewegt geben von der ERP-Umgebung zur Umwelt Data Warehouse. Die Schnittstelle muss:

  • ▪ einfach zu bedienen sein
  • ▪ Zugriff erlauben auf geben des ERP
  • ▪ die Bedeutung von aufgreifen geben die verschoben werden Data Warehouse
  • ▪ die Einschränkungen des ERP kennen, die beim Zugriff auf die auftreten können geben des ERP:
  • ▪ referentielle Integrität
  • ▪ hierarchische Beziehungen
  • ▪ implizite logische Beziehungen
  • ▪ Anwendungskonvention
  • ▪ alle Strukturen von geben vom ERP unterstützt und so weiter ...
  • ▪ beim Zugriff effizient sein geben, durch:
  • ▪ direkte Bewegung von geben
  • ▪ Wechselgelderwerb geben
  • ▪ Unterstützung des zeitnahen Zugriffs auf geben
  • ▪ das Format der verstehen geben, und so weiter… SCHNITTSTELLE MIT SAP Die Schnittstelle kann von zweierlei Art sein, hausgemacht oder kommerziell. Zu den wichtigsten kommerziellen Schnittstellen gehören:
  • ▪ SAS
  • ▪ Prime-Lösungen
  • ▪ D2k und so weiter… MEHRFACHE ERP-TECHNOLOGIEN Die ERP-Umgebung so zu behandeln, als wäre sie eine einzelne Technologie, ist ein großer Fehler. Es gibt viele ERP-Technologien, jede mit ihren Stärken. Die bekanntesten Anbieter auf dem Markt sind:
  • ▪ SAP
  • ▪ Oracle Finanzen
  • ▪ PeopleSoft
  • JD Edwards
  • ▪ Banane SAP SAP ist die größte und umfassendste ERP-Software. SAP-Anwendungen umfassen viele Arten von Anwendungen in vielen Bereichen. SAP hat den Ruf:
  • ▪ sehr groß
  • ▪ sehr schwierig und teuer in der Umsetzung
  • ▪ braucht viele Leute und Berater für die Umsetzung
  • ▪ benötigt spezialisierte Personen für die Umsetzung
  • ▪ braucht viel Zeit für die Implementierung Auch SAP hat den Ruf, sich daran zu erinnern geben eng, was es für jemanden außerhalb des SAP-Bereichs schwierig macht, darauf zuzugreifen. Die Stärke von SAP ist, dass es in der Lage ist, eine große Menge an Daten zu erfassen und zu speichern geben. SAP hat kürzlich seine Absicht angekündigt, seine Anwendungen auf zu erweitern Data Warehouse. Die Verwendung von SAP als Anbieter hat viele Vor- und Nachteile Data Warehouse. Ein Vorteil ist, dass SAP bereits installiert ist und die meisten Berater bereits mit SAP vertraut sind.
    Die Nachteile von SAP als Lieferant von Data Warehouse sind viele: SAP hat keine Erfahrung in der Welt der Data Warehouse Wenn SAP der Lieferant von Data Warehouse, ist es notwendig, i geben von SAP al Data Warehouse. Datum a SAPs Erfolgsbilanz eines geschlossenen Systems, es ist unwahrscheinlich, dass es einfach ist, i von SAP darin zu bekommen (???). Es gibt viele Legacy-Umgebungen, die SAP unterstützen, wie IMS, VSAM, ADABAS, ORACLE, DB2 und so weiter. SAP besteht auf einem „nicht erfunden hier“-Ansatz. SAP möchte nicht mit anderen Anbietern zusammenarbeiten, um die zu verwenden oder zu erstellen Data Warehouse. SAP besteht darauf, seine gesamte Software selbst zu generieren.

Obwohl SAP ein großes und mächtiges Unternehmen ist, versucht die Tatsache, die Technologie von ELT, OLAP, Systemverwaltung und sogar die Codebasis neu zu schreiben dbms es ist einfach verrückt. Anstatt eine kooperative Haltung gegenüber den Lieferanten einzunehmen Data Warehouse SAP verfolgt seit langem den Ansatz, den sie „am besten kennen“. Diese Einstellung bremst den Erfolg, den SAP im Bereich haben könnte Data Warehouse.
Die Weigerung von SAP, externen Anbietern den schnellen und ordnungsgemäßen Zugriff auf ihre zu ermöglichen geben. Die Essenz der Verwendung von a Data Warehouse ist leicht zugänglich geben. Die ganze Geschichte von SAP basiert darauf, den Zugang zu erschweren geben.
Die mangelnde Erfahrung von SAP im Umgang mit großen Mengen von geben; auf dem Gebiet der Data Warehouse es gibt Mengen von geben noch nie von SAP gesehen und diese großen Mengen zu handhaben geben Sie müssen die richtige Technologie haben. SAP ist sich dieser technologischen Eintrittsbarriere offenbar nicht bewusst Data Warehouse.
Die Unternehmenskultur von SAP: SAP hat sich ein Geschäft aufgebaut, indem es i geben aus dem System. Aber dazu braucht man eine andere Mentalität. Traditionell waren Softwareunternehmen, die gut darin waren, Daten in eine Umgebung zu bringen, nicht gut darin, Daten in die andere Richtung zu bringen. Wenn SAP einen solchen Wechsel schafft, wird es das erste Unternehmen sein, dem das gelingt.

Kurz gesagt, es ist fraglich, ob ein Unternehmen SAP als Lieferanten wählen sollte Data Warehouse. Auf der einen Seite gibt es sehr ernste Risiken und auf der anderen Seite sehr wenige Belohnungen. Aber es gibt noch einen weiteren Grund, der davon abhält, sich für SAP als Lieferanten zu entscheiden Data Warehouse. Denn jedes Unternehmen sollte das Gleiche haben Data Warehouse aller anderen Firmen? Der Data Warehouse es ist das Herzstück des Wettbewerbsvorteils. Wenn jedes Unternehmen das Gleiche übernehmen würde Data Warehouse es wäre schwierig, wenn auch nicht unmöglich, einen Wettbewerbsvorteil zu erzielen. SAP scheint zu glauben, dass a Data Warehouse kann als Cookie angesehen werden, und dies ist ein weiteres Zeichen ihrer Mentalität, „die Daten in Anwendungen zu bringen“.

Kein anderer ERP-Anbieter ist so dominant wie SAP. Zweifellos wird es Unternehmen geben, die den SAP-Weg für sich gehen werden Data Warehouse aber vermutlich diese Data Warehouse SAPs werden groß, teuer und zeitaufwändig in der Erstellung sein.

Zu diesen Umgebungen gehören Aktivitäten wie Bankschalterbearbeitung, Flugreservierungsprozesse, Versicherungsbeschwerdeprozesse und so weiter. Je leistungsfähiger das Transaktionssystem war, desto offensichtlicher wurde die Notwendigkeit einer Trennung zwischen dem operativen Prozess und dem DSS (Decision Support System). Mit HR- und Personalsystemen werden Sie jedoch nie mit großen Transaktionsvolumina konfrontiert. Und wenn eine Person eingestellt wird oder das Unternehmen verlässt, ist dies natürlich eine Aufzeichnung einer Transaktion. Aber im Vergleich zu anderen Systemen haben HR- und Personalsysteme einfach nicht viele Transaktionen. Daher ist es in HR- und Personalsystemen nicht ganz offensichtlich, dass ein Bedarf für ein DataWarehouse besteht. In vielerlei Hinsicht sind diese Systeme Zusammenschlüsse von DSS-Systemen.

Aber es gibt noch einen weiteren Faktor, der beim Umgang mit Datawarehouse und PeopleSoft berücksichtigt werden muss. In vielen Kreisen, d.h geben Personal- und Personalressourcen sind dem Hauptgeschäft des Unternehmens untergeordnet. Die meisten Unternehmen produzieren, verkaufen, erbringen Dienstleistungen und so weiter. HR- und Personalsysteme sind in der Regel zweitrangig (oder unterstützend) zum Hauptgeschäft des Unternehmens. Daher ist es zweideutig und unbequem a Data Warehouse getrennt für HR und persönliche Ressourcenunterstützung.

PeopleSoft unterscheidet sich in dieser Hinsicht stark von SAP. Bei SAP ist es zwingend erforderlich, dass eine Data Warehouse. Bei PeopleSoft ist das nicht ganz so klar. Ein Data Warehouse ist bei PeopleSoft optional.

Das Beste, was man für die sagen kann geben PeopleSoft ist das Data Warehouse kann zur Archivierung von i geben im Zusammenhang mit alten menschlichen und persönlichen Ressourcen. Ein zweiter Grund, warum ein Unternehmen a verwenden möchte Data Warehouse a

Nachteil der PeopleSoft-Umgebung ist der Zugriff und der freie Zugriff auf Analysewerkzeuge, ai geben von PeopleSoft. Abgesehen von diesen Gründen kann es jedoch Fälle geben, in denen es vorzuziehen ist, kein Data Warehouse zu haben geben PeopleSoft.

Kurz gesagt

Es gibt viele Ideen, die sich auf den Bau eines beziehen Data Warehouse innerhalb einer ERP-Software.
Einige davon sind:

  • ▪ Es ist sinnvoll, a Data Warehouse Wer sieht aus wie jeder andere in der Branche?
  • ▪ Wie flexibel ein ERP ist Data Warehouse Software?
  • ▪ Ein ERP Data Warehouse Software kann ein Volumen von geben die sich in einem "Data Warehouse Arena"?
  • ▪ Was ist die Trace-Protokollierung, die der ERP-Anbieter angesichts einfacher und kostengünstiger, zeitaufwändiger KI durchführt? geben? (Wie ist die Erfolgsbilanz des ERP-Anbieters bei der Bereitstellung kostengünstiger, pünktlicher und leicht zugänglicher Daten?)
  • ▪ Welches Verständnis hat der ERP-Anbieter von der DSS-Architektur und der Informationsfabrik des Unternehmens?
  • ▪ ERP-Anbieter wissen, wie man kommt geben innerhalb der Umgebung, sondern auch verstehen, wie man sie exportiert?
  • ▪ Wie offen ist der ERP-Anbieter gegenüber Data-Warehousing-Tools?
    All diese Überlegungen müssen angestellt werden, wenn bestimmt wird, wo die platziert werden sollen Data Warehouse das wird hosten ich geben ERP und andere geben. Im Allgemeinen wird das Bauen empfohlen, es sei denn, es gibt einen zwingenden Grund, etwas anderes zu tun Data Warehouse außerhalb der ERP-Anbieterumgebung. KAPITEL 1 Überblick über die Kernpunkte der BI-Organisation:
    Informationsrepositorys funktionieren gegensätzlich zur Business-Intelligence-Architektur (BI):
    Unternehmenskultur und IT können den Erfolg beim Aufbau von BI-Organisationen einschränken.

Technologie ist nicht mehr der limitierende Faktor für BI-Organisationen. Das Problem für Architekten und Projektplaner ist nicht, ob die Technologie vorhanden ist, sondern ob sie die verfügbare Technologie effektiv implementieren können.

Für viele Unternehmen a Data Warehouse ist kaum mehr als eine passive Einlage, die i geben an Benutzer, die es brauchen. DAS geben werden aus Quellsystemen extrahiert und von in Zielstrukturen gefüllt Data Warehouse. Die geben Mit etwas Glück können sie auch gereinigt werden. Durch die wird jedoch kein zusätzlicher Wert hinzugefügt oder erhoben geben während dieses Prozesses.

Im Wesentlichen bietet passives dw bestenfalls nur i geben sauber und betriebsbereit für Nutzerverbände. Die Erstellung von Informationen und das analytische Verständnis hängen vollständig von den Benutzern ab. Zu beurteilen, ob die DW (Data Warehouse) ob ein Erfolg subjektiv ist. Wenn wir den Erfolg anhand der Fähigkeit zum effizienten Sammeln, Integrieren und Reinigen von i geben Corporate auf einer vorhersehbaren Basis, dann ja, die DW ist ein Erfolg. Betrachten wir andererseits die Sammlung, Konsolidierung und Verwertung von Informationen der Organisation als Ganzes, dann ist die DW gescheitert. Ein DW bietet wenig oder keinen Informationswert. Dies führt dazu, dass die Benutzer gezwungen sind, sich zu arrangieren, wodurch Informationssilos entstehen. Dieses Kapitel präsentiert eine umfassende Vision zur Zusammenfassung der BI-Architektur (Business Intelligence) von Unternehmen. Wir beginnen mit einer Beschreibung von BI und gehen dann auf Diskussionen über Informationsdesign und -entwicklung ein, im Gegensatz zu einer einfachen Bereitstellung geben an Benutzer. Die Diskussionen konzentrieren sich dann auf die Berechnung des Werts Ihrer BI-Bemühungen. Abschließend definieren wir, wie IBM die Anforderungen an die BI-Architektur Ihres Unternehmens erfüllt.

Beschreibung der Architektur von Organisation von BI

Leistungsstarke transaktionsorientierte Informationssysteme sind heute in jedem großen Unternehmen an der Tagesordnung und gleichen die Wettbewerbsbedingungen für Unternehmen auf der ganzen Welt effektiv aus.

Um wettbewerbsfähig zu bleiben, sind heute jedoch analytisch orientierte Systeme erforderlich, die die Fähigkeit des Unternehmens, bereits vorhandene Informationen wiederzuentdecken und zu nutzen, revolutionieren können. Diese analytischen Systeme leiten sich aus dem Verstehen aus dem Reichtum von ab geben verfügbar. BI kann die Leistung aller Informationen im gesamten Unternehmen verbessern. Unternehmen können die Kunden-Lieferanten-Beziehungen verbessern, die Rentabilität von Produkten und Dienstleistungen verbessern, neue und bessere Geschäfte generieren, Risiken kontrollieren und neben vielen anderen Vorteilen die Ausgaben drastisch senken. Mit BI beginnt Ihr Unternehmen dank marktorientierter Anwendungen endlich, Kundeninformationen als Wettbewerbsvorteil zu nutzen.

Die richtigen Geschäftsmittel zu haben bedeutet, definitive Antworten auf Schlüsselfragen zu haben wie:

  • ▪ Welche von uns Kundschaft Bringen sie uns dazu, mehr zu verdienen, oder lassen sie uns Geld verlieren?
  • ▪ Wo unsere Besten leben Kundschaft in Bezug auf Geschäft/ Lager sie häufig?
  • ▪ Welche unserer Produkte und Dienstleistungen können am effektivsten verkauft werden und an wen?
  • ▪ Welche Produkte können am effektivsten verkauft werden und an wen?
  • ▪ Welche Verkaufsaktion ist erfolgreicher und warum?
  • ▪ Welche Vertriebskanäle sind für welche Produkte am effektivsten?
  • ▪ Wie wir die Beziehungen zu unseren Besten verbessern können Kundschaft? Die meisten Unternehmen haben geben grob, um diese Fragen zu beantworten.
    Operative Systeme erzeugen große Mengen an Produkten, Kunden und Kosten geben von den Verkaufsstellen, Reservierungen, Kundendienst und technischen Supportsystemen. Die Herausforderung besteht darin, diese Informationen zu extrahieren und zu nutzen. Viele Unternehmen profitieren nur von kleinen Bruchteilen ihrer eigenen geben für strategische Analysen.
    I geben verbleibend, oft verbunden mit i geben Das Ableiten externer Quellen wie Regierungsberichte und andere gekaufte Informationen sind eine Goldmine, die nur darauf wartet, erkundet zu werden, und geben Sie müssen lediglich im Informationskontext Ihrer Organisation verfeinert werden.

Dieses Wissen kann auf verschiedene Arten angewendet werden, angefangen bei der Gestaltung einer allgemeinen Unternehmensstrategie bis hin zur persönlichen Kommunikation mit Lieferanten, über Call Center, Rechnungsstellung, Internet und andere Punkte. Das heutige Geschäftsumfeld erfordert, dass DW und zugehörige BI-Lösungen über den Betrieb traditioneller Geschäftsstrukturen hinausgehen. geben was ich geben auf atomarer Ebene normalisiert und „Star/Cube Farms“.

Um wettbewerbsfähig zu bleiben, ist eine Verschmelzung traditioneller und fortschrittlicher Technologien erforderlich, um eine breite Analyselandschaft zu unterstützen.
Schließlich muss das allgemeine Umfeld das Wissen über das Unternehmen als Ganzes verbessern und sicherstellen, dass die aufgrund der durchgeführten Analysen ergriffenen Maßnahmen nützlich sind, damit alle davon profitieren.

Nehmen wir zum Beispiel an, Sie ordnen Ihre Kundschaft in Kategorien mit hohem oder niedrigem Risiko.
Unabhängig davon, ob diese Informationen durch ein Mining-Modell oder auf andere Weise generiert werden, müssen sie in das DW gestellt und für jedermann zugänglich gemacht werden, und zwar über ein beliebiges Zugriffstool wie statische Berichte, Tabellenkalkulationen, Tabellen oder Online-Analyseverarbeitung (OLAP).

Derzeit verbleiben jedoch viele dieser Informationen in Silos geben der Personen oder Abteilungen, die die Analyse erstellt haben. Die Organisation als Ganzes hat wenig oder keine Sichtbarkeit für das Verständnis. Nur wenn Sie diese Art von Informationsinhalten in Ihre Unternehmens-DW integrieren, können Sie Informationssilos eliminieren und Ihre DW-Umgebung verbessern.
Es gibt zwei große Hürden bei der Entwicklung einer BI-Organisation.
Erstens haben wir das Problem der Organisation selbst und ihrer Disziplin.
Wir können zwar nicht bei Änderungen der Organisationsrichtlinien helfen, aber wir können helfen, die Komponenten der BI einer Organisation, ihre Architektur und wie die Technologie von IBM ihre Entwicklung erleichtert, zu verstehen.
Die zweite zu überwindende Hürde ist der Mangel an integrierter Technologie und das Wissen um eine Methode, die den gesamten BI-Raum aufruft, anstatt nur eine kleine Komponente.

IBM reagiert auf Änderungen in der Integrationstechnologie. Es liegt in Ihrer Verantwortung, bewusstes Design bereitzustellen. Diese Architektur muss mit einer Technologie entwickelt werden, die für eine uneingeschränkte Integration ausgewählt wurde, oder zumindest mit einer Technologie, die sich an offene Standards hält. Außerdem muss Ihre Unternehmensleitung sicherstellen, dass das Bi-Unternehmen planmäßig durchgeführt wird und nicht die Entwicklung von Informationssilos zulassen, die aus eigennützigen Agenden oder Zielen entstehen.
Das soll nicht heißen, dass die BI-Umgebung nicht sensibel auf die unterschiedlichen Bedürfnisse und Anforderungen verschiedener Benutzer reagiert; Stattdessen bedeutet es, dass die Umsetzung dieser individuellen Bedürfnisse und Anforderungen zum Nutzen der gesamten BI-Organisation erfolgt.
Eine Beschreibung der Architektur der BI-Organisation finden Sie in Abbildung 9 auf Seite 1.1. Die Architektur demonstriert eine reichhaltige Mischung aus Technologien und Techniken.
Aus herkömmlicher Sicht umfasst die Architektur die folgenden Warehouse-Komponenten

Atomschicht.

Dies ist das Fundament, das Herzstück der gesamten Dw und damit der strategischen Berichterstattung.
I geben hier gespeichert wird historische Integrität behalten, Berichte von geben und abgeleitete Metriken enthalten sowie mithilfe von Mining-Modellen bereinigt, integriert und gespeichert werden.
Alle nachfolgenden Verwendungen dieser geben und zugehörige Informationen werden von dieser Struktur abgeleitet. Dies ist eine ausgezeichnete Quelle für den Bergbau geben und für Berichte mit strukturierten SQL-Abfragen

Betriebsablage von geben oder Berichtsbasis von geben(Betriebsdatenspeicher (ODS) oder Berichterstellung Datenbank.)

Dies ist eine Struktur von geben speziell für die technische Berichterstattung entwickelt.

I geben über diesen Strukturen gespeichert und gemeldet werden, können sich schließlich über den Staging-Bereich in das Lagerhaus ausbreiten, wo es für strategische Signalisierung verwendet werden könnte.

Bühnenbereich.

Die erste Station für die meisten geben für die Lagerumgebung vorgesehen ist die Organisationszone.
Hier ich geben Sie werden integriert, gereinigt und in verwandelt geben Gewinne, die die Lagerstruktur füllen werden

Date Marts.

Dieser Teil der Architektur repräsentiert die Struktur von geben speziell für OLAP verwendet. Das Vorhandensein von Datamarts, wenn i geben Sie werden in den Sternschemata gespeichert, die sie überlagern geben mehrdimensional in einer relationalen Umgebung oder in den Dateien von geben proprietär, das von bestimmten OLAP-Technologien wie DB2 OLAP Server verwendet wird, ist nicht relevant.

Die einzige Einschränkung besteht darin, dass die Architektur die Verwendung von erleichtert geben mehrdimensional.
Die Architektur umfasst auch kritische Bi-Technologien und -Techniken, die sich wie folgt unterscheiden:

Raumanalyse

Speicherplatz ist ein Informationsgewinn für den Analysten und für eine vollständige Lösung von entscheidender Bedeutung. Raum kann Informationen über die Menschen darstellen, die an einem bestimmten Ort leben, sowie Informationen darüber, wo sich dieser Ort physisch im Verhältnis zum Rest der Welt befindet.

Um diese Analyse durchzuführen, müssen Sie zunächst Ihre Informationen mit Längen- und Breitengradkoordinaten verknüpfen. Dies wird als „Geocodierung“ bezeichnet und muss Teil des Extraktions-, Transformations- und Ladeprozesses (ETL) auf der atomaren Ebene Ihres Warehouses sein.

Data Mining.

Die Extraktion von geben ermöglicht es unseren Unternehmen, die Zahl der zu erhöhen Kundschaft, um Verkaufstrends vorherzusagen und Beziehungsmanagement mit i zu ermöglichen Kundschaft (CRM), neben anderen BI-Initiativen.

Die Extraktion von geben es muss daher in die Strukturen von integriert werden geben Lager und unterstützt durch Lagerprozesse, um sowohl den effektiven als auch den effizienten Einsatz von Technologie und verwandten Techniken sicherzustellen.

Wie in der BI-Architektur angegeben, ist Dwhouse auf atomarer Ebene sowie Datamarts eine hervorragende Quelle für geben zur Extraktion. Dieselben Eigenschaften müssen auch Empfänger von Extraktionsergebnissen sein, um die Verfügbarkeit für ein breites Publikum sicherzustellen.

Agenten.

Es gibt verschiedene "Agenten", die der Kunde auf beliebige Punkte untersuchen kann, zB die Betriebssysteme des Unternehmens und die dw selbst. Diese Agenten können fortschrittliche neuronale Netze sein, die darauf trainiert sind, an jedem Punkt etwas über Trends zu lernen, wie z dato eine Reihe von Umständen oder sogar einfache Agenten, die Top-Führungskräften Ausnahmen melden. Diese Prozesse laufen im Allgemeinen in Echtzeit ab und müssen daher eng mit der Bewegung der Prozesse gekoppelt sein geben. All diese Strukturen von geben, Technologien und Techniken stellen sicher, dass Sie nicht die Nacht damit verbringen, eine Organisation Ihrer BI zu erstellen.

Diese Aktivität wird schrittweise für kleine Punkte entwickelt.
Jeder Schritt ist ein unabhängiger Projektaufwand und wird in Ihrer BI-Datenbank oder -Initiative als Iteration bezeichnet. Iterationen können die Implementierung neuer Technologien umfassen, beginnend mit neuen Techniken, das Hinzufügen neuer Frameworks geben , Laden i geben zusätzlich oder mit der Analyseerweiterung Ihrer Umgebung. Dieser Absatz wird in Kapitel 3 ausführlicher behandelt.

Zusätzlich zu herkömmlichen DW-Frameworks und BI-Tools gibt es andere Aspekte Ihrer BI-Organisation, für die Sie ein Design erstellen müssen, wie z. B.:

Kundenberührungspunkte (Kundenberührungspunkte Punkte).

Wie in jedem modernen Unternehmen gibt es eine Reihe von Kundenkontaktpunkten, die darauf hinweisen, wie Sie eine positive Erfahrung für Ihr Unternehmen machen können Kundschaft. Es gibt traditionelle Kanäle wie Händler, Telefonzentralen, Direktwerbung, Multimedia- und Printwerbung sowie aktuellere Kanäle wie E-Mail und Internet. geben Produkte mit einem Berührungspunkt müssen beschafft, transportiert, gereinigt, verarbeitet und dann in Einrichtungen bestückt werden geben von BI.

Grundlagen von geben Betriebs- und Benutzerverbände (Operational

Datenbanken und Benutzergemeinschaften).
Am Ende der Kontaktpunkte der Kundschaft Sie finden die Grundlagen von geben Anwendung des Unternehmens und der Benutzergemeinschaften. DAS geben vorhanden sind geben traditionell, das wieder vereint und mit dem verschmolzen werden muss geben von den Touchpoints fließen, um die notwendigen Informationen zu erfüllen.

Analysten. (Analysten)

Der Hauptnutznießer der BI-Umgebung ist der Analyst. Er ist es, der von der aktuellen Gewinnung profitiert geben betriebsbereit, integriert mit verschiedenen Quellen von geben , erweitert um Funktionen wie geografische Analyse (Geocodierung) und präsentiert in BI-Technologien, die Mining, OLAP, erweiterte SQL-Berichte und geografische Analysen ermöglichen. Die primäre Schnittstelle für den Analysten zur Berichtsumgebung ist das BI-Portal.

Doch nicht nur der Analyst profitiert von der BI-Architektur.
Führungskräfte, große Benutzerverbände und sogar Partner, Lieferanten und i Kundschaft Sie sollten Vorteile in Enterprise BI finden.

Rückspeiseschleife.

Die BI-Architektur ist eine Lernumgebung. Ein charakteristisches Prinzip der Entwicklung ist es, dauerhafte Strukturen von zuzulassen geben durch die verwendete BI-Technologie und die durchgeführten Benutzeraktionen aktualisiert werden. Ein Beispiel ist das Kunden-Scoring.

Wenn die Vertriebsabteilung ein Mining-Modell von Kundenbewertungen durchführt, z. B. die Nutzung eines neuen Service, sollte die Vertriebsabteilung nicht die einzige Gruppe sein, die von dem Service profitiert.

Stattdessen sollte Model Mining als natürlicher Bestandteil des Datenflusses innerhalb des Unternehmens durchgeführt werden, und Kundenbewertungen sollten ein integrierter Bestandteil des Warehouse-Informationskontexts werden, der für alle Benutzer sichtbar ist. Die bi-bI-zentrische IBM Suite einschließlich DB2 UDB, DB2 OLAP Server enthält die wichtigsten Technologiekomponenten, die in Abbildung 1.1 definiert sind.

Wir verwenden die Architektur, wie sie in dieser Abbildung aus dem Buch erscheint, um uns ein gewisses Maß an Kontinuität zu geben und zu zeigen, wie jedes IBM Produkt in das gesamte BI-Schema passt.

Bereitstellung des Informationsinhalts (Bereitstellung Informationsgehalt)

Das Entwerfen, Entwickeln und Implementieren Ihrer BI-Umgebung ist eine gewaltige Aufgabe. Das Design muss sowohl aktuelle als auch zukünftige Geschäftsanforderungen berücksichtigen. Die Architekturzeichnung muss umfassend sein, um alle Schlussfolgerungen zu beinhalten, die während der Entwurfsphase gefunden wurden. Die Ausführung muss einem einzigen Zweck verpflichtet bleiben: der Entwicklung der BI-Architektur, wie sie formal im Design dargestellt und auf den Geschäftsanforderungen basiert ist.

Es ist besonders schwierig zu argumentieren, dass Disziplin den relativen Erfolg sichert.
Dies ist einfach, da Sie eine BI-Umgebung nicht auf einmal entwickeln, sondern in kleinen Schritten im Laufe der Zeit.

Die Identifizierung der BI-Komponenten Ihrer Architektur ist jedoch aus zwei Gründen wichtig: Sie werden alle nachfolgenden Entscheidungen zur technischen Architektur vorantreiben.
Sie werden in der Lage sein, einen bestimmten Einsatz von Technologie bewusst zu planen, auch wenn Sie möglicherweise mehrere Monate lang keine Wiederholung erhalten, die die Technologie benötigt.

Ein ausreichendes Verständnis Ihrer Geschäftsanforderungen beeinflusst die Art der Produkte, die Sie für Ihre Architektur erwerben.
Das Design und die Entwicklung Ihrer Architektur sorgen dafür, dass Ihr Lager ist

kein zufälliges Ereignis, sondern eine gut durchdachte, sorgfältig konstruierte Anzeige opera der Kunst als Mosaik gemischter Technologie.

Entwerfen Sie den Informationsgehalt

Das gesamte anfängliche Design muss sich auf die wichtigsten BI-Komponenten konzentrieren und identifizieren, die von der Gesamtumgebung jetzt und in Zukunft benötigt werden.
Es ist wichtig, die Geschäftsanforderungen zu kennen.

Noch bevor eine formale Planung begonnen hat, kann der Projektplaner oft sofort ein oder zwei Komponenten identifizieren.
Das Gleichgewicht der Komponenten, die möglicherweise für Ihre Architektur erforderlich sind, lässt sich jedoch nicht leicht finden. Während der Entwurfsphase bindet der Hauptteil der Architektur die Anwendungsentwicklungssitzung (JAD) an eine Recherche zur Identifizierung von Geschäftsanforderungen.

Manchmal können diese Anforderungen Abfrage- und Berichtstools anvertraut werden.
Benutzer geben beispielsweise an, dass sie, wenn sie einen aktuellen Bericht automatisieren möchten, ihn manuell generieren müssen, indem sie zwei aktuelle Berichte integrieren und die aus der Kombination der abgeleiteten Berechnungen hinzufügen geben.
Obwohl diese Anforderung einfach ist, definiert sie eine bestimmte Feature-Funktionalität, die Sie beim Kauf von Berichterstellungstools für Ihre Organisation einbeziehen müssen.

Der Designer muss auch zusätzliche Anforderungen verfolgen, um ein vollständiges Bild zu erhalten. Möchten Benutzer diesen Bericht abonnieren?
Werden Teilmengen von Berichten generiert und per E-Mail an verschiedene Benutzer gesendet? Möchten Sie diesen Bericht im Unternehmensportal sehen? All diese Anforderungen sind Teil der einfachen Notwendigkeit, einen manuellen Bericht nach Bedarf der Benutzer zu ersetzen. Der Vorteil dieser Art von Anforderungen besteht darin, dass jeder, Benutzer und Designer, mit dem Konzept von Berichten vertraut ist.

Es gibt jedoch andere Arten von Unternehmen, für die wir planen müssen. Wenn Geschäftsanforderungen in Form von strategischen Geschäftsfragen formuliert werden, ist es für den erfahrenen Planer einfach, dimensionale Anforderungen und Mess-/Faktenanforderungen zu erkennen.

Wenn JAD-Benutzer nicht wissen, wie sie ihre Anforderungen in Form eines Geschäftsproblems formulieren sollen, stellt der Designer häufig Beispiele bereit, um die Anforderungserfassungssitzung zu überspringen.
Der Expertenplaner kann den Benutzern helfen, nicht nur das strategische Geschäft zu verstehen, sondern auch, wie man es gestaltet.
Der Ansatz zur Erfassung der Anforderungen wird in Kapitel 3 erörtert; Im Moment möchten wir nur auf die Notwendigkeit hinweisen, für alle Arten von BI-Anforderungen zu entwerfen.

Ein strategisches Geschäftsproblem ist nicht nur eine Geschäftsanforderung, sondern auch ein Designhinweis. Wenn Sie eine mehrdimensionale Frage beantworten müssen, dann müssen Sie auswendig lernen, präsentieren geben Abmessungen, und wenn Sie i speichern müssen geben multidimensional, müssen Sie entscheiden, welche Art von Technologie oder Technik Sie verwenden werden.

Implementieren Sie ein reserviertes Cube-Star-Schema oder beides? Wie Sie sehen können, kann sogar ein einfaches Geschäftsproblem das Design stark beeinflussen. Aber diese Art von Geschäftsanforderungen sind alltäglich und natürlich, zumindest von erfahrenen Projektplanern und Designern.

Es wurde genug über OLAP-Technologien und -Support diskutiert, und es gibt eine Vielzahl von Lösungen. Bisher haben wir die Notwendigkeit angesprochen, einfache Berichterstellung mit dimensionalen Geschäftsanforderungen zusammenzubringen, und wie diese Anforderungen Entscheidungen zur technischen Architektur beeinflussen.

Aber was sind die Anforderungen, die von Benutzern oder dem Dw-Team nicht ohne weiteres verstanden werden? Benötigen Sie jemals eine räumliche Analyse (analysisi space)?
Die Bergbaumodelle von geben Werden sie ein notwendiger Teil Ihrer Zukunft sein? Wer weiß?

Es ist wichtig zu beachten, dass diese Art von Technologien den allgemeinen Benutzergemeinschaften und den Mitgliedern des DW-Teams nicht bekannt sind, was teilweise daran liegen könnte, dass sie normalerweise von einigen internen oder externen technischen Experten gehandhabt werden. Es ist ein Randfall der Probleme, die diese Arten von Technologien erzeugen. Wenn Benutzer Geschäftsanforderungen nicht beschreiben oder formulieren können, um Designern eine Anleitung zu geben, können sie unbemerkt bleiben oder, schlimmer noch, einfach ignoriert werden.

Problematischer wird es, wenn der Designer und Entwickler die Anwendung einer dieser fortschrittlichen, aber kritischen Technologien nicht erkennen kann.
Wie wir die Designer oft sagen hören: „Nun, warum legen wir es nicht weg, bis wir dieses andere Ding haben? „Interessieren sie sich wirklich für Prioritäten oder vermeiden sie einfach Anforderungen, die sie nicht verstehen? Es ist höchstwahrscheinlich die letztere Annahme. Nehmen wir an, Ihr Vertriebsteam hat eine Geschäftsanforderung kommuniziert, wie in Abbildung 1.3 dargestellt. Wie Sie sehen können, ist die Anforderung in Form eines Geschäftsproblems eingerahmt. Der Unterschied zwischen diesem Problem und dem typischen Dimensionsproblem ist die Distanz. In diesem Fall möchte das Verkaufsteam auf monatlicher Basis die Gesamtverkäufe von Produkten, Lagern usw. wissen Kundschaft die im Umkreis von 5 Meilen um das Warenhaus wohnen, in dem sie einkaufen.

Leider können Designer oder Architekten die räumliche Komponente einfach ignorieren, indem sie sagen: „Wir haben den Kunden, das Produkt und das geben der Anzahlung. Lassen Sie uns die Entfernung bis zu einer weiteren Iteration verschieben.

"Falsche Antwort. Bei dieser Art von Geschäftsproblem dreht sich alles um BI. Es repräsentiert ein tieferes Verständnis unseres Geschäfts und einen robusten Analyseraum für unsere Analysten. BI geht über einfache Abfragen oder Standardberichte oder sogar OLAP hinaus. Das soll nicht heißen, dass diese Technologien für Ihre BI nicht wichtig sind, aber sie selbst repräsentieren nicht die BI-Umgebung.

Design für den Informationskontext (Entwerfen für Informationsinhalte)

Nachdem wir nun die Geschäftsanforderungen identifiziert haben, die verschiedene Kernkomponenten unterscheiden, müssen sie in eine Gesamtarchitekturzeichnung aufgenommen werden. Einige der BI-Komponenten sind Teil unserer anfänglichen Bemühungen, während andere erst in mehreren Monaten implementiert werden.

Alle bekannten Anforderungen spiegeln sich jedoch im Design wider, sodass wir darauf vorbereitet sind, wenn wir eine bestimmte Technologie implementieren müssen. Etwas an dem Projekt wird traditionelles Denken widerspiegeln.

Dieser Satz von geben wird verwendet, um spätere Verwendungen von zu unterstützen geben dimensional getrieben von den Geschäftsproblemen, die wir identifiziert haben. Da zusätzliche Dokumente generiert werden, wie z. B. die Projektentwicklung der geben, beginnen wir mit der Formalisierung als i geben sie verbreiten sich in der Umwelt. Wir haben die Vertretungsbedürftigkeit i geben auf dimensionale Weise, indem sie (je nach spezifischen spezifischen Bedürfnissen) in Data Marts unterteilt werden.

Die nächste zu beantwortende Frage lautet: Wie werden diese Data Marts aufgebaut?
Bauen Sie die Sterne, um die Würfel zu stützen, oder nur Würfel oder nur die Sterne? (oder rechte Würfel oder rechte Sterne). Generieren Sie die Architektur für abhängige Data Marts, die eine Atomschicht für alle benötigen geben erworben? Ermöglichen Sie unabhängigen Data Marts den Erwerb geben direkt von Betriebssystemen?

Welche Würfeltechnologie werden Sie zu standardisieren versuchen?

Sie haben riesige Mengen an Göttern geben für die Dimensionsanalyse erforderlich oder benötigen Sie wöchentlich Cubes Ihres nationalen Vertriebsteams oder beides? Erstellen Sie ein leistungsstarkes Objekt wie DB2 OLAP Server für Finanzen oder Cognos PowerPlay-Cubes für Ihre Vertriebsorganisation oder beides? Dies sind die großen architektonischen Designentscheidungen, die sich auf Ihre BI-Umgebung in Zukunft auswirken werden. Ja, Sie haben einen Bedarf für OLAP festgestellt. Nun, wie werden Sie diese Art von Technik und Technologie ausführen?

Wie wirken sich einige der fortgeschritteneren Technologien auf Ihre Designs aus? Nehmen wir an, Sie haben einen räumlichen Bedarf in Ihrer Organisation identifiziert. Jetzt müssen Sie die Architekturzeichnungsausgaben abrufen, auch wenn Sie mehrere Monate lang keine räumlichen Komponenten erstellen möchten. Der Architekt muss heute nach Bedarf entwerfen. Antizipieren Sie die Notwendigkeit einer räumlichen Analyse, die Daten generiert, speichert, verwaltet und zugänglich macht geben räumlich. Dies wiederum sollte als Einschränkung hinsichtlich der Art der Softwaretechnologie und Plattformspezifikationen dienen, die Sie derzeit in Betracht ziehen können. Zum Beispiel das Verwaltungssystem von Datenbank relational (RDBMS), das Sie für Ihre Atomschicht pflegen, muss über eine robuste räumliche Ausdehnung verfügen. Dies würde eine maximale Leistung sicherstellen, wenn Sie Geometrie und räumliche Objekte in Ihren analytischen Anwendungen verwenden. Wenn Ihr RDBMS dies nicht verarbeiten kann geben (räumlich zentriert) intern, daher müssen Sie eine einrichten Datenbank (raumzentriert) extern. Dies erschwert das Problemmanagement und beeinträchtigt Ihre Gesamtleistung, ganz zu schweigen von den zusätzlichen Problemen, die dadurch für Ihre DBAs entstehen, da sie wahrscheinlich nur ein minimales Verständnis der Grundlagen von haben geben auch räumlich. Wenn Ihre RDMBS-Engine andererseits alle räumlichen Komponenten verarbeitet und ihr Optimierer die besonderen Anforderungen (z. B. Indizierung) von räumlichen Objekten kennt, können Ihre DBAs problemlos Verwaltungsprobleme handhaben, und Sie können die Leistung maximieren.

Außerdem müssen Sie den Staging-Bereich und die atomare Umgebungsebene anpassen, um die Adressbereinigung (a

Schlüsselelement der räumlichen Analyse) sowie das nachträgliche Speichern von räumlichen Objekten. Die Reihe der Design-Editionen setzt sich fort, nachdem wir den Begriff der Adresssauberkeit eingeführt haben. Zum einen bestimmt diese Anwendung die Art der Software, die Sie für Ihre ETL-Bemühungen benötigen.

Benötigen Sie Produkte wie Trillium, um Ihnen eine saubere Adresse bereitzustellen, oder einen ETL-Anbieter Ihrer Wahl, der diese Funktionalität bereitstellt?
Im Moment ist es wichtig, dass Sie den Grad des Entwurfs zu schätzen wissen, der abgeschlossen sein muss, bevor Sie mit der Wartung Ihres Lagers beginnen. Die obigen Beispiele sollten die Vielzahl von Designentscheidungen demonstrieren, die der Identifizierung einer bestimmten Geschäftsanforderung folgen müssen. Wenn diese Designentscheidungen richtig getroffen werden, fördern sie die gegenseitige Abhängigkeit zwischen den physischen Strukturen Ihrer Umgebung, der Auswahl der verwendeten Technologie und dem Verbreitungsfluss von Informationsinhalten. Ohne diese herkömmliche BI-Architektur wird Ihre Organisation einem chaotischen Mix bestehender Technologien ausgesetzt sein, die bestenfalls lose miteinander verbunden sind, um scheinbare Stabilität zu bieten.

Informationsinhalt pflegen

Den Wert von Informationen in Ihr Unternehmen zu bringen, ist eine sehr schwierige Aufgabe. Ohne ausreichendes Verständnis und Erfahrung oder angemessenes Engineering und Design würden selbst die besten Teams scheitern. Wenn Sie andererseits über eine großartige Intuition und detailliertes Design verfügen, aber keine Disziplin zur Ausführung haben, haben Sie nur Ihr Geld und Ihre Zeit verschwendet, weil Ihre Bemühungen zum Scheitern verurteilt sind. Die Botschaft sollte klar sein: Wenn Ihnen eine oder mehrere dieser Fähigkeiten, Verständnis/Erfahrung oder Planungs-/Design- oder Umsetzungsdisziplin fehlen, wird dies dazu führen, dass das Gebäude der BI-Organisation lahmgelegt oder zerstört wird.

Ist Ihr Team ausreichend vorbereitet? Versteht jemand in Ihrem BI-Team die riesige Analyselandschaft, die in BI-Umgebungen verfügbar ist, und die Techniken und Technologien, die zur Pflege dieser Landschaft erforderlich sind? Gibt es jemanden in Ihrem Team, der den Unterschied bei der Bewerbung für Fortgeschrittene erkennen kann?

statisches Reporting und OLAP oder die Unterschiede zwischen ROLAP und OLAP? Erkennt eines Ihrer Teammitglieder die Art des Mining und wie es sich auf das Warehouse auswirken könnte oder wie das Warehouse die Mining-Leistung unterstützen kann? Ein Teammitglied versteht den Wert von geben Weltraum- oder agentenbasierte Technologie? Haben Sie jemanden, der die einzigartige Tool-Anwendung der ETL vs. Message Broker-Technologie schätzt? Wenn Sie es nicht haben, besorgen Sie sich eins. BI ist viel größer als ein normalisierter Atomic Layer, OLAP, Sternschemata und ein ODS.

Das Verständnis und die Erfahrung, BI-Anforderungen und ihre Lösungen zu erkennen, ist für Ihre Fähigkeit, Benutzeranforderungen richtig zu formalisieren und ihre Lösungen zu entwerfen und zu implementieren, von entscheidender Bedeutung. Wenn Ihre Benutzergemeinschaft Schwierigkeiten hat, Anforderungen zu beschreiben, ist es Sache des Warehouse-Teams, dieses Verständnis zu vermitteln. Aber wenn das Team von Warehouse

die spezifische Anwendung von BI nicht erkennt - zum Beispiel Data Mining -, dann ist es nicht optimal, dass BI-Umgebungen oft darauf beschränkt sind, passive Repositories zu sein. Das Ignorieren dieser Technologien mindert jedoch nicht ihre Bedeutung und die Auswirkungen, die sie auf die Entwicklung von Business-Intelligence-Fähigkeiten Ihrer Organisation sowie auf den Informationswert haben, den Sie fördern möchten.

Design muss den Begriff des Zeichnens beinhalten, und beides erfordert eine kompetente Person. Darüber hinaus erfordert die Planung eine Teamwarehouse-Philosophie und die Einhaltung von Standards. Wenn Ihr Unternehmen beispielsweise einen Plattformstandard etabliert oder ein bestimmtes RDBMS identifiziert hat, das es plattformübergreifend standardisieren möchte, ist es zwingend erforderlich, dass sich alle Teammitglieder an diese Standards halten. In der Regel äußert ein Team den Bedarf an Standardisierung (gegenüber Anwendergemeinschaften), aber das Team selbst ist nicht bereit, sich an die Standards zu halten, die in anderen Bereichen des Unternehmens oder vielleicht sogar in ähnlichen Unternehmen etabliert sind. Dies ist nicht nur heuchlerisch, sondern zeigt auch, dass das Unternehmen nicht in der Lage ist, vorhandene Ressourcen und Investitionen zu nutzen. Das bedeutet nicht, dass es keine Situationen gibt, die eine nicht standardisierte Plattform oder Technologie rechtfertigen; jedoch die Bemühungen des Lagers

Sie sollten die Standards des Unternehmens eifersüchtig bewachen, bis die geschäftlichen Anforderungen etwas anderes vorschreiben.

Die dritte Schlüsselkomponente, die zum Aufbau einer BI-Organisation benötigt wird, ist Disziplin.
Sie hängt insgesamt gleichermaßen von Individuen und der Umwelt ab. Projektplaner, Sponsoren, Architekten und Benutzer müssen die Disziplin zu schätzen wissen, die erforderlich ist, um die Informationsbestände des Unternehmens aufzubauen. Designer müssen ihre Designanstrengungen darauf ausrichten, andere in der Gesellschaft benötigte Anstrengungen zu ergänzen.

Angenommen, Ihr Unternehmen erstellt eine ERP-Anwendung mit einer Lagerkomponente.
Daher liegt es in der Verantwortung der ERP-Designer, mit dem Lagerumgebungsteam zusammenzuarbeiten, um die bereits begonnene Arbeit nicht zu konkurrieren oder zu duplizieren.

Disziplin ist auch ein Thema, das von der gesamten Organisation angegangen werden muss und normalerweise auf Führungsebene festgelegt und vorgeschrieben wird.
Sind Führungskräfte bereit, sich an einen entworfenen Ansatz zu halten? Ein Ansatz, der verspricht, Informationsinhalte zu schaffen, die letztendlich allen Bereichen des Unternehmens einen Mehrwert bringen, aber vielleicht individuelle oder abteilungsbezogene Agenden gefährden? Denken Sie an das Sprichwort „An alles denken ist wichtiger als an eine Sache zu denken“. Dieses Sprichwort gilt für BI-Organisationen.

Leider konzentrieren viele Warenhäuser ihre Bemühungen darauf, Wert auf eine bestimmte Abteilung oder bestimmte Benutzer auszurichten und zu liefern, ohne dabei die Organisation als Ganzes zu berücksichtigen. Angenommen, der Manager bittet das Team des Werhauses um Unterstützung. Das Team reagiert mit einem 90-tägigen Einsatz, der nicht nur die von der Führungskraft definierten Benachrichtigungsanforderungen erfüllt, sondern auch sicherstellt, dass alle Anforderungen erfüllt werden geben Basis werden auf atomarer Ebene gemischt, bevor sie in die vorgeschlagene Würfeltechnologie eingeführt werden.
Diese technische Ergänzung stellt sicher, dass das Lagerhausunternehmen davon profitieren wird geben notwendig für den Manager.
Die Führungskraft sprach jedoch mit externen Beratungsunternehmen, die eine ähnliche Anwendung mit Lieferung in weniger als 4 Wochen vorschlugen.

Unter der Annahme, dass das interne Lagerteam kompetent ist, hat die Führungskraft die Wahl. Wer kann die zusätzliche Engineering-Disziplin unterstützen, die erforderlich ist, um das Informationsvermögen des Unternehmens zu erweitern, oder kann sich dafür entscheiden, schnell eine eigene Lösung zu erstellen. Letzteres scheint viel zu oft gewählt zu werden und dient nur dazu, Informationscontainer zu schaffen, die wenigen oder dem Einzelnen zugute kommen.

Kurz- und langfristige Ziele

Architekten und Projektplaner müssen eine langfristige Vision der Gesamtarchitektur und Pläne für das Wachstum einer BI-Organisation formulieren. Diese Kombination aus kurzfristigem Gewinn und langfristiger Planung sind die beiden Seiten der BI-Bemühungen. Kurzfristige Einnahmen sind die Facette von BI, die mit Iterationen Ihres Lagers verbunden ist.

Hier konzentrieren sich Planer, Architekten und Sponsoren auf die Erfüllung spezifischer Geschäftsanforderungen. Auf dieser Ebene werden physische Strukturen gebaut, Technologie gekauft und Techniken implementiert. Sie sind keinesfalls darauf ausgelegt, spezifische Anforderungen zu erfüllen, die von bestimmten Benutzergemeinschaften definiert werden. Alles wird mit dem Ziel getan, spezifische Anforderungen zu erfüllen, die von einer bestimmten Community definiert werden.
Langfristige Planung ist jedoch die andere Facette von BI. Hier stellten die Pläne und Entwürfe sicher, dass jede physische Struktur gebaut, die Technologien ausgewählt und die Techniken ausgeführt wurden, die mit Blick auf das Unternehmen gemacht wurden. Es ist die langfristige Planung, die den nötigen Zusammenhalt liefert, um sicherzustellen, dass feste Gewinne aus kurzfristigen Gewinnen abgeleitet werden.

Begründen Sie Ihren BI-Aufwand

Un Data Warehouse an sich hat es keinen Eigenwert. Mit anderen Worten, es gibt keinen inhärenten Wert zwischen Warehouse-Technologien und Implementierungstechniken.

Der Wert jeder Lagerarbeit liegt in den Aktionen, die als Ergebnis der Lagerumgebung und der im Laufe der Zeit kultivierten Informationsinhalte durchgeführt werden. Dies ist ein kritischer Punkt, den Sie verstehen müssen, bevor Sie jemals versuchen, den Wert einer Wherehouse-Initiative abzuschätzen.

Zu oft versuchen Architekten und Planer, Wert auf die physischen und technischen Komponenten des Lagers zu legen, obwohl der Wert tatsächlich in den Geschäftsprozessen begründet ist, die durch das Lager und gut erfasste Informationen positiv beeinflusst werden.

Hierin liegt die Herausforderung bei der Gründung von BI: Wie rechtfertigt man die Investition? Wenn der Aufbewahrungsort selbst keinen intrinsischen Wert hat, müssen Projektplaner die Vorteile für diejenigen untersuchen, definieren und formalisieren, die das Warehouse nutzen, um bestimmte Geschäftsprozesse oder den Wert geschützter Informationen oder beides zu verbessern.

Erschwerend kommt hinzu, dass jeder Geschäftsprozess, der vom Lageraufwand betroffen ist, „erhebliche“ oder „leichte“ Vorteile bieten kann. Signifikante Vorteile bieten eine greifbare Metrik für die Messung der Kapitalrendite (ROI) – z. B. ein zusätzlicher Lagerumschlag während eines bestimmten Zeitraums oder für niedrigere Transportkosten pro Sendung. Es ist schwieriger, subtile Vorteile wie einen verbesserten Zugang zu Informationen in Bezug auf den greifbaren Wert zu definieren.

Verbinden Sie Ihr Projekt, um das zu erfahren Geschäftsanfragen

Zu oft versuchen Projektplaner, den Lagerwert mit amorphen Unternehmenszielen zu verknüpfen. Indem wir erklären, dass „der Wert eines Lagers auf unserer Fähigkeit beruht, strategische Anforderungen zu erfüllen“, eröffnen wir die Diskussion auf angenehme Weise. Aber das allein reicht nicht aus, um zu entscheiden, ob eine Investition in das Lager sinnvoll ist. Es ist am besten, Lagermitarbeiter mit bestimmten Geschäftsanfragen und Notizen zu verbinden.

Messung des ROI

Die Berechnung des ROI in einer Lagerumgebung kann besonders schwierig sein. Besonders schwierig ist es, wenn die Führung

einer bestimmten Wiederholung ist etwas Ungreifbares oder leicht zu Messendes. Eine Studie ergab, dass Benutzer die zwei Hauptvorteile von BI-Initiativen wahrnehmen:

  • ▪ Entscheidungskompetenz schaffen
  • ▪ Zugang zu Informationen schaffen
    Diese Leistungen sind weiche (oder milde) Leistungen. Es ist leicht zu sehen, wie wir einen ROI basierend auf einem harten (oder größeren) Vorteil wie reduzierten Frachtkosten berechnen können, aber wie messen wir die Fähigkeit, bessere Entscheidungen zu treffen?
    Dies ist definitiv eine Herausforderung für Projektplaner, wenn sie versuchen, das Unternehmen dazu zu bringen, in einen bestimmten Lageraufwand zu investieren. Steigende Umsätze oder sinkende Kosten sind nicht mehr die zentralen Themen, die das BI-Umfeld treiben.
    Stattdessen suchen Sie nach geschäftlichen Anfragen nach besserem Zugriff auf Informationen, damit eine bestimmte Abteilung schneller Entscheidungen treffen kann. Dies sind strategische Treiber, die für das Unternehmen genauso wichtig sind, aber mehrdeutiger und schwieriger in einer greifbaren Metrik zu charakterisieren sind. In diesem Fall kann die Berechnung des ROI irreführend, wenn nicht gar irrelevant sein.
    Projektdesigner müssen in der Lage sein, den Führungskräften einen konkreten Wert aufzuzeigen, um zu entscheiden, ob sich die Investition in eine bestimmte Iteration lohnt. Wir werden jedoch keine neue Methode zur Berechnung des ROI vorschlagen und auch keine Argumente dafür oder dagegen vorbringen.
    Es gibt viele Artikel und Bücher, die die Grundlagen der Berechnung des ROI behandeln. Es gibt spezielle Wertversprechen wie Value on Investment (VOI), die von Gruppen wie Gartner angeboten werden und die Sie recherchieren können. Stattdessen konzentrieren wir uns auf die Kernaspekte von ROI oder anderen Wertversprechen, die Sie berücksichtigen müssen. ROI anwenden Neben dem Streit um die „harten“ gegenüber den „weichen“ Vorteilen im Zusammenhang mit BI-Bemühungen gibt es noch andere Aspekte, die bei der Anwendung des ROI zu berücksichtigen sind. Zum Beispiel:

Zu viele Einsparungen auf DW-Bemühungen zurückführen, die sowieso kommen würden
Angenommen, Ihr Unternehmen wechselte von einer Mainframe-Architektur zu einer verteilten UNIX-Umgebung. Einsparungen, die durch diesen Aufwand realisiert werden können (oder auch nicht), sollten also, wenn überhaupt (?), nicht ausschließlich dem Lager zugeschrieben werden.

Nicht alles zu berücksichtigen ist teuer. Und es gibt viele Dinge zu beachten. Betrachten Sie die folgende Liste:

  • ▪ Anlaufkosten, einschließlich Durchführbarkeit.
  • ▪ Kosten für dedizierte Hardware mit zugehörigem Speicher und Kommunikation
  • ▪ Kosten der Software, einschließlich Verwaltung von geben und Client/Server-Erweiterungen, ETL-Software, DSS-Technologien, Visualisierungstools, Planungs- und Workflow-Anwendungen und Überwachungssoftware, .
  • ▪ Strukturdesignkosten geben, mit der Erstellung und Optimierung von
  • ▪ Softwareentwicklungskosten, die direkt mit dem BI-Aufwand verbunden sind
  • ▪ Kosten für Home-Support, einschließlich Leistungsoptimierung, einschließlich Software-Versionskontrolle und Hilfefunktionen Wenden Sie den ROI „Urknall“ an. Der Bau des Lagers als gigantischer Einzelaufwand ist zum Scheitern verurteilt, also auch den ROI für eine Großunternehmensinitiative berechnen. Das Angebot überrascht, und die Planer unternehmen weiterhin schwache Versuche, den Wert des Gesamtaufwands abzuschätzen. Warum versuchen Planer, der Unternehmensinitiative einen monetären Wert beizumessen, wenn allgemein bekannt und akzeptiert ist, dass die Schätzung bestimmter Iterationen schwierig ist? Wie ist es möglich? Es ist mit wenigen Ausnahmen nicht möglich. Tu es nicht. Nachdem wir nun festgestellt haben, was Sie bei der Berechnung des ROI nicht tun sollten, finden Sie hier einige Punkte, die Ihnen helfen werden, einen zuverlässigen Prozess zur Schätzung des Werts Ihrer BI-Bemühungen einzurichten.

ROI-Zustimmung einholen. Unabhängig von Ihrer Wahl der Methode zur Schätzung des Werts Ihrer BI-Bemühungen müssen sich alle Parteien darauf einigen, einschließlich Projektplaner, Sponsoren und Führungskräfte des Unternehmens.

Zerlegen Sie den ROI in identifizierbare Teile. Ein notwendiger Schritt in Richtung einer vernünftigen ROI-Berechnung ist es, diese Berechnung auf ein bestimmtes Projekt zu konzentrieren. Auf diese Weise können Sie dann einen Wert basierend auf bestimmten Geschäftsanforderungen schätzen, die erfüllt werden

Definieren Sie die Kosten. Wie bereits erwähnt, müssen zahlreiche Kosten berücksichtigt werden. Darüber hinaus müssen die Kosten nicht nur die mit der einzelnen Iteration verbundenen Kosten umfassen, sondern auch die Kosten, die mit der Sicherstellung der Einhaltung von Unternehmensstandards verbunden sind.

Nutzen definieren. Durch die eindeutige Verknüpfung des ROI mit spezifischen Geschäftsanforderungen sollten wir in der Lage sein, die Vorteile zu identifizieren, die zur Erfüllung der Anforderungen führen.

Reduzieren Sie Kosten und Nutzen bei bevorstehenden Gewinnen. Es ist der beste Weg, Ihre Bewertungen auf den Nettogegenwartswert (NPV) zu stützen, anstatt zu versuchen, den zukünftigen Wert in zukünftigen Einnahmen vorherzusagen.

Beschränken Sie die Zeit, um Ihren ROI aufzuteilen, auf ein Minimum. Es ist auf lange Sicht gut dokumentiert, dass es in Ihrem ROI verwendet wurde.

Verwenden Sie mehr als eine ROI-Formel. Es gibt zahlreiche Methoden zur Vorhersage des ROI, und Sie sollten planen, eine oder mehrere davon zu verwenden, einschließlich Nettobarwert, interner Zinsfuß (IRR) und Amortisation.

Wiederholbaren Prozess definieren. Dies ist entscheidend für die Berechnung eines langfristigen Werts. Ein einzelner wiederholbarer Prozess sollte für alle nachfolgenden Projektteilsequenzen dokumentiert werden.

Die aufgelisteten Probleme sind die häufigsten, die von Umweltexperten im Warenhaus definiert wurden. Das Beharren des Managements darauf, einen „Big-Bang“-ROI zu liefern, ist sehr verwirrend. Wenn Sie alle Ihre ROI-Berechnungen damit beginnen, sie in identifizierbare, greifbare Teile zu zerlegen, haben Sie gute Chancen, eine genaue ROI-Schätzung zu erhalten.

Fragen zu den Vorteilen des ROI

Was auch immer Ihre Vorteile sind, weich oder hart, Sie können einige grundlegende Fragen verwenden, um ihren Wert zu bestimmen. Mit einem einfachen Skalensystem von 1 bis 10 können Sie beispielsweise die Wirkung jeder Anstrengung anhand der folgenden Fragen messen:

  • Wie bewerten Sie das Verständnis von geben dieses Projekt Ihres Unternehmens verfolgen?
  • Wie würden Sie die Prozessverbesserungen als Ergebnis dieses Projekts bewerten?
  • Wie würden Sie die Auswirkungen neuer Erkenntnisse und Schlussfolgerungen messen, die jetzt durch diese Iteration verfügbar gemacht werden?
  • Welche Auswirkungen hatten neue und bessere Computerumgebungen als Ergebnis des Gelernten? Wenn die Antworten auf diese Fragen wenige sind, ist es möglich, dass das Unternehmen die getätigte Investition nicht wert ist. Fragen mit hoher Punktzahl weisen auf signifikante Wertsteigerungen hin und sollten als Leitfaden für die weitere Untersuchung dienen. Beispielsweise sollte eine hohe Punktzahl für Prozessverbesserungen Designer dazu veranlassen, zu untersuchen, wie Prozesse verbessert wurden. Möglicherweise stellen Sie fest, dass einige oder alle erzielten Gewinne greifbar sind und daher leicht ein Geldwert angewendet werden kann. Optimale Nutzung der ersten Iteration des Lagerhaus Der größte Gewinn Ihrer Unternehmensanstrengungen liegt oft in den ersten paar Iterationen. Diese frühen Bemühungen legen traditionell die nützlichsten Informationsinhalte für die Öffentlichkeit fest und tragen dazu bei, die technologische Grundlage für nachfolgende BI-Anwendungen zu schaffen. Normalerweise jede nachfolgende Unterfolge von geben von Lagerprojekten bringen dem Gesamtunternehmen immer weniger Mehrwert. Dies gilt insbesondere, wenn die Iteration keine neuen Themen hinzufügt oder die Anforderungen einer neuen Benutzergemeinschaft erfüllt.

Diese Speicherfunktion gilt auch für wachsende Stapel von geben Historiker. Da nachfolgende Bemühungen mehr erfordern geben und wie mehr geben werden im Laufe der Zeit in das Lager gegossen, die meisten von geben es wird für die verwendete Analyse weniger relevant. Diese geben sie werden oft genannt geben ruhen und es ist immer teuer, sie zu halten, weil sie kaum benutzt werden.

Was bedeutet das für Projektträger? Im Wesentlichen beteiligen sich die Erstsponsoren an mehr als den Investitionskosten. Dies ist primär, weil sie der Anstoß für die Gründung der breiten Technologie- und Ressourcenumgebungsebene des Lagerhauses sind, einschließlich organischer.

Aber diese ersten Schritte haben den größten Wert und daher müssen Projektplaner die Investition oft rechtfertigen.
Projekte, die nach Ihrer BI-Initiative durchgeführt werden, haben möglicherweise niedrigere (im Vergleich zur ersten) und direkten Kosten, bringen aber weniger Wert für das Unternehmen.

Und Organisationsinhaber müssen anfangen, darüber nachzudenken, den Aufbau zu verwerfen geben und weniger relevante Technologien.

Data Mining: Bergbau Geben

Viele Architekturkomponenten erfordern Variationen von Data-Mining-Technologien und -Techniken –
zum Beispiel die verschiedenen "Agenten" für die Prüfung der Punkte von Interesse der Kundschaft, die Betriebssysteme des Unternehmens und für die gleiche dw. Diese Agenten können fortschrittliche neuronale Netze sein, die auf Topftrends trainiert sind, wie z. B. zukünftige Produktnachfrage basierend auf Verkaufsförderungen; regelbasierte Engines zum Reagieren auf eine Menge dato von Umständen, zum Beispiel medizinische Diagnose und Behandlungsempfehlungen; oder sogar einfache Agenten mit der Rolle, Ausnahmen an Top-Führungskräfte zu melden. Im Allgemeinen diese Extraktionsverfahren geben si

in Echtzeit überprüfen; deshalb müssen sie vollständig mit der Bewegung der vereinigen geben selbst.

Online Analytic Processing Verarbeitung

Online Analytics

Die Fähigkeit zum Slicen, Würfeln, Rollen, Drilldown und Durchführen von Analysen
Was-wäre-wenn, liegt im Umfang, im Umfang der IBM Technologiesuite. Beispielsweise gibt es für DB2 OLAP-Funktionen (Online Analytical Processing), die die Dimensionsanalyse in die Engine von einbringen Datenbank stesso.

Funktionen fügen SQL einen dimensionalen Nutzen hinzu und profitieren gleichzeitig von allen Vorteilen, die ein natürlicher Bestandteil von DB2 sind. Ein weiteres Beispiel für die OLAP-Integration ist das Extraktionstool DB2 OLAP Analyzer Server. Diese Technologie ermöglicht es, DB2 OLAP Server-Cubes schnell und automatisch zu scannen, um die Werte zu lokalisieren und darüber zu berichten geben ungewöhnlich oder unerwartet für jeden Würfel für den Handelsanalysten. Und schließlich bieten die DW-Center-Funktionen Architekten die Möglichkeit, unter anderem das Profil eines DB2 OLAP-Cube-Servers als natürlichen Bestandteil von ETL-Prozessen zu überprüfen.

Raumanalyse Raumanalyse

Der Raum stellt die Hälfte der analytischen Anker (Leitungen) dar, die für ein Panorama erforderlich sind
breit analytisch (Zeit stellt die andere Hälfte dar). Die atomare Ebene des Lagerhauses, dargestellt in Abbildung 1.1, umfasst die Grundlagen für Zeit und Raum. Zeitstempel verankern Analysen nach Zeit und Adressinformationen verankern Analysen nach Raum. Zeitstempel führen die Analyse nach Zeit durch, und Adressinformationen führen die Analyse nach Raum durch. Das Diagramm zeigt die Geocodierung – den Prozess der Umwandlung von Adressen in Punkte auf einer Karte oder Punkte im Raum, sodass Konzepte wie Entfernung und Innen/Außen in der Analyse verwendet werden können –, die auf atomarer Ebene durchgeführt wird, und räumliche Analysen, die dem Analysten zur Verfügung gestellt werden. IBM stellt räumliche Erweiterungen bereit, die mit dem Environmental System Research Institute (ESRI), al Datenbank DB2, damit räumliche Objekte als normaler Bestandteil der verwaltet werden können Datenbank relational. DB2

Spatial Extender stellen auch alle SQL-Erweiterungen bereit, um räumliche Analysen zu nutzen. Zum Beispiel die SQL-Erweiterungen, die abgefragt werden sollen
Abstand zwischen Adressen oder ob ein Punkt innerhalb oder außerhalb eines definierten polygonalen Bereichs liegt, sind ein analytischer Standard mit dem Spatial Extender. Siehe Kapitel 16 für weitere Informationen.

Datenbase-Resident Tools Tools Datenbase-Bewohner

DB2 verfügt über viele SQL BI-residente Funktionen, die die Parsing-Aktion unterstützen. Diese beinhalten:

  • Rekursionsfunktionen zum Durchführen von Analysen, wie z. B. „Finde alle möglichen Flugpfade von San Francisco a New York".
  • Analytische Funktionen für Ranking, kumulative, Cube- und Rollup-Funktionen zur Erleichterung von Aufgaben, die normalerweise nur mit OLAP-Technologie anfallen, sind jetzt ein natürlicher Bestandteil der Engine des Datenbank
  • Die Fähigkeit, Tabellen zu erstellen, die Ergebnisse enthalten
    Verkäufer von Datenbank Führungskräfte mischen mehr BI-Funktionen in der Datenbank Gleiche.
    Die Hauptlieferanten von Datenbank Sie mischen mehr BI-Funktionen in die Datenbank Gleiche.
    Dies bietet eine bessere Leistung und mehr Ausführungsoptionen für BI-Lösungen.
    Die Merkmale und Funktionen von DB2 V8 werden in den folgenden Kapiteln ausführlich behandelt:
    Technische Architektur und Grundlagen des Datenmanagements (Kapitel 5)
  • DB2 BI-Grundlagen (Kapitel 6)
  • DB2 MQT (Kapitel 7)
  • DB2 OLAP-Funktionen (Kapitel 13)
  • Erweiterte BI-Features und -Funktionen von DB2 (Kapitel 15) Vereinfachtes Datenlieferungssystem Liefersystem von geben Vereinfacht

Die in Abbildung 1.1 dargestellte Architektur umfasst zahlreiche Strukturen geben physisch. Eines ist das Lagerhaus von geben Betriebs. Im Allgemeinen ist ein ODS objektorientiert, integriert und aktuell. Sie würden ein ODS aufbauen, um beispielsweise das Verkaufsbüro zu unterstützen. ODS-Verkäufe würden ergänzen geben aus vielen verschiedenen Systemen, würde aber beispielsweise nur die heutigen Transaktionen behalten. Das ODS kann auch mehrmals täglich aktualisiert werden. Gleichzeitig drücken die Prozesse i geben in andere Anwendungen integriert. Diese Struktur ist speziell für die Integration ausgelegt geben aktuell und dynamisch und wäre ein wahrscheinlicher Kandidat zur Unterstützung von Echtzeitanalysen, wie z. B. die Bereitstellung von Serviceagenten Kundschaft die aktuellen Verkaufsinformationen eines Kunden durch Extrahieren von Verkaufstrendinformationen aus dem Inventar selbst. Eine weitere in Abbildung 1.1 gezeigte Struktur ist ein formaler Zustand für das dw. Dies ist nicht nur der Ort für die Durchführung der notwendigen Integration, der Qualität von geben, und der Transformation von geben des Wareneingangslagers, sondern ist auch ein zuverlässiger Zwischenlagerplatz für geben Replikationen, die in Echtzeitanalysen verwendet werden könnten. Wenn Sie sich für die Verwendung eines ODS oder Staging-Bereichs entscheiden, ist dies eines der besten Tools, um diese Strukturen zu füllen geben Die Verwendung unterschiedlicher Betriebsquellen ist die heterogene verteilte Abfrage von DB2. Diese Funktion wird durch das optionale DB2-Feature namens DB2 Relational Connect (nur Abfragen) und durch DB2 DataJoiner (ein separates Produkt, das Abfrage-, Einfüge-, Aktualisierungs- und Löschfunktionen für heterogene verteilte RDBMS bereitstellt) bereitgestellt.

Diese Technologie ermöglicht es Architekten geben di legare geben der Produktion mit analytischen Verfahren. Die Technologie kann sich nicht nur an praktisch alle Replikationsanforderungen anpassen, die bei Echtzeitanalysen auftreten können, sondern auch eine Verbindung zu einer Vielzahl von geben am beliebtesten, darunter DB2, Oracle, Sybase, SQL Server, Informix und andere. DB2 DataJoiner kann zum Füllen einer Struktur verwendet werden geben Formelle wie ein ODS oder sogar eine permanente Tabelle, die im Lager vertreten ist und für die schnelle Wiederherstellung von sofortigen Updates oder zum Verkauf bestimmt ist. Natürlich diese Strukturen selbst geben kann mit gefüllt werden

eine weitere wichtige Technologie für die Replikation von geben, IBM DataPropagator relational. (DataPropagator ist ein separates Produkt für zentrale Systeme. DB2 UNIX, Linux, Windows und OS/2 enthalten Replikationsdienste von geben als Standardfunktion).
Eine andere Methode zum Verschieben der geben Im gesamten Unternehmen operiert ein Unternehmensanwendungsintegrator, der auch als Message Broker bekannt ist.Diese einzigartige Technologie ermöglicht eine unübertroffene Kontrolle über das Zielen und Verschieben geben rund um das Unternehmen. IBM hat den am weitesten verbreiteten Message Broker, MQSeries, oder eine Variante des Produkts, die die Anforderungen für enthält e-commerce, IBM WebSphere MQ.
Per più discussione su come sfruttare MQ per sostenere un magazzino e un ambiente BI, visitare Webseite del libro. Per ora, è sufficiente dire che questa tecnologia è un mezzo eccellente per catturare e trasformare (utilizzando MQSeries Integrator) geben Gezielte Rekrutierung von Mitarbeitern für BI-Lösungen. Die MQ-Technologie wurde in UDB V8 integriert und gepackt, was bedeutet, dass Nachrichtenwarteschlangen jetzt so verwaltet werden können, als wären sie DB2-Tabellen. Das Konzept der Schweißwarteschlangennachrichten und das Universum von Datenbank relationale leitet zu einer leistungsstarken Umgebung der Bereitstellung von geben.

Null-Latenz Null-Latenz

Das ultimative strategische Ziel für IBM ist die Analyse ohne Latenz. Wie definiert durch
Gartner muss ein BI-System in der Lage sein, Informationen für Analysten bei Bedarf abzuleiten, aufzunehmen und bereitzustellen. Die Herausforderung ist natürlich, wie man mischt geben aktuell und in Echtzeit mit notwendigen historischen Informationen, wie z. B. i geben verwandter Trend/Muster oder extrahierte Erkenntnisse, wie z. B. Kundenprofilerstellung.

Zu diesen Informationen gehört beispielsweise die Identifizierung von Kundschaft hohes oder niedriges Risiko oder welche Produkte i Kundschaft Sie werden höchstwahrscheinlich kaufen, wenn sie bereits Käse in ihren Einkaufswagen haben.

Das Erreichen von Null Latenz hängt tatsächlich von zwei grundlegenden Mechanismen ab:

  • Vollständige Vereinigung von geben die mit den etablierten Techniken und den vom BI erstellten Tools analysiert werden
  • Ein Liefersystem von geben effizient, um sicherzustellen, dass Echtzeitanalysen wirklich verfügbar sind. Diese Voraussetzungen für Null Latenz unterscheiden sich nicht von den beiden Zielen, die von IBM festgelegt und oben beschrieben wurden. Die enge Kopplung der geben es ist Teil des nahtlosen Integrationsprogramms von IBM. Und erstellen Sie ein Liefersystem von geben effizient ist vollständig von der verfügbaren Technologie abhängig, was den Lieferprozess vereinfacht geben. Folglich sind zwei der drei Ziele von IBM entscheidend, um das dritte zu erreichen. IBM entwickelt seine Technologie bewusst weiter, um sicherzustellen, dass Null-Latenz für Warehouse-Bemühungen Realität wird. Zusammenfassung / Synthese Ihre BI-Organisation stellt eine Roadmap für den Aufbau Ihrer Umgebung bereit
    iterativ. Es muss angepasst werden, um die aktuellen und zukünftigen Anforderungen Ihres Unternehmens widerzuspiegeln. Ohne eine umfassende architektonische Vision sind Lageriterationen kaum mehr als willkürliche Implementierungen des Zentrallagers, die wenig dazu beitragen, ein großes, informatives Unternehmen zu schaffen. Die erste Hürde für Projektleiter besteht darin, die für das Wachstum der BI-Organisation erforderlichen Investitionen zu rechtfertigen. Während ROI-Berechnungen eine tragende Säule der Bestandserfolge geblieben sind, wird es immer schwieriger, genaue Vorhersagen zu treffen. Dies hat zu anderen Methoden geführt, um festzustellen, ob Sie auf Ihre Kosten kommen. Als Lösung wird beispielsweise Value on Investment2 (VOI) beschafft. Es obliegt den Architekten von geben und on Projektplaner generieren und liefern bewusst Informationen an Nutzerverbände und geben nicht einfach nur einen Service weiter geben. Es gibt einen großen Unterschied zwischen den beiden. Informationen sind etwas, das bei der Entscheidungsfindung und Effektivität einen Unterschied macht; relativ, d geben Sie sind Bausteine ​​für die Ableitung dieser Informationen.

Obwohl kritisch gegenüber der Quelle geben Um geschäftlichen Anforderungen gerecht zu werden, sollte die BI-Umgebung eine größere Rolle bei der Erstellung von Informationsinhalten spielen. Wir müssen die zusätzlichen Schritte unternehmen, um Informationsinhalte zu bereinigen, zu integrieren, umzuwandeln oder anderweitig zu erstellen, auf die Benutzer reagieren können, und dann müssen wir sicherstellen, dass diese Aktionen und Entscheidungen, sofern angemessen, in der BI-Umgebung widergespiegelt werden. Wenn wir das Lager degradieren, um nur auf zu dienen geben, seien Sie versichert, dass die Nutzerverbände den Informationsgehalt schaffen werden, der erforderlich ist, um Maßnahmen zu ergreifen. Dies stellt sicher, dass ihre Gemeinschaft bessere Entscheidungen treffen kann, aber das Unternehmen leidet unter einem Mangel an Wissen, das sie genutzt haben. Datum dass Architekten und Projektplaner konkrete Projekte im BI-Umfeld initiieren, bleiben sie dem Gesamtunternehmen gegenüber verantwortlich. Ein einfaches Beispiel für dieses zweiseitige Merkmal von BI-Iterationen finden Sie in der Quelle geben. alle geben die für bestimmte kommerzielle Anfragen empfangen werden, müssen in der ersten Atomschicht ausgefüllt werden. Dies stellt die Entwicklung des Unternehmensinformationsbestands sicher und verwaltet und adressiert die spezifischen Benutzeranforderungen, die in der Iteration definiert wurden.

Was ist ein Data Warehouse?

Data Warehouse ist seit 1990 das Herz der Informationssystemarchitektur und unterstützt Informationsprozesse durch das Angebot einer soliden integrierten Plattform von geben Historie als Grundlage für spätere Analysen genommen. DER Data Warehouse Sie bieten eine einfache Integration in eine Welt inkompatibler Anwendungssysteme. Data Warehouse es hat sich zu einer Modeerscheinung entwickelt. Data Warehouse organisiert und speichert i geben die für Informations- und Analyseprozesse auf der Grundlage einer langen historischen zeitlichen Perspektive notwendig sind. All dies ist mit einem erheblichen und ständigen Aufwand bei Bau und Wartung verbunden Data Warehouse.

Also was ist ein Data Warehouse? ein Data Warehouse ist:

  • ▪ themenorientiert
  • ▪ Integriertes System
  • ▪ Zeitvariation
  • ▪ nicht flüchtig (bricht nicht ab)

eine Sammlung von geben verwendet, um Managemententscheidungen bei der Implementierung von Prozessen zu unterstützen.
I geben eingefügt in Data Warehouse sie stammen in den meisten Fällen aus betrieblichen Umgebungen. Der Data Warehouse es wird aus einer Speichereinheit hergestellt, die physisch vom Rest des Systems getrennt ist, das es enthält geben zuvor durch Anwendungen transformiert wurden, die mit Informationen arbeiten, die aus der Betriebsumgebung stammen.

Die wörtliche Definition von a Data Warehouse Es verdient eine gründliche Erklärung, da es wichtige Motivationen und zugrunde liegende Bedeutungen gibt, die die Eigenschaften eines Lagers beschreiben.

SUBJEKTORIENTIERUNG ORIENTIERUNG THEMATISCH

Das erste Merkmal von a Data Warehouse ist, dass es sich an den wesentlichen Themen eines Unternehmens orientiert. Die Führung der Prozesse durch die geben es steht im Gegensatz zu der eher klassischen Methode, die eine Orientierung von Anwendungen an Prozessen und Funktionen vorsieht, eine Methode, die von den meisten weniger jungen Managementsystemen weitgehend geteilt wird.

Die Betriebswelt ist auf Anwendungen und Funktionen wie Kredite, Sparen, Bankkarten und Treuhand für ein Finanzinstitut ausgelegt. Die Welt von dw gliedert sich in Themenschwerpunkte wie den Kunden, den Verkäufer, das Produkt und die Tätigkeit. Die Ausrichtung auf Themen wirkt sich auf die Gestaltung und Umsetzung von aus geben gefunden im dw. Am wichtigsten ist, dass das Hauptthema den wichtigsten Teil der Schlüsselstruktur beeinflusst.

Die Anwendungswelt wird sowohl vom Datenbankdesign als auch vom Prozessdesign beeinflusst. Die Welt von dw konzentriert sich ausschließlich auf die Videomodellierung geben und auf die Gestaltung der Datenbank. Prozessdesign (in seiner klassischen Form) ist nicht Teil der dw-Umgebung.

Die Unterschiede zwischen der Wahl der Verfahrens-/Funktionsanwendung und der Fachwahl zeigen sich auch als inhaltliche Unterschiede der geben auf einer detaillierten Ebene. DAS geben del dw nicht enthalten i geben die nicht zur Verarbeitung von DSS-Bewerbungen verwendet werden

operativ orientiert an geben enthalten i geben um Funktions-/Verarbeitungsanforderungen sofort zu erfüllen, die für den DSS-Analysten von Nutzen sein können oder nicht.
Ein weiterer wichtiger Weg, dass betriebsorientierte Anwendungen für geben unterscheiden sich von geben von dw steht in den Berichten von geben. Die geben Mitarbeiter unterhalten eine fortlaufende Beziehung zwischen zwei oder mehr Tabellen auf der Grundlage einer aktiven Geschäftsregel. DER geben von dw erstrecken sich über ein Zeitspektrum und die in der dw gefundenen Berichte sind zahlreich. Viele Handelsregeln (und dementsprechend viele Berichte von geben ) sind im Lager von vertreten geben zwischen zwei oder mehr Tischen.

(Für eine detaillierte Erklärung, wie die Beziehungen zwischen dem geben in der DW verwaltet werden, lesen Sie dazu bitte das Tech Topic.)
Aus keiner anderen Perspektive als der des grundlegenden Unterschieds zwischen der Wahl einer Funktions-/Prozessanwendung und einer Subjektwahl gibt es einen wesentlichen Unterschied zwischen Betriebssystemen und geben und die DW.

INTEGRATION INTEGRATION

Der wichtigste Aspekt der Umgebung von dw ist, dass i geben innerhalb der dw gefunden werden einfach integriert. STETS. OHNE AUSNAHMEN. Das Wesentliche der dw-Umgebung ist, dass i geben innerhalb der Grenzen des Lagers enthalten sind integriert.

Integration zeigt sich auf vielfältige Weise – in konsistent identifizierten Konventionen, in konsistenter Messung von Variablen, in konsistenten codierten Strukturen, in physikalischen Attributen von geben konsequent und so weiter.

Im Laufe der Jahre haben die Designer verschiedener Anwendungen viele Entscheidungen darüber getroffen, wie eine Anwendung entwickelt werden sollte. Der Stil und die individuellen Gestaltungsentscheidungen der Designer-Anwendungen zeigen sich auf hundert Arten: in Unterschieden in der Kodierung, Tastenstruktur, physikalischen Eigenschaften, Identifikationskonventionen und so weiter. Die kollektive Fähigkeit vieler Anwendungsdesigner, inkonsistente Anwendungen zu erstellen, ist legendär. Abbildung 3 zeigt einige der wichtigsten Unterschiede beim Design von Anwendungen.

Kodierung: Kodierung:

Anwendungsdesigner haben die Feldcodierung – Geschlecht – auf verschiedene Weise gewählt. Ein Designer stellt das Geschlecht als „m“ und „f“ dar. Ein anderer Designer stellt das Geschlecht als „1“ und „0“ dar. Ein anderer Designer stellt das Geschlecht als „x“ und „y“ dar. Ein anderer Designer stellt das Geschlecht als „männlich“ und „weiblich“ dar. Es ist wirklich egal, wie der Sex in die DW kommt. Das „M“ und „F“ sind wahrscheinlich so gut wie jede Darstellung.

Worauf es ankommt, ist, dass aus welcher Quelle auch immer das Geschlechtsfeld stammt, dieses Feld in der DW in einem konsistenten integrierten Zustand ankommt. Folglich wird das Feld aus einer Anwendung in das DW geladen, wo es außerhalb im Format „M“ und „F“ dargestellt wurde geben muss in das DW-Format konvertiert werden.

Messung von Attributen: Messung von Attribute:

Anwendungsentwickler haben sich im Laufe der Jahre dafür entschieden, die Pipeline auf verschiedene Weise zu messen. Ein Designerladen i geben der Rohrleitung in Zentimetern. Ein anderer Anwendungsdesigner speichert die geben der Pipeline in Zoll. Ein anderer Anwendungsdesigner speichert die geben der Pipeline in Millionen Kubikfuß pro Sekunde. Und ein anderer Designer speichert Pipeline-Informationen in Yards. Was auch immer die Quelle ist, wenn Pipeline-Informationen im DW ankommen, müssen sie auf die gleiche Weise gemessen werden.

Wie in Abbildung 3 gezeigt, betreffen Integrationsprobleme fast jeden Aspekt des Projekts – die physischen Eigenschaften des geben, das Dilemma, mehr als eine Quelle von zu haben geben, das Problem der inkonsistenten identifizierten Proben, Formate von geben inkonsistent und so weiter.

Was auch immer das Designargument ist, das Ergebnis ist dasselbe – d geben muss im DW auf eine eindeutige und global akzeptable Weise gespeichert werden, selbst wenn zugrunde liegende Betriebssysteme i speichern geben.

Wenn der DSS-Analyst die DW betrachtet, sollte der Fokus des Analysten auf der Ausbeutung von liegen geben die im Lager sind,

anstatt sich über die Glaubwürdigkeit oder Konsistenz von zu wundern geben.

ZEITVARIANZ

Alle geben in der DW sind sie auf einen bestimmten Zeitpunkt genau. Dieses grundlegende Merkmal der geben in DW ist es ganz anders als geben in der Betriebsumgebung gefunden. DAS geben der Betriebsumgebung sind so genau wie zum Zeitpunkt des Zugriffs. Mit anderen Worten, in der Betriebsumgebung, wenn auf eine Einheit zugegriffen wird gebenEs wird erwartet, dass es die Werte so genau widerspiegelt wie zum Zeitpunkt des Zugriffs. Warum ich geben in der DW sind genau wie zu einem bestimmten Zeitpunkt (d.h. nicht "jetzt"), d.h geben gefunden in der DW sind "Zeitabweichung".
Die Zeitvarianz von geben Auf DW wird auf vielfältige Weise Bezug genommen.
Der einfachste Weg ist, dass ich geben eines DW darstellen geben über einen langen Zeithorizont – fünf bis zehn Jahre. Der dargestellte Zeithorizont für das Betriebsumfeld ist um bis zu XNUMX deutlich kürzer als die heutigen aktuellen Werte
Anwendungen, die gut funktionieren und für die Transaktionsverarbeitung verfügbar sein müssen, müssen die Mindestmenge an geben wenn sie ein gewisses Maß an Flexibilität zulassen. Betriebsanwendungen haben also einen kurzen Zeithorizont, wie z. B. ein Designthema für Audioanwendungen.
Die zweite Art, wie „Zeitvarianz“ in der DW erscheint, ist die Schlüsselstruktur. Jede Schlüsselstruktur im DW enthält implizit oder explizit ein Zeitelement wie Tag, Woche, Monat usw. Das Zeitelement befindet sich fast immer am Ende des verketteten Schlüssels, der im DW gefunden wird. Bei diesen Gelegenheiten ist das Zeitelement implizit vorhanden, beispielsweise wenn eine ganze Datei am Ende des Monats oder Quartals dupliziert wird.
Die dritte Art und Weise, wie die Zeitvarianz angezeigt wird, ist i geben des DW, gerade richtig registriert, kann nicht aktualisiert werden. DER geben der DW sind praktisch eine lange Reihe von Momentaufnahmen. Wenn der Schnappschuss falsch aufgenommen wurde, können die Schnappschüsse natürlich geändert werden. Aber vorausgesetzt, die Schnappschüsse werden korrekt aufgenommen, werden sie nicht sofort nach der Aufnahme geändert. In einigen

In einigen Fällen kann es unethisch oder sogar ungültig sein, dass die Snapshots in der DW geändert werden. DER geben Betriebsbereit, so genau wie zum Zeitpunkt des Zugriffs, kann bei Bedarf aktualisiert werden.

NICHT VOLATIL

Das vierte wichtige Merkmal von DW ist, dass es nicht flüchtig ist.
Aktualisierungen, Einfügungen, Löschungen und Änderungen werden regelmäßig Datensatz für Datensatz an den Betriebsumgebungen vorgenommen. Aber die grundlegende Manipulation der geben in der DW benötigt wird, ist viel einfacher. Es gibt nur zwei Arten von Operationen, die in der DW auftreten – das anfängliche Laden der geben und Zugang zu geben. Es gibt kein Update der geben (im allgemeinen Sinne der Fortschreibung) im DW als normaler Verarbeitungsvorgang. Dieser grundlegende Unterschied zwischen der Betriebsverarbeitung und der DW-Verarbeitung hat einige sehr starke Konsequenzen. Auf der Designebene ist die Notwendigkeit, bei Crash-Updates vorsichtig zu sein, kein Faktor in der DW, seit dem Update von geben es wird nicht durchgeführt. Das bedeutet, dass auf der physikalischen Ebene der Gestaltung Freiheiten genommen werden können, um den Zugang zu optimieren geben, insbesondere in der Auseinandersetzung mit den Themen Normalisierung und körperliche Denormalisierung. Eine weitere Folge der einfachen Bedienung von DW liegt in der zugrunde liegenden Technologie, die zum Ausführen der DW-Umgebung verwendet wird. Die Unterstützung von Datensatz-für-Datensatz-Online-Aktualisierungen (wie es häufig bei der betrieblichen Verarbeitung der Fall ist) erfordert, dass die Technologie neben einer scheinbaren Einfachheit eine sehr komplexe Grundlage hat.
Die Technologie, die Sicherung und Wiederherstellung, Transaktionen und Datenintegrität unterstützt geben und Deadlock-Erkennung und -Behebung ist ziemlich komplex und unnötig für die DW-Verarbeitung. Die Eigenschaften eines DW, Designorientierung, Integration von geben innerhalb der DW, Zeitvarianz und einfache Verwaltung von geben, das alles führt zu einer Umgebung, die sich sehr, sehr stark von der klassischen Betriebsumgebung unterscheidet. Die Quelle von fast allem geben von DW sind die Betriebsumgebung. Es ist verlockend zu glauben, dass es eine massive Redundanz von gibt geben zwischen den beiden Umgebungen.
In der Tat ist der erste Eindruck, den viele Menschen haben, der einer großen Redundanz geben zwischen der Betriebsumgebung und der

DW-Erweiterung. Eine solche Interpretation ist oberflächlich und zeugt von Unverständnis für das, was in der DW passiert.
In der Tat gibt es ein Minimum an Redundanz von geben zwischen der Betriebsumgebung und i geben der DW. Bedenken Sie Folgendes: I geben werden gefiltert dato dass Sie von der Betriebsumgebung in die DW-Umgebung wechseln. Viele geben Sie verlassen niemals die Betriebsumgebung. Nur dass ich geben die für die DSS-Verarbeitung benötigt werden, finden ihre Richtung in der Umgebung

▪ der Zeithorizont von geben es ist von einer Umgebung zur anderen sehr unterschiedlich. DER geben In der Betriebsumgebung sind sie sehr frisch. DAS geben bei der DW sind sie viel älter. Aus Sicht des Zeithorizonts gibt es nur sehr wenige Überschneidungen zwischen der Betriebsumgebung und der DW.

▪ Das DW enthält geben Zusammenfassung, die nie in der Umwelt sind

▪ Ich geben durchlaufen eine grundlegende Transformation, wenn sie zu Abbildung 3 übergehen, zeigt, dass die meisten geben werden erheblich modifiziert, sofern sie ausgewählt und in das DW verschoben werden. Anders gesagt, die meisten geben es wird physisch und radikal verändert, wenn es in das DW verschoben wird. Unter dem Gesichtspunkt der Integration sind sie nicht gleich geben sich in der Betriebsumgebung aufhalten. Angesichts dieser Faktoren ist die Redundanz von geben zwischen den beiden Umgebungen ist ein seltenes Ereignis, das zu weniger als 1 % Redundanz zwischen den beiden Umgebungen führt. DIE STRUKTUR DES LAGERS DWs haben eine eindeutige Struktur. Es gibt verschiedene Zusammenfassungs- und Detailebenen, die die DWs abgrenzen.
Die verschiedenen Komponenten eines DW sind:

  • Metadaten
  • Geben aktuelle Details
  • Geben von altem Detail
  • Geben leicht zusammengefasst
  • Geben hoch zusammengefasst

Bei weitem das Hauptanliegen ist für i geben aktuelle Angaben. Es ist das Hauptanliegen, weil:

  • I geben Aktuelle Details spiegeln die neuesten Ereignisse wider, die immer von großem Interesse sind und
  • i geben Aktuelle Detaildaten sind umfangreich, da sie auf der niedrigsten Granularitätsebene gespeichert werden und
  • i geben der aktuellen Details sind fast immer im Festplattenspeicher gespeichert, auf den schnell zugegriffen werden kann, aber teuer und komplex von I geben ältere Details sind geben die auf einigen Speicher von gespeichert sind Masse. Es wird sporadisch zugegriffen und in einem mit kompatiblen Detaillierungsgrad gespeichert geben aktuelle Angaben. Eine Speicherung auf einem alternativen Speichermedium ist aufgrund des großen Volumens zwar nicht zwingend erforderlich geben vereint mit dem sporadischen Zugriff der geben, das Speichermedium für geben Ältere Details werden normalerweise nicht auf der Festplatte gespeichert. DER geben leicht zusammengefasst sind geben die von der vorgefundenen geringen Detaillierung auf die aktuelle Detaillierung destilliert werden. Diese DW-Ebene wird fast immer im Plattenspeicher gespeichert. Die Probleme des Designs, die sich dem Architekten der geben Bei der Konstruktion dieser Ebene der DW sind:
  • Um welche Zeiteinheit handelt es sich bei der oben durchgeführten Zusammenfassung
  • Welche Inhalte, Attribute werden den Inhalt der leicht zusammenfassen geben Die nächste Stufe von geben in der DW gefunden ist die von geben hoch zusammengefasst. DER geben hoch zusammengefasst sind kompakt und leicht zugänglich. DER geben hoch zusammengefasst finden sich manchmal im DW-Umfeld und andere Fälle i geben hochgradig abstrahierte Daten befinden sich außerhalb der unmittelbaren Mauern der Technologie, die das DW hostet. (jedenfalls d.h geben hoch zusammengefasst sind Teil der DW egal wo i geben physisch untergebracht sind). Die letzte Komponente des DW ist die Metadatenkomponente. Metadaten befinden sich in vielerlei Hinsicht in einer anderen Dimension als andere geben des DW, da die Metadaten keine enthalten dato direkt aus der Betriebsumgebung übernommen. Metadaten haben eine besondere und sehr wichtige Rolle in DW. Metadaten werden verwendet als:
  • ein Verzeichnis, das dem DSS-Analysten hilft, den Inhalt der DW zu finden,
  • eine Anleitung zur Kartierung geben wie ich geben wurden von der Betriebsumgebung in die DW-Umgebung transformiert,
  • eine Anleitung zu den Algorithmen, die für die Zusammenfassung zwischen i geben aktuelle Details ei geben leicht zusammengefasst, ich geben Zusammenfassend spielen Metadaten in der DW-Umgebung eine viel größere Rolle als jemals zuvor in der Betriebsumgebung ALTES DETAIL LAGERMITTEL Magnetband kann verwendet werden, um diese Art von zu speichern geben. In der Tat gibt es eine Vielzahl von Speichermedien, die für die Aufbewahrung alter in Betracht gezogen werden sollten geben von Details. Je nach Volumen geben, Zugriffshäufigkeit, Toolkosten und Zugriffsart, ist es durchaus wahrscheinlich, dass andere Tools den alten Detaillierungsgrad im DW benötigen werden. DATENFLUSS Es gibt einen normalen und vorhersehbaren Fluss von Göttern geben innerhalb der DW.
    I geben sie gelangen aus der Betriebsumgebung in das DW. (HINWEIS: Es gibt einige sehr interessante Ausnahmen von dieser Regel. Fast alle geben Geben Sie den DW über die Betriebsumgebung ein. Datum dass die geben sie gelangen aus der Betriebsumgebung in das DW, es wird wie oben beschrieben transformiert. Vorausgesetzt man gibt die DW ein, d.h geben Geben Sie wie gezeigt die aktuelle Detailebene ein. Es befindet sich dort und wird verwendet, bis eines von drei Ereignissen eintritt:
  • wird gereinigt,
  • zusammengefasst ist und/oder ▪ ist Der obsolete Prozess innerhalb eines DW bewegt sich i geben aktuelle Angaben u geben von altem Detail, je nach Alter von geben. Der Prozess

Zusammenfassung verwendet das Detail von geben zu berechnen i geben leicht zusammengefasste und stark zusammengefasste Niveaus von geben. Es gibt einige Ausnahmen von dem gezeigten Fluss (werden später besprochen). In der Regel jedoch für die überwiegende Mehrheit der geben innerhalb eines DW gefunden, der Stream von geben ist wie abgebildet.

VERWENDUNG DES DATAWAREHOUSE

Es überrascht nicht, dass die verschiedenen Ebenen von geben innerhalb der DW erhalten sie keine unterschiedlichen Nutzungsstufen. Je höher die Verdichtungsebene, desto mehr i geben Sie sind gebraucht.
Viele Verwendungen kommen in vor geben hoch zusammengefasst, während die alten geben von Details werden fast nie verwendet. Es gibt gute Gründe, die Organisation auf das Paradigma der Ressourcennutzung umzustellen. Mehr zusammengefasst i geben, je schneller und effizienter es ist, zum geben. Wenn eine Geschäft feststellt, dass es viel Verarbeitung der DW auf Detailebene durchführt, dann wird eine entsprechend große Menge an Maschinenressourcen verbraucht. Es ist im besten Interesse aller, eine Zusammenfassung auf so hohem Niveau so schnell wie möglich zu bearbeiten.

Für viele Geschäfte wird der DSS-Analyst in einer Vorumgebung DW verwendet geben auf der Detailebene. In vielerlei Hinsicht ist die Ankunft a geben detailliert wirkt wie eine Sicherheitsdecke, auch wenn andere Verdichtungsebenen verfügbar sind. Eine der Tätigkeiten des Architekten von geben ist es, den DSS-Benutzer von der ständigen Verwendung von zu entwöhnen geben auf der niedrigsten Detailebene. Dem Architekten stehen zwei Motivationen zur Verfügung geben:

  • Installation eines Chargeback-Systems, bei dem der Endbenutzer für die verbrauchten Ressourcen bezahlt e
  • was darauf hindeutet, dass eine sehr gute Reaktionszeit erhalten werden kann, wenn das Verhalten mit i geben liegt auf einer hohen Zusammenfassungsebene, während die schlechte Reaktionszeit auf das Verhalten der zurückgeht geben auf einem niedrigen Niveau von Weitere Überlegungen Es gibt ein paar andere Überlegungen zum Aufbau und zur Verwaltung von DW.
    Die erste Überlegung betrifft Indizes. DAS geben auf höheren Verdichtungsebenen können sie frei indiziert werden, während i geben

auf niedrigeren Detailebenen sind sie so voluminös, dass sie sparsam indiziert werden können. Aus dem gleichen Grund, d.h geben bei hohen Detailgraden kann relativ einfach umstrukturiert werden, während das Volumen von geben auf den unteren Ebenen ist es so groß, dass ich geben Sie können nicht einfach renoviert werden. Folglich ist das Modell der geben und die formale Arbeit des Designs legt den Grundstein für DW, das fast ausschließlich auf den aktuellen Detaillierungsgrad angewendet wird. Mit anderen Worten, die Modellierungsaktivitäten der geben sie gelten in fast allen Fällen nicht für Zusammenfassungsebenen. Eine weitere strukturelle Überlegung ist die der Unterteilung von geben von DW.

Die Partitionierung kann auf zwei Ebenen erfolgen - auf der Ebene von dbms und auf Anwendungsebene. In der Division auf der Ebene dbms, dann dbms wird über die Sparten informiert und steuert diese entsprechend. Im Falle einer Unterteilung auf Anwendungsebene kennt nur der Programmierer die Unterteilungen und die Verantwortung für ihre Verwaltung wird ihm überlassen

Unterhalb des Levels dbms, wird viel Arbeit automatisch erledigt. Mit der Selbstverwaltung von Abteilungen ist viel Inflexibilität verbunden. Bei der bereichsübergreifenden Anwendung des geben des Restaurants Data Warehouse, fällt ein Großteil der Arbeit auf den Programmierer, aber das Endergebnis ist Flexibilität bei der Verwaltung der geben in Data Warehouse

ANDERE ANOMALIEN

Während die Komponenten des Data Warehouse funktionieren bei fast allen wie beschrieben geben, gibt es einige nützliche Ausnahmen, die diskutiert werden müssen. Eine Ausnahme ist die von geben öffentliche Zusammenfassungen (öffentliche Zusammenfassungsdaten). Diese sind geben Zusammenfassungen, die aus den berechnet wurden Data Warehouse aber sie werden von der Gesellschaft genutzt. DAS geben öffentliche Zusammenfassungen werden im . gespeichert und verwaltet Data Warehouse, obwohl sie, wie oben erwähnt, herausgefunden werden. Buchhalter arbeiten daran, solche vierteljährlich zu erstellen geben wie Einkommen, vierteljährliche Ausgaben, vierteljährlicher Gewinn usw. Die Arbeit der Buchhalter ist extern Data Warehouse. Wie auch immer, ich geben werden „intern“ im Unternehmen genutzt – von Marketing, Verkauf usw. Eine weitere Anomalie, auf die nicht näher eingegangen wird, ist die von geben extern.

Eine andere großartige Art von geben was zu finden ist in a Data Warehouse ist das der permanenten Detaildaten. Diese verursachen die Notwendigkeit, die dauerhaft zu speichern geben auf detaillierter Ebene aus ethischen oder rechtlichen Gründen. Wenn ein Unternehmen seine Mitarbeiter gefährlichen Stoffen aussetzt, ist dies erforderlich geben detailliert und dauerhaft. Wenn ein Unternehmen ein Produkt herstellt, das die öffentliche Sicherheit betrifft, z. B. Teile für ein Flugzeug, ist dies erforderlich geben dauerhafte Details, sowie wenn ein Unternehmen gefährliche Verträge eingeht.

Das Unternehmen kann es sich nicht leisten, die Details zu übersehen, denn in den nächsten Jahren, im Falle einer Klage, eines Rückrufs, eines strittigen Baumängels usw. Das Engagement des Unternehmens könnte groß sein. Als Ergebnis gibt es eine einzigartige Art von geben bekannt als permanente Detaildaten.

ZUSAMMENFASSUNG

Un Data Warehouse es ist eine objektorientierte, integrierte, angespannte Variante, eine Sammlung von geben nichtflüchtig zur Unterstützung der Entscheidungsbedürfnisse der Verwaltung. Jede der herausragenden Funktionen von a Data Warehouse hat seine Implikationen. Darüber hinaus gibt es vier Ebenen von geben des Restaurants Data Warehouse:

  • Alte Angaben
  • Aktuelle Details
  • Geben leicht zusammengefasst
  • Geben Hochverdichtete Metadaten sind ebenfalls ein wichtiger Bestandteil der Data Warehouse. ABSTRAKT Das Konzept der Lagerung von geben Es hat in letzter Zeit viel Aufmerksamkeit auf sich gezogen und ist zu einem Trend der 90er Jahre geworden Data Warehouse die Beschränkungen von Managementunterstützungssystemen wie Entscheidungsunterstützungssystemen (DSS) und Führungsinformationssystemen (EIS) zu überwinden. Obwohl das Konzept der Data Warehouse sieht vielversprechend aus, implementiere i Data Warehouse kann aufgrund umfangreicher Lagerhaltungsprozesse problematisch sein. Trotz der Komplexität von Lagerprojekten von geben, viele Lieferanten und Berater, die auf Lager haben geben argumentieren, dass die Speicherung von geben kein Problem darstellen. Zu Beginn dieses Forschungsprojekts wurde jedoch kaum eine unabhängige, gründliche und systematische Forschung durchgeführt. Folglich ist es schwierig zu sagen, was tatsächlich in der Industrie passiert, wenn sie gebaut werden Data Warehouse. Diese Studie untersuchte die Lagerpraxis von geben Zeitgenossen, die darauf abzielt, ein umfassenderes Verständnis der australischen Praxis zu entwickeln. Die Literaturrecherche lieferte den Kontext und die Grundlage für die empirische Studie. Es gibt eine Reihe von Ergebnissen dieser Forschung. Erstens deckte diese Studie die Aktivitäten auf, die während der Entwicklung von stattfanden Data Warehouse. In vielen Bereichen bin ich geben gesammelten bestätigten die in der Literatur beschriebene Praxis. Zweitens die Fragen und Probleme, die sich auf die Entwicklung der Data Warehouse wurden durch diese Studie identifiziert. Schließlich Vorteile, die von australischen Organisationen im Zusammenhang mit der Verwendung von gewonnen werden Data Warehouse wurden enthüllt.

Kapitel 1

Forschungskontext

Das Konzept des Data Warehousing wurde weit verbreitet und entwickelte sich in den 90er Jahren zu einem aufkommenden Trend (McFadden 1996, TDWI 1996, Shah und Milstein 1997, Shanks et al. 1997, Eckerson 1998, Adelman und Oates 2000). Dies lässt sich an der wachsenden Zahl von Artikeln über Data Warehousing in Fachzeitschriften ablesen (Little und Gibson 1999). Viele Artikel (siehe z. B. Fisher 1995, Hackathorn 1995, Morris 1995a, Bramblett und King 1996, Graham et al. 1996, Sakaguchi und Frolick 1996, Alvarez 1997, Brousell 1997, Clarke 1997, McCarthy 1997, O' Donnell 1997, Edwards 1998, TDWI 1999) berichteten von erheblichen Vorteilen für Organisationen, die implementieren Data Warehouse. Sie untermauerten ihre Theorie mit anekdotischen Beweisen für erfolgreiche Implementierungen, hohen Return on Investment (ROI)-Zahlen und auch durch die Bereitstellung von Richtlinien oder Methoden für die Entwicklung Data Warehouse

(Shanks et al. 1997, Seddon und Benjamin 1998, Little und Gibson 1999). Im Extremfall haben Graham et al. (1996) berichteten über eine durchschnittliche Rendite einer dreijährigen Investition von 401 %.

Ein Großteil der aktuellen Literatur hat jedoch die Komplexität übersehen, die mit der Durchführung solcher Projekte verbunden ist. Die Projekte von Data Warehouse sie sind in der Regel komplex und umfangreich und bergen daher eine hohe Ausfallwahrscheinlichkeit, wenn sie nicht sorgfältig kontrolliert werden (Shah und Milstein 1997, Eckerson 1997, Foley 1997b, Zimmer 1997, Bort 1998, Gibbs und Clymer 1998, Rao 1998). Sie erfordern enorme Mengen an personellen und finanziellen Ressourcen, Zeit und Mühe, um sie zu bauen (Hill 1998, Crofts 1998). Der typische zeitliche und finanzielle Aufwand beträgt etwa zwei Jahre bzw. zwei bis drei Millionen Dollar (Braly 1995, Foley 1997b, Bort 1998, Humphries et al. 1999). Diese Zeit und finanziellen Mittel werden benötigt, um viele verschiedene Aspekte des Data Warehousing zu kontrollieren und zu konsolidieren (Cafasso 1995, Hill 1998). Neben den Hardware- und Software-Überlegungen, andere Funktionen, die von der Extraktion abweichen geben zu den Ladevorgängen von geben, die Speicherkapazität zum Verwalten von Updates und die Meta geben Für die Benutzerschulung müssen sie berücksichtigt werden.

Zum Zeitpunkt des Beginns dieses Forschungsprojekts wurde insbesondere in Australien nur sehr wenig akademische Forschung im Bereich Data Warehousing betrieben. Dies zeigte sich aus dem Mangel an Artikeln, die in Zeitschriften oder anderen akademischen Schriften der damaligen Zeit über Data Warehousing veröffentlicht wurden. Viele der verfügbaren akademischen Schriften beschreiben die Erfahrungen in den USA. Der Mangel an akademischer Forschung im Bereich Data Warehousing hat eine Nachfrage nach strenger Forschung und empirischen Studien verursacht (McFadden 1996, Shanks et al. 1997, Little und Gibson 1999). Insbesondere Forschungsstudien zum Umsetzungsprozess von Data Warehouse getan werden müssen, um das allgemeine Wissen über die Implementierung von zu erweitern Data Warehouse und wird als Grundlage für eine zukünftige Forschungsstudie dienen (Shanks et al. 1997, Little und Gibson 1999).

Der Zweck dieser Studie ist es daher zu untersuchen, was tatsächlich passiert, wenn Unternehmen i Data Warehouse in Australien. Insbesondere wird diese Studie eine Analyse eines gesamten Prozesses der Entwicklung von a umfassen Data Warehouse, beginnend mit Initiierung und Design über Design und Implementierung bis hin zur anschließenden Nutzung in australischen Organisationen. Darüber hinaus wird die Studie auch zur aktuellen Praxis beitragen, indem Bereiche identifiziert werden, in denen die Praxis weiter verbessert und Ineffizienzen und Risiken minimiert oder vermieden werden können. Darüber hinaus soll es als Grundlage für weitere Studien dienen Data Warehouse in Australien und wird die Lücke füllen, die derzeit in der Literatur besteht.

Forschungsfragen

Das Ziel dieser Forschung ist es, die Aktivitäten zu untersuchen, die an der Umsetzung beteiligt sind Data Warehouse und ihre Verwendung durch australische Organisationen. Insbesondere werden Elemente zur Projektplanung, Entwicklung, zum Betrieb, zur Nutzung und zu den damit verbundenen Risiken untersucht. Die Frage dieser Untersuchung lautet also:

„Wie ist die derzeitige Praxis der Data Warehouse in Australien?"

Um diese Frage effektiv zu beantworten, sind eine Reihe von untergeordneten Forschungsfragen erforderlich. Aus der Literatur, die in Kapitel 2 vorgestellt wird, wurden insbesondere drei Unterfragen identifiziert, die dieses Forschungsprojekt leiten sollen: Wie sind die Data Warehouse von australischen Organisationen? Welche Probleme treten auf?

Welche Vorteile ergeben sich?
Zur Beantwortung dieser Fragen wurde ein exploratives Forschungsdesign mit einer Umfrage verwendet. Als explorative Studie sind die Antworten auf die obigen Fragen nicht vollständig (Shanks et al. 1993, Denscombe 1998). In diesem Fall ist eine gewisse Triangulation erforderlich, um die Antworten auf diese Fragen zu verbessern. Die Untersuchung wird jedoch eine solide Grundlage für zukünftige Arbeiten zur Untersuchung dieser Fragen bieten. Eine ausführliche Erörterung der Begründung und des Designs der Forschungsmethode findet sich in Kapitel 3.

Struktur des Forschungsprojekts

Dieses Forschungsprojekt gliedert sich in zwei Teile: die kontextuelle Untersuchung des Data-Warehousing-Konzepts und die empirische Forschung (siehe Abbildung 1.1), die jeweils im Folgenden diskutiert werden.

Teil I: Kontextstudie

Der erste Teil der Forschung bestand aus einer Durchsicht der aktuellen Literatur zu verschiedenen Arten von Data Warehousing, einschließlich Entscheidungsunterstützungssystemen (DSS), Führungsinformationssystemen (EIS), Fallstudien von Data Warehouse und die Konzepte von Data Warehouse. Auch die Ergebnisse der Foren auf Data Warehouse und Treffen von Experten und Praktikern, die von der Monash DSS-Forschungsgruppe geleitet wurden, trugen zu dieser Phase der Studie bei, die einen Einblick in die Praxis von geben sollte Data Warehouse und um die mit ihrer Annahme verbundenen Risiken zu identifizieren. Während dieser Zeit des Kontextstudiums wurde ein Verständnis des Problembereichs aufgebaut, um die Wissensbasis für nachfolgende empirische Untersuchungen bereitzustellen. Dies war jedoch ein fortlaufender Prozess, als die Forschungsstudie durchgeführt wurde.

Teil II: Empirische Forschung

Das relativ neue Konzept des Data Warehousing, insbesondere in Australien, hat die Notwendigkeit einer Umfrage geschaffen, um ein umfassendes Bild der Nutzungserfahrung zu erhalten. Dieser Teil wurde durchgeführt, nachdem die Problemdomäne durch eine umfassende Literaturrecherche festgelegt worden war. Das während der kontextuellen Studienphase erarbeitete Data-Warehousing-Konzept wurde als Input für den ersten Fragebogen dieser Studie verwendet. Anschließend wurde der Fragebogen gesichtet. Sie sind Experte für Data Warehouse an der Prüfung teilgenommen. Der Zweck des Testens des ersten Fragebogens bestand darin, die Vollständigkeit und Richtigkeit der Fragen zu überprüfen. Basierend auf den Testergebnissen wurde der Fragebogen modifiziert und die modifizierte Version an die Umfrageteilnehmer verschickt. Die zurückgesandten Fragebögen wurden anschließend auf i geben in Tabellen, Diagrammen und anderen Formaten. DAS

Analyseergebnisse von geben bilden eine Momentaufnahme der Data-Warehousing-Praxis in Australien.

ÜBERBLICK ÜBER DIE DATENLAGERUNG

Das Konzept des Data Warehousing hat sich mit Verbesserungen in der Computertechnologie weiterentwickelt.
Es zielt darauf ab, die Probleme zu überwinden, auf die Anwendungsunterstützungsgruppen wie Decision Support System (DSS) und Executive Information System (EIS) stoßen.

In der Vergangenheit war das größte Hindernis dieser Anwendungen die Unfähigkeit dieser Anwendungen, eine bereitzustellen Datenbank notwendig für die Analyse.
Dies liegt vor allem an der Art der Arbeit des Managements. Die Interessen der Unternehmensführung variieren je nach Aufgabengebiet ständig. Deshalb habe ich geben Diese Anwendungen müssen sich je nach zu behandelndem Teil schnell ändern können.
Dies bedeutet, dass ich geben müssen für die erforderlichen Analysen in geeigneter Form vorliegen. Tatsächlich war es für Anwendungsunterstützungsgruppen in der Vergangenheit sehr schwierig, diese zu sammeln und zu integrieren geben aus komplexen und vielfältigen Quellen.

Der Rest dieses Abschnitts gibt einen Überblick über das Konzept des Data Warehousing und erläutert, wie das Data Warehouse können die Probleme von Anwendungsunterstützungsgruppen überwinden.
Der Ausdruck "Data Warehousingwurde 1990 von William Inmon populär gemacht. Seine oft zitierte Definition sieht die Data Warehousing als Sammlung von geben subjektorientiert, integriert, nichtflüchtig und zeitlich variabel, zur Unterstützung von Managemententscheidungen.

Mit dieser Definition weist Inmon darauf hin, dass i geben wohnhaft in a Data Warehouse muss die folgenden 4 Eigenschaften besitzen:

  • ▪ Themenorientiert
  • ▪ Integriert
  • ▪ Nicht flüchtig
  • ▪ Zeitlich variabel Subjektorientiert bedeutet Inmon, dass i geben in Data Warehouse in den größten organisatorischen Bereichen, die gewesen sind

im Modell definiert geben. Zum Beispiel alle geben bezüglich i Kundschaft sind im Themenbereich enthalten KUNDEN. Ebenso alle geben zu den Produkten sind im Themenbereich PRODUKTE enthalten.

Mit Integrati bedeutet Inmon, dass i geben von verschiedenen Plattformen, Systemen und Standorten werden zusammengeführt und an einem Ort gespeichert. Folglich geben ähnliche müssen in konsistente Formate umgewandelt werden, um leicht hinzugefügt und verglichen werden zu können.
Beispielsweise werden männliches und weibliches Geschlecht in einem System durch die Buchstaben M und F und in einem anderen durch 1 und 0 dargestellt. Um sie richtig zu integrieren, müssen eines oder beide Formate so transformiert werden, dass die beiden Formate gleich sind. In diesem Fall könnten wir M auf 1 und F auf 0 ändern oder umgekehrt. Subjektorientiert und integriert weisen darauf hin, dass die Data Warehouse wurde entwickelt, um eine funktionale und transversale Vision von zu bieten geben von der Firma.

Nichtflüchtig bedeutet, dass i geben in Data Warehouse konsistent bleiben und aktualisieren geben es ist nicht erforderlich. Stattdessen jede Änderung in der geben Originale werden dem hinzugefügt Datenbank des Restaurants Data Warehouse. Dies bedeutet, dass der Historiker der geben ist in der enthalten Data Warehouse.

Für Variablen im Zeitverlauf gibt Inmon an, dass i geben in Data Warehouse enthalten immer Zeitmarken und i geben sie überschreiten normalerweise einen bestimmten Zeithorizont. Zum Beispiel ein
Data Warehouse kann 5 Jahre historische Werte der enthalten Kundschaft von 1993 bis 1997. Die Verfügbarkeit der historischen und einer Zeitreihe der geben ermöglicht es Ihnen, Trends zu analysieren.

Un Data Warehouse er kann seine eigenen sammeln geben aus OLTP-Systemen, aus Ursprüngen geben außerhalb der Organisation und/oder aus anderen speziellen Fangsystemprojekten geben.
I geben Extrakte können einen Reinigungsprozess durchlaufen, in diesem Fall i geben transformiert und integriert werden, bevor sie im gespeichert werden Datenbank des Restaurants Data Warehouse. Dann bin ich geben

wohnhaft in der Datenbank des Restaurants Data Warehouse werden Endbenutzeranmeldungen und Wiederherstellungstools zur Verfügung gestellt. Mit diesen Tools kann der Endbenutzer auf die integrierte Ansicht der Organisation des zugreifen geben.

I geben wohnhaft in der Datenbank des Restaurants Data Warehouse Sie werden sowohl im detaillierten als auch im zusammenfassenden Format gespeichert.
Die Ebene der Zusammenfassung kann von der Art der geben. Die geben detailliert kann bestehen aus geben aktuell und geben historisch
I geben real sind nicht im enthalten Data Warehouse bis ich geben in Data Warehouse sind aufgefrischt.
Neben der Speicherung von i geben selbst, a Data Warehouse es kann auch eine andere Art von speichern dato genannt METADATA, die i beschreiben geben wohnhaft in seinem Datenbank.
Es gibt zwei Arten von Metadaten: Entwicklungsmetadaten und Analysemetadaten.
Entwicklungsmetadaten werden verwendet, um die Prozesse des Extrahierens, Bereinigens, Mappings und Hochladens zu verwalten und zu automatisieren geben in Data Warehouse.
Die in den Entwicklungsmetadaten enthaltenen Informationen können Angaben zu Betriebssystemen, Angaben zu den zu extrahierenden Elementen, dem Modell enthalten geben des Restaurants Data Warehouse und Geschäftsregeln für die Konvertierung von Daten geben.

Die zweite Art von Metadaten, bekannt als Analysemetadaten, ermöglicht es dem Endbenutzer, den Inhalt der zu erkunden Data Warehouse die zu finden geben verfügbar und ihre Bedeutung in klaren, nicht-technischen Begriffen.

Somit fungieren die Analytics-Metadaten als Brücke zwischen den Data Warehouse und Endbenutzeranwendungen. Diese Metadaten können das Geschäftsmodell, Beschreibungen von enthalten geben entsprechend dem Geschäftsmodell, vordefinierte Abfragen und Reports, Informationen für den Benutzerzugang und den Index.

Analyse- und Entwicklungsmetadaten müssen zu einem integrierten Containment-Metadaten kombiniert werden, um ordnungsgemäß zu funktionieren.

Leider haben viele der vorhandenen Tools ihre eigenen Metadaten und derzeit gibt es keine bestehenden Standards dafür

Erlauben Sie Data-Warehousing-Tools, diese Metadaten zu integrieren. Um dieser Situation abzuhelfen, gründeten viele Anbieter führender Data-Warehousing-Tools den Meta Data Council, der später zur Meta Data Coalition wurde.

Das Ziel dieser Koalition ist es, einen Standard-Metadatensatz zu erstellen, der es verschiedenen Data-Warehousing-Tools ermöglicht, Metadaten zu konvertieren
Ihre Bemühungen führten zur Geburt der Meta Data Interchange Specification (MDIS), die den Austausch von Informationen zwischen Microsoft-Archiven und verwandten MDIS-Dateien ermöglichen wird.

Die Existenz von geben sowohl zusammengefasst/indiziert als auch detailliert, gibt es dem Benutzer die Möglichkeit, ein DRILL DROWN (Drilling) durchzuführen geben indiziert zu detaillierten und umgekehrt. Die Existenz von geben Eine detaillierte Historie ermöglicht die Erstellung von Trendanalysen über die Zeit. Außerdem können die Analyse-Metadaten als del-Verzeichnis verwendet werden Datenbank des Restaurants Data Warehouse um Endbenutzern zu helfen, i zu finden geben notwendig.

Im Vergleich zu OLTP-Systemen mit ihrer Fähigkeit, die Analyse von geben und Berichterstattung, die Data Warehouse es wird als geeigneteres System für Informationsprozesse wie das Stellen und Beantworten von Anfragen und das Erstellen von Berichten angesehen. Im nächsten Abschnitt werden die Unterschiede der beiden Systeme im Detail beleuchtet.

DATENLAGER GEGEN OLTP-SYSTEME

Viele der Informationssysteme in Organisationen sollen den täglichen Betrieb unterstützen. Diese als OLTP-SYSTEME bekannten Systeme erfassen tägliche Transaktionen, die kontinuierlich aktualisiert werden.

I geben innerhalb dieser Systeme werden sie oft modifiziert, hinzugefügt oder gelöscht. Beispielsweise ändert sich die Adresse eines Kunden, wenn er sich von Ort zu Ort bewegt. In diesem Fall wird die neue Adresse registriert, indem das Adressfeld geändert wird Datenbank. Das Hauptziel dieser Systeme ist es, Transaktionskosten zu senken und gleichzeitig die Bearbeitungszeiten zu verkürzen. Beispiele für OLTP-Systeme sind kritische Aktionen wie Auftragserfassung, Gehaltsabrechnung, Rechnungen, Fertigung, Kundendienst Kundschaft.

Im Gegensatz zu OLTP-Systemen, die für transaktions- und ereignisbasierte Prozesse geschaffen wurden, d Data Warehouse wurden geschaffen, um eine analysebasierte Prozessunterstützung bereitzustellen geben und auf Entscheidungsprozesse.

Dies wird normalerweise durch Integration von i erreicht geben aus verschiedenen OLTP- und externen Systemen in einem einzigen „Container“ von geben, wie im vorherigen Abschnitt besprochen.

Monash Data Warehousing-Prozessmodell

Das Vorgehensmodell für Data Warehouse Monash wurde von Forschern der Monash DSS Research Group entwickelt und basiert auf der Literatur von Data Warehouse, Erfahrung in den Bereichen Entwicklungsunterstützungssysteme, Gespräche mit Anwendungsanbietern zur Verwendung auf Data Warehouse, auf eine Gruppe von Experten in der Verwendung von Data Warehouse.

Die Phasen sind: Initiierung, Planung, Entwicklung, Betrieb und Erklärung. Das Diagramm erklärt die iterative oder evolutionäre Natur der Entwicklung von a Data Warehouse Prozess mithilfe von Zwei-Wege-Pfeilen, die zwischen den verschiedenen Phasen platziert sind. „Iterativ“ und „evolutionär“ bedeutet in diesem Zusammenhang, dass sich Implementierungsaktivitäten in jedem Schritt des Prozesses immer rückwärts auf die vorherige Phase ausbreiten können. Dies liegt an der Natur eines Projekts Data Warehouse in denen jederzeit zusätzliche Anfragen des Endbenutzers auftreten. Zum Beispiel während der Entwicklungsphase eines Prozesses Data WarehouseWenn der Endnutzer eine neue Motivgröße oder -fläche anfordert, die nicht Teil des ursprünglichen Plans war, muss sie dem System hinzugefügt werden. Dies bewirkt eine Änderung im Projekt. Die Folge ist, dass das Designteam die Anforderungen der bisher erstellten Dokumente während der Designphase ändern muss. In vielen Fällen muss der aktuelle Stand des Projekts bis in die Designphase zurückreichen, wo die neue Anforderung hinzugefügt und dokumentiert werden muss. Der Endbenutzer muss in der Lage sein, die überprüfte spezifische Dokumentation und die Änderungen, die in der Entwicklungsphase vorgenommen wurden, einzusehen. Am Ende dieses Entwicklungszyklus muss das Projekt sowohl vom Entwicklungs- als auch vom Benutzerteam gutes Feedback erhalten. Das Feedback wird dann wiederverwendet, um ein zukünftiges Projekt zu verbessern.

Kapazitätsplanung
dw sind in der Regel sehr groß und wachsen aufgrund der Menge sehr schnell (Best 1995, Rudin 1997a). geben historische, die sie von ihrer Dauer bewahren. Wachstum kann auch durch verursacht werden geben Add-Ons, die von Benutzern angefordert werden, um den Wert von zu erhöhen geben die sie schon haben. Folglich sind die Speicheranforderungen für geben deutlich verbessert werden (Eckerson 1997). Daher muss durch eine Kapazitätsplanung sichergestellt werden, dass das zu bauende System mit wachsendem Bedarf wachsen kann (Best 1995, LaPlante 1996, Lang 1997, Eckerson 1997, Rudin 1997a, Foley 1997a).
Bei der Planung der Skalierbarkeit von Data Warehouses muss man das erwartete Wachstum der Warehouse-Größe, die wahrscheinlich gestellten Fragetypen und die Anzahl der unterstützten Endbenutzer kennen (Best 1995, Rudin 1997b, Foley 1997a). Das Erstellen skalierbarer Anwendungen erfordert eine Kombination aus skalierbaren Servertechnologien und skalierbaren Anwendungsdesigntechniken (Best 1995, Rudin 1997b. Beide sind erforderlich, um eine hochgradig skalierbare Anwendung zu erstellen. Skalierbare Servertechnologien können es einfach und kostengünstig machen, Speicher, Arbeitsspeicher und CPU hinzuzufügen, ohne erniedrigende Leistung (Lang 1997, Telefonie 1997).

Es gibt zwei Haupttechnologien für skalierbare Server: Symmetric Multiple Processing (SMP) und Massively Parallel Processing (MPP) (IDC 1997, Humphries et al. 1999). Ein SMP-Server hat typischerweise mehrere Prozessoren, die Speicher, Systembusse und andere Ressourcen gemeinsam nutzen (IDC 1997, Humphries et al. 1999). Zusätzliche Prozessoren können hinzugefügt werden, um die Leistung zu steigern Kraft rechnerisch. Eine andere Methode zur Erhöhung der Kraft Berechnung des SMP-Servers, besteht darin, mehrere SMP-Maschinen zu kombinieren. Diese Technik ist als Clustering bekannt (Humphries et al. 1999). Ein MPP-Server hingegen hat mehrere Prozessoren mit jeweils eigenem Speicher, Bussystem und anderen Ressourcen (IDC 1997, Humphries et al. 1999). Jeder Prozessor wird als Knoten bezeichnet. Eine Erhöhung der Kraft rechnerisch erreicht werden kann

Hinzufügen zusätzlicher Knoten zu MPP-Servern (Humphries et al. 1999).

Eine Schwäche von SMP-Servern besteht darin, dass zu viele Input-Output (I/O)-Operationen das Bussystem überlasten können (IDC 1997). Bei MPP-Servern tritt dieses Problem nicht auf, da jeder Prozessor über ein eigenes Bussystem verfügt. Die Verbindungen zwischen jedem Knoten sind jedoch im Allgemeinen viel langsamer als das SMP-Bussystem. Darüber hinaus können MPP-Server Anwendungsentwicklern eine zusätzliche Ebene der Komplexität hinzufügen (IDC 1997). Daher kann die Wahl zwischen SMP- und MPP-Servern von vielen Faktoren beeinflusst werden, darunter die Komplexität der Anwendungen, das Preis-Leistungs-Verhältnis, der erforderliche Durchsatz, die verhinderten dw-Anwendungen und die Zunahme der Größe des Datenbank von dw und in der Anzahl der Endbenutzer.

Bei der Kapazitätsplanung kann eine Reihe skalierbarer Anwendungsdesigntechniken eingesetzt werden. Man verwendet verschiedene Berichtszeiträume wie Tage, Wochen, Monate und Jahre. Mit unterschiedlichen Benachrichtigungsfristen, die Datenbank lassen sich in überschaubare Gruppierungen zerlegen (Inmon et al. 1997). Eine andere Technik besteht darin, Zusammenfassungstabellen zu verwenden, die durch Zusammenfassen konstruiert werden geben da geben detailliert. Also, ich geben Zusammenfassungen sind kompakter als detailliert, was weniger Speicherplatz benötigt. Also die geben Details können auf einer kostengünstigeren Speichereinheit archiviert werden, was noch mehr Speicherplatz spart. Die Verwendung von Übersichtstabellen kann zwar Speicherplatz sparen, sie erfordern jedoch viel Aufwand, um sie auf dem neuesten Stand zu halten und den Geschäftsanforderungen anzupassen. Diese Technik ist jedoch weit verbreitet und wird oft in Verbindung mit der vorherigen Technik verwendet (Best 1995, Inmon 1996a, Chauduri und Dayal
1997).

Definieren Data Warehousing Technische Architekturen Definition von dw-Architekturtechniken

Frühe Anwender von Data Warehousing stellten sich in erster Linie eine zentralisierte Data Warehouse-Implementierung vor, in der alle vorhanden sind geben, darunter i geben extern, wurden in eine einzige integriert,
physisches Endlager (Inmon 1996a, Bresnahan 1996, Peacock 1998).

Der Hauptvorteil dieses Ansatzes besteht darin, dass Endbenutzer auf die unternehmensweite Ansicht der zugreifen können geben organisatorisch (Ovum 1998). Ein weiterer Pluspunkt ist die Standardisierung von geben in der gesamten Organisation, was bedeutet, dass es nur eine Version oder Definition für jede Terminologie gibt, die in den Repository-Metadaten verwendet wird (Flanagan und Safdie 1997, Ovum 1998). Der Nachteil dieses Ansatzes ist andererseits, dass er teuer und schwierig zu konstruieren ist (Flanagan und Safdie 1997, Ovum 1998, Inmon et al. 1998). Nicht lange nach der Speicherarchitektur geben zentralisiert populär wurde, entwickelte sich das Konzept, die kleinsten Teilmengen von Göttern zu minen geben um die Bedürfnisse spezifischer Anwendungen zu unterstützen (Varney 1996, IDC 1997, Berson und Smith 1997, Peacock 1998). Diese kleinen Systeme sind von den größeren abgeleitet Data Warehouse zentralisiert. Sie werden benannt Data Warehouse Mitarbeiterabteilung oder Mitarbeiter Data Marts. Die abhängige Data Mart-Architektur wird als dreischichtige Architektur bezeichnet, bei der die erste Schicht aus der Data Warehouse zentralisiert, die zweite besteht aus den Einlagen von geben Abteilung und die dritte besteht aus Zugang zu geben und durch Analysewerkzeuge (Demarest 1994, Inmon et al. 1997).

Data Marts werden normalerweise nach dem Data Warehouse zentralisiert wurde entwickelt, um die Bedürfnisse bestimmter Einheiten zu erfüllen (White 1995, Varney 1996).
Data Marts speichern i geben Einheiten relevant (Inmon et al. 1997, Inmon et al. 1998, IA 1998).

Der Vorteil dieser Methode ist, dass es keine gibt dato nicht integriert und dass i geben wird innerhalb von Data Marts weniger redundant sein, da all dies der Fall ist geben kommen von einer Kaution von geben integriert. Ein weiterer Vorteil besteht darin, dass es weniger Verbindungen zwischen jedem Data Mart und seinen Quellen geben wird geben weil jeder Data Mart nur eine Quelle hat geben. Außerdem können Endbenutzer mit dieser Architektur weiterhin auf die zugreifen geben

Unternehmensorganisationen. Diese Methode ist als Top-Down-Methode bekannt, bei der Data Marts nach dem erstellt werden Data Warehouse (Pfau 1998, Goff 1998).
Um die Notwendigkeit zu erhöhen, Ergebnisse frühzeitig zu zeigen, haben einige Organisationen damit begonnen, unabhängige Data Marts aufzubauen (Flanagan und Safdie 1997, White 2000). In diesem Fall bekommen die Data Marts ihre geben direkt aus den Grundlagen von geben OLTP und Nicht-OLTP aus dem zentralisierten und integrierten Repository, wodurch die Notwendigkeit eines zentralen Repositorys entfällt.

Jeder Data Mart benötigt mindestens einen Link zu seinen Quellen geben. Ein Nachteil mehrerer Verbindungen zu jedem Data Mart besteht darin, dass im Vergleich zu den beiden vorherigen Architekturen die Überfülle an geben steigt deutlich an.

Jeder Datamart muss alle speichern geben lokal erforderlich, um keine Auswirkungen auf OLTP-Systeme zu haben. Dies bewirkt i geben sie werden in verschiedenen Data Marts gespeichert (Inmon et al. 1997). Ein weiterer Nachteil dieser Architektur besteht darin, dass sie zur Schaffung komplexer Verbindungen zwischen Data Marts und ihren Datenquellen führt. geben die schwer umzusetzen und zu kontrollieren sind (Inmon et al. 1997).

Ein weiterer Nachteil besteht darin, dass Endbenutzer möglicherweise nicht auf die Unternehmensinformationsübersicht zugreifen können, weil i geben der verschiedenen Data Marts sind nicht integriert (Ovum 1998).
Ein weiterer Nachteil besteht darin, dass es möglicherweise mehr als eine Definition für jede in Data Marts verwendete Terminologie gibt, die Dateninkonsistenzen erzeugt. geben in der Organisation (Ovum 1998).
Trotz der oben diskutierten Nachteile ziehen eigenständige Data Marts immer noch das Interesse vieler Organisationen auf sich (IDC 1997). Ein Faktor, der sie attraktiv macht, ist, dass sie sich schneller entwickeln und weniger Zeit und Ressourcen erfordern (Bresnahan 1996, Berson und Smith 1997, Ovum 1998). Folglich dienen sie in erster Linie als Testdesigns, mit denen sich Vorteile und/oder Mängel des Designs schnell identifizieren lassen (Parsaye 1995, Braly 1995, Newing 1996). In diesem Fall muss der im Pilotprojekt zu implementierende Teil klein, aber für die Organisation wichtig sein (Newing 1996, Mansell-Lewis 1996).

Durch die Untersuchung des Prototyps können Endbenutzer und Management entscheiden, ob sie das Projekt fortsetzen oder beenden (Flanagan und Safdie 1997).
Wenn die Entscheidung weitergehen soll, sollten nach und nach Data Marts für andere Branchen aufgebaut werden. Es gibt zwei Optionen für Endbenutzer basierend auf ihren Bedürfnissen beim Erstellen unabhängiger Datenmatrizen: integriert/föderiert und nicht integriert (Ovum 1998)

Bei der ersten Methode sollte jeder neue Data Mart basierend auf den aktuellen Data Marts und dem aktuellen Modell erstellt werden geben von der Firma verwendet (Varney 1996, Berson und Smith 1997, Peacock 1998). Die Notwendigkeit, das Modell zu verwenden geben des Unternehmens bedeutet, dass sichergestellt werden muss, dass es nur eine Definition für jede in Data Marts verwendete Terminologie gibt, auch um sicherzustellen, dass verschiedene Data Marts zusammengeführt werden können, um einen Überblick über Unternehmensinformationen zu geben (Bresnahan 1996). Diese Methode wird als Bottom-up-Methode bezeichnet und kommt am besten zum Einsatz, wenn die finanziellen Mittel und die Zeit begrenzt sind (Flanagan und Safdie 1997, Ovum 1998, Peacock 1998, Goff 1998). Bei der zweiten Methode können die gebauten Data Marts nur die Anforderungen einer bestimmten Einheit erfüllen. Eine Variante des föderierten Data Mart ist der Data Warehouse verteilt, in denen die Datenbank Hub-Server-Middleware wird verwendet, um viele Data Marts in einem einzigen Repository zusammenzuführen geben verteilt (White 1995). In diesem Fall, ich geben Geschäft sind auf mehrere Data Marts verteilt. Endbenutzeranfragen werden weitergeleitet an Datenbank Server Hub Middleware, die alle extrahiert geben von Data Marts angefordert und die Ergebnisse an Endbenutzeranwendungen zurückgeleitet. Diese Methode stellt Endbenutzern Geschäftsinformationen zur Verfügung. Damit sind die Probleme unabhängiger Data Marts aber noch nicht beseitigt. Es gibt eine andere Architektur, die verwendet werden kann, nämlich die Data Warehouse virtuell (White 1995). Diese in Abbildung 2.9 dargestellte Architektur ist jedoch keine Datenspeicherarchitektur geben real, da es die Last von OLTP-Systemen nicht zu verlagert Data Warehouse (Demarest 1994).

In der Tat sind die Anfragen nach geben von Endbenutzern werden sie an OLTP-Systeme weitergegeben, die nach der Verarbeitung von Benutzeranfragen Ergebnisse zurückgeben. Während diese Architektur es Endbenutzern ermöglicht, Berichte zu erstellen und Anfragen zu stellen, kann sie i

geben Geschichte und Überblick über Unternehmensinformationen seit i geben da die verschiedenen OLTP-Systeme nicht integriert sind. Daher kann diese Architektur die Analyse von nicht erfüllen geben wie Vorhersagen.

Auswahl von Zugriffs- und Datenwiederherstellungsanwendungen geben

Der Zweck des Gebäudes a Data Warehouse ist die Weitergabe von Informationen an Endnutzer (Inmon et al. 1997, Poe 1996, McFadden 1996, Shanks et al. 1997, Hammergren 1998); eine oder mehrere Zugriffs- und Wiederherstellungsanwendungen geben muss zur Verfügung gestellt werden. Bis heute steht dem Benutzer eine Vielzahl solcher Anwendungen zur Auswahl (Hammergren 1998, Humphries et al. 1999). Die ausgewählten Anwendungen entscheiden über den Erfolg der Lagerhaltung geben in einer Organisation, da die Anwendungen der sichtbarste Teil der sind Data Warehouse an den Endverbraucher (Inmon et al. 1997, Poe 1996). Erfolgreich sein u Data Warehouse, muss in der Lage sein, Datenanalyseaktivitäten zu unterstützen geben des Endverbrauchers (Poe 1996, Seddon und Benjamin 1998, Eckerson 1999). Daher muss das „Niveau“ dessen, was der Endverbraucher will, identifiziert werden (Poe 1996, Mattison 1996, Inmon et al. 1997, Humphries et al. 1999).

Im Allgemeinen können Endnutzer in drei Kategorien eingeteilt werden: Executive User, Business Analysts und Power User (Poe 1996, Humphries et al. 1999). Leitende Benutzer benötigen einen einfachen Zugriff auf vordefinierte Berichtssätze (Humphries et al. 1999). Auf diese Berichte kann einfach über die Menünavigation zugegriffen werden (Poe 1996). Darüber hinaus sollten Berichte Informationen mithilfe von grafischen Darstellungen wie Tabellen und Vorlagen präsentieren, um die Informationen schnell zu vermitteln (Humphries et al. 1999). Business-Analysten, die möglicherweise nicht über die technischen Fähigkeiten verfügen, Berichte von Grund auf selbst zu entwickeln, müssen in der Lage sein, aktuelle Berichte an ihre spezifischen Anforderungen anzupassen (Poe 1996, Humphries et al. 1999). Power User hingegen sind die Art von Endbenutzern, die die Möglichkeit haben, Anfragen und Berichte von Grund auf neu zu erstellen und zu schreiben (Poe 1996, Humphries et al. 1999). Sie sind diejenigen, die

sie bauen Beziehungen zu anderen Benutzertypen auf (Poe 1996, Humphries et al. 1999).

Nachdem die Endbenutzeranforderungen ermittelt wurden, muss eine Auswahl an Zugriffs- und Wiederherstellungsanwendungen getroffen werden geben unter allen verfügbaren (Poe 1996, Inmon et al. 1997).
Zugang zu geben und Retrieval-Tools können in 4 Typen eingeteilt werden: OLAP-Tool, EIS/DSS-Tool, Abfrage- und Berichtstool und Data-Mining-Tool.

Mit OLAP-Tools können Benutzer sowohl Ad-hoc-Abfragen als auch solche erstellen, die auf dem erstellt werden Datenbank des Restaurants Data Warehouse. Darüber hinaus ermöglichen diese Produkte den Benutzern einen Drilldown geben allgemein bis detailliert.

EIS/DSS-Tools bieten Executive Reporting wie „Was-wäre-wenn“-Analysen und Zugriff auf menügesteuerte Berichte. Berichte sollten vordefiniert und zur einfacheren Navigation mit Menüs zusammengeführt werden.
Abfrage- und Berichtstools ermöglichen es Benutzern, vordefinierte und spezifische Berichte zu erstellen.

Data-Mining-Tools werden verwendet, um Beziehungen zu identifizieren, die neues Licht auf vergessene Vorgänge werfen könnten geben des Datawarehouse.

Neben der Optimierung der Anforderungen jedes Benutzertyps müssen die ausgewählten Tools intuitiv, effizient und einfach zu bedienen sein. Sie müssen auch mit anderen Teilen der Architektur kompatibel sein und mit bestehenden Systemen arbeiten können. Es wird auch empfohlen, Datenzugriffs- und Abruftools mit angemessenem Preis und Leistung zu wählen. Weitere zu berücksichtigende Kriterien sind die Verpflichtung des Tool-Anbieters, sein Produkt zu unterstützen, und die Entwicklungen, die es in zukünftigen Versionen haben wird. Um sicherzustellen, dass sich die Benutzer an der Nutzung des Data Warehouse beteiligen, bezieht das Entwicklungsteam die Benutzer in den Werkzeugauswahlprozess ein. In diesem Fall sollte eine praktische Bewertung des Benutzers durchgeführt werden.

Um den Wert des Data Warehouse zu steigern, kann das Entwicklungsteam auch Webzugriff auf seine Data Warehouses bereitstellen. Ein webfähiges Data Warehouse ermöglicht Benutzern den Zugriff auf die geben von abgelegenen Orten oder auf Reisen. Auch die Informationen können

durch geringere Schulungskosten zu geringeren Kosten bereitgestellt werden.

2.4.3 Data Warehousing Betriebsphase

Diese Phase besteht aus drei Aktivitäten: Definition von Datenaktualisierungsstrategien, Kontrolle der Data-Warehouse-Aktivitäten und Management der Data-Warehouse-Sicherheit.

Definition von Datenaktualisierungsstrategien

Nach dem ersten Upload, ich geben in Datenbank des Data Warehouse muss regelmäßig aktualisiert werden, um die vorgenommenen Änderungen zu reproduzieren geben Originale. Sie müssen also entscheiden, wann Sie aktualisieren möchten, wie oft die Aktualisierung geplant werden soll und wie die Aktualisierung erfolgen soll geben. Es wird empfohlen, die zu aktualisieren geben wenn das System offline geschaltet werden kann. Die Aktualisierungsrate wird vom Entwicklungsteam basierend auf den Benutzeranforderungen festgelegt. Es gibt zwei Ansätze zum Aktualisieren des Data Warehouse: vollständige Aktualisierung und kontinuierliches Hochladen von Änderungen.

Der erste Ansatz, vollständige Aktualisierung, erfordert das Neuladen aller geben von Grund auf neu. Das bedeutet, dass alle geben müssen extrahiert, gereinigt, transformiert und in jede Aktualisierung integriert werden. Dieser Ansatz sollte nach Möglichkeit vermieden werden, da er zeit- und ressourcenintensiv ist.

Ein alternativer Ansatz besteht darin, Änderungen kontinuierlich hochzuladen. Dies fügt i hinzu geben die sich seit dem letzten Aktualisierungszyklus des Data Warehouse geändert haben. Das Identifizieren neuer oder geänderter Datensätze reduziert die Menge an geben die bei jedem Update als nur diese an das Data Warehouse weitergegeben werden müssen geben wird dem hinzugefügt Datenbank des Datawarehouse.

Es gibt mindestens 5 Ansätze, die verwendet werden können, um mich zurückzuziehen geben neu oder geändert. Um eine effiziente Videoaktualisierungsstrategie zu erreichen geben Eine Mischung dieser Ansätze, die alle Änderungen im System abrufen, kann nützlich sein.

Der erste Ansatz, der Zeitstempel verwendet, geht davon aus, dass jeder zugewiesen ist geben einen Zeitstempel bearbeitet und aktualisiert, damit Sie alle leicht identifizieren können geben modifiziert und neu. Dieser Ansatz ist jedoch in den meisten Betriebssystemen heute nicht weit verbreitet.
Der zweite Ansatz besteht darin, eine von der Anwendung generierte Deltadatei zu verwenden, die nur die Änderungen enthält, die an der vorgenommen wurden geben. Die Verwendung dieser Datei verlängert auch den Aktualisierungszyklus. Jedoch wurde auch dieses Verfahren nicht in vielen Anwendungen verwendet.
Der dritte Ansatz besteht darin, eine Protokolldatei zu scannen, die im Wesentlichen ähnliche Informationen wie die Deltadatei enthält. Der einzige Unterschied besteht darin, dass für den Wiederherstellungsprozess eine Protokolldatei erstellt wird, die schwer verständlich sein kann.
Der vierte Ansatz besteht darin, den Anwendungscode zu ändern. Der meiste Anwendungscode ist jedoch alt und spröde; daher sollte diese Technik vermieden werden.
Der letzte Ansatz ist der Vergleich der geben Quellen mit der Hauptdatei dei geben.

Kontrolle der Data Warehouse-Aktivitäten

Sobald das Data Warehouse für Benutzer freigegeben wurde, muss es im Laufe der Zeit überwacht werden. In diesem Fall kann der Data-Warehouse-Administrator ein oder mehrere Management- und Kontroll-Tools einsetzen, um die Nutzung des Data-Warehouse zu überwachen. Insbesondere können Informationen über Personen und deren Zugriffszeit auf das Data Warehouse erhoben werden. Aufleuchten geben gesammelt, kann ein Profil der geleisteten Arbeit erstellt werden, das als Eingabe in die Chargeback-Implementierung des Benutzers verwendet werden kann. Mit Chargeback können Benutzer über die Verarbeitungskosten des Data Warehouse informiert werden.

Darüber hinaus kann Data Warehouse Auditing auch verwendet werden, um Abfragetypen, ihre Größe, Anzahl der Abfragen pro Tag, Abfragereaktionszeiten, erreichte Sektoren und Umfang zu identifizieren geben verarbeitet. Ein weiterer Zweck der Data-Warehouse-Prüfung besteht darin, die geben die nicht in Gebrauch sind. Diese geben Sie können aus dem Data Warehouse entfernt werden, um die Zeit zu verkürzen

Antwort auf die Abfrageausführung und Steuerung des Wachstums von geben die sich innerhalb der befinden Datenbank des Datawarehouse.

Data Warehouse-Sicherheitsmanagement

Ein Data Warehouse enthält geben integriert, kritisch, sensibel, leicht erreichbar. Aus diesem Grund sollte es vor unbefugten Benutzern geschützt werden. Eine Möglichkeit, Sicherheit zu implementieren, ist die Verwendung der del-Funktion DBMS um verschiedenen Benutzertypen unterschiedliche Berechtigungen zuzuweisen. Auf diese Weise muss für jeden Benutzertyp ein Zugangsprofil gepflegt werden. Eine andere Möglichkeit, das Data Warehouse zu sichern, besteht darin, es wie im beschrieben zu verschlüsseln Datenbank des Datawarehouse. Zugriff auf geben und die Abrufwerkzeuge müssen das entschlüsseln geben bevor die Ergebnisse den Benutzern präsentiert werden.

2.4.4 Data Warehousing Bereitstellungsphase

Es ist die letzte Phase im Data-Warehouse-Implementierungszyklus. Zu den in dieser Phase durchzuführenden Aktivitäten gehören die Schulung der Benutzer in der Verwendung des Data Warehouse und die Durchführung von Überprüfungen des Data Warehouse.

Benutzerschulung

Vor dem Zugriff sollte eine Benutzerschulung durchgeführt werden geben des Data Warehouse und die Verwendung von Retrieval-Tools. Im Allgemeinen sollten Sitzungen mit einer Einführung in das Konzept der Speicherung beginnen geben, der Inhalt des Data Warehouse, die Meta geben und die Grundfunktionen der Tools. Dann könnten fortgeschrittenere Benutzer auch die physischen Tabellen und Funktionen von Benutzern von Datenzugriffs- und Abrufwerkzeugen studieren.

Es gibt viele Ansätze, um Benutzerschulungen durchzuführen. Eines davon beinhaltet eine Auswahl vieler Benutzer oder Analysten, die aus einem Pool von Benutzern ausgewählt werden, basierend auf ihren Führungs- und Kommunikationsfähigkeiten. Diese werden persönlich in allem geschult, was sie wissen müssen, um sich mit dem System vertraut zu machen. Nach der Schulung kehren sie an ihre Arbeitsplätze zurück und beginnen, anderen Benutzern beizubringen, wie sie das System verwenden. Auf der

Basierend auf dem, was sie gelernt haben, können andere Benutzer damit beginnen, das Data Warehouse zu erkunden.
Ein anderer Ansatz besteht darin, viele Benutzer gleichzeitig zu schulen, als würden Sie in einem Klassenzimmer schulen. Diese Methode eignet sich, wenn viele Benutzer gleichzeitig geschult werden müssen. Noch eine andere Methode besteht darin, jeden Benutzer einzeln zu schulen, einen nach dem anderen. Diese Methode ist geeignet, wenn nur wenige Benutzer vorhanden sind.

Zweck der Benutzerschulung ist es, sich mit dem Zugriff vertraut zu machen geben und Retrieval-Tools sowie Data-Warehouse-Inhalte. Einige Benutzer sind jedoch möglicherweise von der Menge an Informationen überwältigt, die während der Schulungssitzung bereitgestellt werden. Dann müssen einige Auffrischungssitzungen für die laufende Unterstützung und die Beantwortung spezifischer Fragen durchgeführt werden. In einigen Fällen wird eine Benutzergruppe gebildet, um diese Art von Unterstützung bereitzustellen.

Feedback einholen

Nach dem Rollout des Data Warehouse können Anwender i geben die sich für verschiedene Zwecke im Data Warehouse befinden. Meistens verwenden Analysten oder Benutzer i geben im Datawarehouse für:

  1. 1 Identifizieren Sie Unternehmenstrends
  2. 2 Analysieren Sie die Einkaufsprofile von Kundschaft
  3. 3 Teilen i Kundschaft und
  4. 4 Bieten Sie die besten Dienstleistungen an Kundschaft - Dienste anpassen
  5. 5 Formulieren Sie Strategien Marketing
  6. 6 Erstellen Sie wettbewerbsfähige Angebote für Kostenanalysen und helfen Sie bei der Kontrolle
  7. 7 Strategische Entscheidungsfindung unterstützen
  8. 8 Identifizieren Sie Gelegenheiten, die sich ergeben
  9. 9 Verbesserung der Qualität aktueller Geschäftsprozesse
  10. 10 Überprüfen Sie den Gewinn

Gemäß der Entwicklungsrichtung des Data Warehouse könnte eine Reihe von Überprüfungen des Systems durchgeführt werden, um Feedback zu erhalten

sowohl vom Entwicklungsteam als auch von der Endbenutzer-Community.
Die erzielten Ergebnisse können für den nächsten Entwicklungszyklus berücksichtigt werden.

Da das Data Warehouse einen inkrementellen Ansatz verfolgt, ist es unerlässlich, aus den Erfolgen und Fehlern bisheriger Entwicklungen zu lernen.

2.5 Zusammenfassung

In diesem Kapitel wurden die in der Literatur vorhandenen Ansätze diskutiert. In Abschnitt 1 wurde das Konzept des Data Warehouse und seine Rolle in der Entscheidungswissenschaft diskutiert. In Abschnitt 2 wurden die Hauptunterschiede zwischen Data Warehouses und OLTP-Systemen beschrieben. In Abschnitt 3 wurde das Data Warehouse-Modell von Monash erörtert, das in Abschnitt 4 verwendet wurde, um die Aktivitäten zu beschreiben, die mit dem Prozess der Entwicklung eines Data Warehouse verbunden sind. Diese Behauptungen basierten nicht auf gründlicher Forschung. Was in der Realität passiert, kann sich sehr von dem unterscheiden, was die Literatur berichtet, aber diese Ergebnisse können verwendet werden, um ein Grundgepäck zu schaffen, das das Konzept des Data Warehouse für diese Forschung unterstreicht.

Kapitel 3

Forschungs- und Entwurfsmethoden

Dieses Kapitel befasst sich mit den Forschungs- und Designmethoden für diese Studie. Der erste Teil zeigt einen allgemeinen Überblick über die für die Informationsbeschaffung verfügbaren Forschungsmethoden, außerdem werden die Kriterien für die Auswahl der besten Methode für eine bestimmte Studie diskutiert. In Abschnitt 2 werden dann zwei anhand der obigen Kriterien ausgewählte Methoden diskutiert; Eines davon wird aus den in Abschnitt 3 genannten Gründen ausgewählt und angenommen, wo auch die Gründe für den Ausschluss des anderen Kriteriums aufgeführt sind. Abschnitt 4 stellt das Forschungsprojekt und Abschnitt 5 die Schlussfolgerungen vor.

3.1 Forschung in Informationssystemen

Die Wirtschaftsinformatikforschung beschränkt sich nicht nur auf den technologischen Bereich, sondern muss auch auf Verhaltens- und Organisationsziele ausgedehnt werden.
Das verdanken wir den Thesen verschiedener Disziplinen von den Sozialwissenschaften bis zu den Naturwissenschaften; dies führt dazu, dass für Wirtschaftsinformatik ein gewisses Spektrum an Forschungsmethoden mit quantitativen und qualitativen Methoden benötigt wird.
Alle verfügbaren Forschungsmethoden sind wichtig, tatsächlich mehrere Forscher wie Jenkins (1985), Nunamaker et al. (1991) und Galliers (1992) argumentieren, dass es keine spezifische universelle Methode zur Durchführung von Forschung in den verschiedenen Bereichen der Informationssysteme gibt; tatsächlich kann eine Methode für eine bestimmte Forschung geeignet sein, aber nicht für andere. Dies führt uns zu der Notwendigkeit, eine Methode auszuwählen, die für unser spezielles Forschungsprojekt geeignet ist: Für diese Wahl haben Benbasat et al. (1987) stellen fest, dass Art und Zweck der Forschung berücksichtigt werden sollten.

3.1.1 Art der Forschung

Die verschiedenen naturbasierten Forschungsmethoden lassen sich in drei weithin bekannte Traditionen der Informationswissenschaft einteilen: positivistische, interpretative und kritische Forschung.

3.1.1.1 Positivistische Forschung

Positivistische Forschung wird auch als wissenschaftliche oder empirische Studie bezeichnet. Es versucht: „zu erklären und vorherzusagen, was in der sozialen Welt passieren wird, indem es die Regelmäßigkeiten und Ursache-Wirkungs-Beziehungen zwischen den Elementen betrachtet, aus denen es besteht“ (Shanks et al. 1993).

Positivistische Forschung zeichnet sich auch durch Wiederholbarkeit, Vereinfachungen und Widerlegungen aus. Darüber hinaus gibt die positivistische Forschung die Existenz a priori-Beziehungen zwischen den untersuchten Phänomenen zu.
Nach Galliers (1992) ist die Taxonomie eine Forschungsmethode, die im positivistischen Paradigma enthalten ist, die jedoch nicht darauf beschränkt ist, tatsächlich gibt es Laborexperimente, Feldexperimente, Fallstudien, Theoremdemonstrationen, Vorhersagen und Simulationen. Mit diesen Methoden geben die Forscher zu, dass die untersuchten Phänomene objektiv und rigoros beobachtet werden können.

3.1.1.2 Interpretative Forschung

Interpretative Forschung, die oft als Phänomenologie oder Antipositivismus bezeichnet wird, wird von Neuman (1994) beschrieben als „die systematische Analyse der sozialen Bedeutung von Handlungen durch die direkte und detaillierte Beobachtung von Menschen in natürlichen Situationen, um zu einem Verständnis zu gelangen und die Interpretation, wie Menschen ihre soziale Welt erschaffen und erhalten“. Interpretationsstudien weisen die Annahme zurück, dass beobachtete Phänomene objektiv beobachtet werden können. Tatsächlich beruhen sie auf subjektiven Interpretationen. Darüber hinaus legen interpretative Forscher den von ihnen untersuchten Phänomenen keine a priori Bedeutungen auf.

Diese Methode umfasst subjektive/argumentative Studien, Aktionsforschung, deskriptive/interpretative Studien, Zukunftsforschung und Rollenspiele. Zusätzlich zu diesen Umfragen können Fallstudien in diesen Ansatz einbezogen werden, da es sich um Studien von Einzelpersonen oder Organisationen in komplexen Situationen der realen Welt handelt.

3.1.1.3 Kritische Forschung

Die kritische Suche ist der am wenigsten bekannte Ansatz in den Sozialwissenschaften, hat aber kürzlich die Aufmerksamkeit von Forschern auf dem Gebiet der Informationssysteme auf sich gezogen. Die philosophische Annahme, dass die soziale Realität historisch von Menschen, sowie sozialen Systemen mit ihren Handlungen und Interaktionen produziert und reproduziert wird. Ihre Fähigkeit wird jedoch durch eine Reihe sozialer, kultureller und politischer Erwägungen vermittelt.

Wie die interpretative Forschung argumentiert auch die kritische Forschung, dass positivistische Forschung nichts mit dem sozialen Kontext zu tun hat und ihren Einfluss auf menschliches Handeln ignoriert.
Die kritische Forschung hingegen kritisiert die interpretative Forschung dafür, zu subjektiv zu sein und nicht darauf abzielen, Menschen zu helfen, ihr Leben zu verbessern. Der größte Unterschied zwischen kritischer Forschung und den beiden anderen Ansätzen ist ihre evaluative Dimension. Während die Objektivität der positivistischen und interpretativen Traditionen darin besteht, den Status quo oder die soziale Realität vorherzusagen oder zu erklären, zielt die kritische Forschung darauf ab, die untersuchte soziale Realität kritisch zu bewerten und zu transformieren.

Kritische Forscher wenden sich meist gegen den Status quo, um soziale Unterschiede zu beseitigen und soziale Bedingungen zu verbessern. Kritische Forschung ist einer Prozesssicht auf die interessierenden Phänomene verpflichtet und ist daher normalerweise längsschnittlich. Beispiele für Forschungsmethoden sind historische Langzeitstudien und ethnographische Studien. Die kritische Suche ist jedoch in der Informationssystemforschung nicht weit verbreitet

3.1.2 Zweck der Forschung

Zusammen mit der Art der Forschung kann ihr Zweck verwendet werden, um den Forscher bei der Auswahl einer bestimmten Forschungsmethode anzuleiten. Der Umfang eines Forschungsprojekts hängt eng mit der Position der Forschung im Verhältnis zum Forschungszyklus zusammen, der aus drei Phasen besteht: Theoriebildung, Theorieprüfung und Theorieverfeinerung. Somit kann ein Forschungsprojekt, basierend auf dem Momentum in Bezug auf den Forschungszyklus, einen erklärenden, beschreibenden, explorativen oder prädiktiven Zweck haben.

3.1.2.1 Explorative Forschung

Explorative Forschung zielt darauf ab, ein völlig neues Thema zu untersuchen und Fragen und Hypothesen für die zukünftige Forschung zu formulieren. Diese Art der Recherche dient der Theoriebildung, um erste Hinweise in einem neuen Gebiet zu erhalten. Meist kommen qualitative Forschungsmethoden zum Einsatz, wie Fallstudien oder phänomenologische Studien.

Es können aber auch quantitative Techniken wie explorative Befragungen oder Experimente eingesetzt werden.

3.1.3.3 Beschreibende Forschung

Deskriptive Forschung soll eine bestimmte Situation oder Organisationspraxis detailliert analysieren und beschreiben. Dies ist für die Konstruktion von Theorien geeignet und kann auch verwendet werden, um Hypothesen zu bestätigen oder in Frage zu stellen. Deskriptive Forschung beinhaltet normalerweise die Verwendung von Messungen und Proben. Geeignete Forschungsmethoden sind Befragungen und Hintergrundanalysen.

3.1.2.3 Erklärende Forschung

Erklärende Forschung versucht zu erklären, warum Dinge passieren. Es baut auf Fakten auf, die bereits untersucht wurden, und versucht, das Warum dieser Fakten zu finden.
Daher baut die erklärende Forschung normalerweise auf der explorativen oder deskriptiven Forschung auf und ist eine Ergänzung zum Testen und Verfeinern von Theorien. Erklärende Forschung verwendet typischerweise Fallstudien oder umfragebasierte Forschungsmethoden.

3.1.2.4 Vorbeugende Forschung

Präventive Forschung zielt darauf ab, die beobachteten Ereignisse und Verhaltensweisen, die untersucht werden, vorherzusagen (Marshall und Rossman 1995). Vorhersage ist der wissenschaftliche Standardtest der Wahrheit. Diese Art der Forschung verwendet im Allgemeinen Umfragen oder Datenanalysen geben Historiker. (Yin 1989)

Die obige Diskussion zeigt, dass es eine Reihe möglicher Forschungsmethoden gibt, die in einer bestimmten Studie verwendet werden können. Es muss jedoch eine bestimmte Methode geben, die für eine bestimmte Art von Forschungsprojekt besser geeignet ist als die anderen. (Galliers 1987, Yin 1989, De Vaus 1991). Daher muss jeder Forscher die Stärken und Schwächen verschiedener Methoden sorgfältig evaluieren, um die am besten geeignete Forschungsmethode zu wählen, die mit dem Forschungsprojekt kompatibel ist. (Jenkins 1985, Pervan und Klass 1992, Bonomia 1985, Yin 1989, Himilton und Ives 1992).

3.2. Mögliche Forschungsmethoden

Das Ziel dieses Projekts war es, die Erfahrungen australischer Organisationen mit i geben gespeichert mit einer Entwicklung von Data Warehouse. Datum dass es in Australien derzeit an Forschung im Bereich Data Warehousing mangelt, befindet sich dieses Forschungsprojekt noch in der Theoriephase des Forschungszyklus und hat einen explorativen Zweck. Um die Erfahrungen australischer Unternehmen mit der Einführung von Data Warehousing zu untersuchen, muss die reale Gesellschaft interpretiert werden. Folglich folgt die dem Forschungsprojekt zugrunde liegende philosophische Annahme der traditionellen Interpretation.

Nach gründlicher Prüfung der verfügbaren Methoden wurden zwei mögliche Forschungsmethoden identifiziert: Umfragen und Fallstudien, die für die explorative Forschung verwendet werden können (Shanks et al. 1993). Galliers (1992) argumentiert die Eignung dieser beiden Methoden für diese spezielle Studie in seiner überarbeiteten Taxonomie, indem er sagt, dass sie für die Theoriebildung geeignet sind. In den folgenden zwei Unterabschnitten wird jede Methode im Detail erläutert.

3.2.1 Untersuchungsmethode

Die Erhebungsforschungsmethode stammt aus der alten Volkszählungsmethode. Bei einer Volkszählung geht es darum, Informationen von einer ganzen Bevölkerung zu sammeln. Dieses Verfahren ist teuer und unpraktisch, insbesondere wenn die Population groß ist. Daher konzentriert sich eine Umfrage im Vergleich zu einer Volkszählung normalerweise auf das Sammeln von Informationen für eine kleine Anzahl oder Stichprobe von Vertretern der Bevölkerung (Fowler 1988, Neuman 1994). Eine Stichprobe spiegelt die Grundgesamtheit, aus der sie gezogen wurde, mit unterschiedlicher Genauigkeit wider, je nach Stichprobenstruktur, Größe und verwendeter Auswahlmethode (Fowler 1988, Babbie 1982, Neuman 1994).

Die Erhebungsmethode ist definiert als „Momentaufnahmen von Praktiken, Situationen oder Ansichten zu einem bestimmten Zeitpunkt, die mithilfe von Fragebögen oder Interviews erstellt werden und aus denen Rückschlüsse gezogen werden können
made“ (Galliers 1992:153) [Momentaufnahmen von Praktiken, Situationen oder Ansichten zu einem bestimmten Zeitpunkt, aufgenommen mit Hilfe von Fragebögen oder Interviews, aus denen Rückschlüsse gezogen werden können]. Bei Umfragen geht es darum, Informationen über bestimmte Aspekte der Studie von einer Reihe von Teilnehmern zu sammeln, indem Fragen gestellt werden (Fowler 1988). Diese Fragebögen und Interviews, zu denen persönliche Telefoninterviews und strukturierte Interviews gehören, sind ebenfalls Erhebungstechniken geben in Umfragen verwendet werden (Blalock 1970, Nachmias und Nachmias 1976, Fowler 1988), können Beobachtungen und Analysen verwendet werden (Gable 1994). Von all diesen Methoden, Götter zu sammeln geben, ist die Verwendung des Fragebogens die beliebteste Technik, da sie sicherstellt, dass i geben

gesammelten Daten sind strukturiert und formatiert und erleichtern so die Einordnung von Informationen (Hwang 1987, de Vaus 1991).

Bei der Analyse der gebenverwendet eine Umfragestrategie häufig quantitative Techniken wie statistische Analysen, aber auch qualitative Techniken können eingesetzt werden (Galliers 1992, Pervan

und Klass 1992, Gable 1994). Normalerweise ich geben gesammelt werden, um Verteilungen und Assoziationsmuster zu analysieren (Fowler 1988).

Umfragen eignen sich zwar grundsätzlich für Suchanfragen, die sich mit der Frage „Was?“ beschäftigen. (was) oder davon abgeleitet, wie 'quanto' (wie viel) und 'quant'è' (wie viele), können sie durch die Frage 'warum' gestellt werden (Sonquist und Dunkelberg 1977, Yin 1989). Laut Sonquist und Dunkelberg (1977) zielt die Forschungsforschung auf harte Hypothesen, Bewertungsprogramme, die Beschreibung der Bevölkerung und die Entwicklung von Modellen menschlichen Verhaltens ab. Darüber hinaus können Umfragen verwendet werden, um die Meinung, Bedingungen, Überzeugungen, Eigenschaften, Erwartungen und sogar vergangene oder gegenwärtige Verhaltensweisen einer bestimmten Bevölkerung zu untersuchen (Neuman 1994).

Umfragen ermöglichen es dem Forscher, Bevölkerungsbeziehungen zu entdecken, und die Ergebnisse sind in der Regel allgemeiner als andere Methoden (Sonquist und Dunkelberg 1977, Gable 1994). Umfragen ermöglichen es Forschern, ein größeres geografisches Gebiet abzudecken und eine große Zahl von Befragten zu erreichen (Blalock 1970, Sonquist und Dunkelberg 1977, Hwang und Lin 1987, Gable 1994, Neuman 1994). Schließlich können Umfragen Informationen liefern, die anderswo oder in der für Analysen erforderlichen Form nicht verfügbar sind (Fowler 1988).

Es gibt jedoch einige Einschränkungen bei der Durchführung einer Umfrage. Ein Nachteil ist, dass der Forscher nicht viele Informationen über das untersuchte Objekt erhalten kann. Dies liegt daran, dass die Umfragen nur zu einem bestimmten Zeitpunkt durchgeführt werden und es daher eine begrenzte Anzahl von Variablen und Personen gibt, die der Forscher verwenden kann

Studie (Yin 1989, de Vaus 1991, Gable 1994, Denscombe 1998). Ein weiterer Nachteil besteht darin, dass die Durchführung einer Umfrage sehr zeit- und ressourcenintensiv sein kann, insbesondere wenn es sich um persönliche Interviews handelt (Fowler 1988).

3.2.2. Untersuchungsforschungsmethode

Die Untersuchungsforschungsmethode beinhaltet die eingehende Untersuchung einer bestimmten Situation in ihrem tatsächlichen Kontext über einen definierten Zeitraum ohne Eingriff des Forschers (Shanks & C. 1993, Eisenhardt 1989, Jenkins 1985). Hauptsächlich wird diese Methode verwendet, um die Beziehungen zwischen den untersuchten Variablen in einer bestimmten Situation zu beschreiben (Galliers 1992). Die Untersuchungen können je nach untersuchtem Phänomen Einzel- oder Mehrfachfälle umfassen (Franz und Robey 1987, Eisenhardt 1989, Yin 1989).

Die Untersuchungsforschungsmethode ist definiert als "eine empirische Untersuchung, die ein zeitgenössisches Phänomen in seinem tatsächlichen Kontext untersucht, wobei mehrere Quellen verwendet werden, die von einer oder mehreren Einheiten wie Personen, Gruppen oder Organisationen stammen" (Yin 1989). Es gibt keine klare Trennung zwischen dem Phänomen und seinem Kontext und es gibt keine Kontrolle oder experimentelle Manipulation der Variablen (Yin 1989, Benbasat et al. 1987).

Es gibt eine Vielzahl von Techniken für die Sammlung der geben die in der Untersuchungsmethode eingesetzt werden können, die direkte Beobachtungen, Überprüfungen von Archivunterlagen, Fragebögen, Überprüfung der Dokumentation und strukturierte Interviews umfassen. Mit einer Vielzahl von Erntetechniken geben, Umfragen ermöglichen Forschern, sich mit beidem auseinanderzusetzen geben qualitativ und quantitativ zugleich (Bonoma 1985, Eisenhardt 1989, Yin 1989, Gable 1994). Wie bei der Befragungsmethode fungiert ein Befragungsforscher als Beobachter oder Forscher und nicht als aktiver Teilnehmer an der untersuchten Organisation.

Benbasat et al (1987) behaupten, dass sich die Untersuchungsmethode besonders für die Konstruktion von Forschungstheorien eignet, die mit einer Forschungsfrage beginnt und sich mit dem Training fortsetzt.

einer Theorie während des Sammlungsprozesses geben. Auch für die Bühne geeignet

der Theoriebildung schlagen Franz und Robey (1987) vor, dass die Untersuchungsmethode auch für die komplexe Theoriephase eingesetzt werden kann. In diesem Fall wird basierend auf den gesammelten Beweisen eine gegebene Theorie oder Hypothese verifiziert oder widerlegt. Darüber hinaus eignet sich die Untersuchung auch für die Forschung, die sich mit „Wie“- oder „Warum“-Fragen befasst (Yin 1989).

Im Vergleich zu anderen Methoden ermöglichen Umfragen dem Forscher, wesentliche Informationen detaillierter zu erfassen (Galliers 1992, Shanks et al. 1993). Darüber hinaus ermöglichen Untersuchungen dem Forscher, die Art und Komplexität der untersuchten Prozesse zu verstehen (Benbasat et al. 1987).

Es gibt vier Hauptnachteile, die mit der Anfragemethode verbunden sind. Der erste ist das Fehlen kontrollierter Abzüge. Die Subjektivität des Forschers kann die Ergebnisse und Schlussfolgerungen der Studie verändern (Yin 1989). Der zweite Nachteil ist das Fehlen einer kontrollierten Beobachtung. Im Gegensatz zu experimentellen Methoden kann der Forschende die untersuchten Phänomene nicht kontrollieren, da sie in ihrem natürlichen Kontext untersucht werden (Gable 1994). Der dritte Nachteil ist die fehlende Reproduzierbarkeit. Dies liegt daran, dass der Forscher wahrscheinlich nicht die gleichen Ereignisse beobachten wird und die Ergebnisse einer bestimmten Studie nicht überprüfen kann (Lee 1989). Schließlich ist es aufgrund der Nichtreplizierbarkeit schwierig, die Ergebnisse einer oder mehrerer Umfragen zu verallgemeinern (Galliers 1992, Shanks et al. 1993). Alle diese Probleme sind jedoch nicht unüberwindbar und können tatsächlich durch den Forscher durch geeignete Maßnahmen minimiert werden (Lee 1989).

3.3. Begründen Sie die Forschungsmethodik angenommen

Von den zwei möglichen Forschungsmethoden für diese Studie wird die Befragungsmethode als die geeignetste angesehen. Der Ermittlungsantrag wurde nach sorgfältiger Abwägung des Sachverhalts verworfen

Vorzüge und Schwächen. Die Bequemlichkeit oder Unangemessenheit jeder Methode für diese Studie wird unten diskutiert.

3.3.1. Unangemessene Forschungsmethode der Anfrage

Die Untersuchungsmethode erfordert die eingehende Untersuchung einer bestimmten Situation innerhalb einer oder mehrerer Organisationen über einen bestimmten Zeitraum (Eisenhardt 1989). In diesem Fall kann der Zeitraum den für diese Studie angegebenen Zeitrahmen überschreiten. Ein weiterer Grund, die Untersuchungsmethode nicht anzuwenden, besteht darin, dass die Ergebnisse unter einem Mangel an Strenge leiden könnten (Yin 1989). Die Subjektivität des Forschers kann die Ergebnisse und Schlussfolgerungen beeinflussen. Ein weiterer Grund ist, dass diese Methode eher für Forschungsfragen vom Typ „Wie“ oder „Warum“ geeignet ist (Yin 1989), während die Forschungsfrage für diese Studie vom Typ „Was“ ist. Nicht zuletzt ist es schwierig, Ergebnisse aus nur einer oder wenigen Erhebungen zu verallgemeinern (Galliers 1992, Shanks et al. 1993). Aus diesem Grund wurde die Umfrageforschungsmethode nicht gewählt, da sie für diese Studie ungeeignet war.

3.3.2. Bequemlichkeit der Forschungsmethode Umfrage

Als diese Untersuchung durchgeführt wurde, war die Praxis des Data Warehousing von australischen Organisationen noch nicht weit verbreitet. Daher gab es nicht viele Informationen über ihre Umsetzung in australischen Organisationen. Die verfügbaren Informationen stammten von Organisationen, die a implementiert oder verwendet hatten Data Warehouse. In diesem Fall ist die Umfrageforschungsmethode am besten geeignet, da sie es ermöglicht, Informationen zu erhalten, die an anderer Stelle oder in der für die Analyse erforderlichen Form nicht verfügbar sind (Fowler 1988). Darüber hinaus ermöglicht die Methode der forschenden Forschung dem Forscher, einen guten Einblick in Praktiken, Situationen oder Ansichten zu einem bestimmten Zeitpunkt zu gewinnen (Galliers 1992, Denscombe 1998). Es wurde um einen Überblick gebeten, um das Bewusstsein für die australische Data-Warehousing-Erfahrung zu schärfen.

Darüber hinaus stellen Sonquist und Dunkelberg (1977) fest, dass Umfrageforschungsergebnisse allgemeiner sind als andere Methoden.

3.4. Umfrage Forschungsdesign

Die Umfrage zur Data-Warehousing-Praxis wurde 1999 durchgeführt. Die Zielgruppe bestand aus australischen Organisationen, die an Data-Warehousing-Studien interessiert waren, da sie wahrscheinlich bereits davon wussten geben die sie speichern und daher nützliche Informationen für diese Studie liefern könnten. Die Zielgruppe wurde mit einer ersten Befragung aller australischen Mitglieder des „The Data Warehousing Institute“ (Tdwi-aap) identifiziert. In diesem Abschnitt wird das Design der empirischen Forschungsphase dieser Studie diskutiert.

3.4.1. Technik der Sammlung von geben

Von den drei in der Umfrageforschung üblichen Techniken (dh postalischer Fragebogen, Telefoninterview und persönliches Interview) (Nachmias 1976, Fowler 1988, de Vaus 1991) wurde der postalische Fragebogen für diese Studie übernommen. Der erste Grund für die Annahme des letzteren ist, dass es eine geografisch verstreute Bevölkerung erreichen kann (Blalock 1970, Nachmias und Nachmias 1976, Hwang und Lin 1987, de Vaus 1991, Gable 1994). Zweitens eignet sich der Mail-Fragebogen für hochgebildete Teilnehmer (Fowler 1988). Der Post-Fragebogen für diese Studie wurde an die Data-Warehousing-Projektsponsoren, Direktoren und/oder Projektmanager adressiert. Drittens sind postalische Fragebögen geeignet, wenn eine gesicherte Adressliste verfügbar ist (Salant und Dilman 1994). TDWI, in diesem Fall eine vertrauenswürdige Data-Warehousing-Vereinigung, stellte die Mailingliste ihrer australischen Mitglieder zur Verfügung. Ein weiterer Vorteil des postalischen Fragebogens gegenüber telefonischen Fragebögen oder persönlichen Interviews besteht darin, dass die Befragten genauer antworten können, insbesondere wenn die Befragten Aufzeichnungen einsehen oder Fragen mit anderen Personen besprechen müssen (Fowler 1988).

Ein möglicher Nachteil kann der Zeitaufwand für die Durchführung von Fragebögen per Post sein. Normalerweise wird ein Mail-Fragebogen in dieser Reihenfolge durchgeführt: Briefe verschicken, Antworten abwarten und Bestätigung senden (Fowler 1988, Bainbridge 1989). Daher kann die Gesamtzeit länger sein als die Zeit, die für persönliche Interviews oder Telefoninterviews erforderlich ist. Die Gesamtzeit kann jedoch im Voraus bekannt sein (Fowler 1988, Denscombe 1998). Der Zeitaufwand für die Durchführung der persönlichen Interviews kann nicht im Voraus bekannt sein, da er von Interview zu Interview variiert (Fowler 1988). Telefoninterviews können schneller sein als postalische Fragebögen und persönliche Interviews, können jedoch aufgrund der Nichtverfügbarkeit einiger Personen eine hohe Rate unbeantworteter Personen aufweisen (Fowler 1988). Außerdem beschränken sich Telefoninterviews in der Regel auf relativ kurze Fragenkataloge (Bainbridge 1989).

Eine weitere Schwäche eines per Post verschickten Fragebogens ist die hohe Nichtbeantwortungsrate (Fowler 1988, Bainbridge 1989, Neuman 1994). Es wurden jedoch Gegenmaßnahmen ergriffen, indem diese Studie mit einer vertrauenswürdigen Data-Warehousing-Institution (d. h. TDWI) (Bainbridge 1989, Neuman 1994) in Verbindung gebracht wurde, die zwei Erinnerungsschreiben an Non-Responder ausstellt (Fowler 1988, Neuman 1994) und auch ein zusätzliches Erklärungsschreiben enthält Zweck der Studie (Neuman 1994).

3.4.2. Analyseeinheit

Ziel dieser Studie ist es, Informationen über die Implementierung von Data Warehousing und seine Verwendung in australischen Organisationen zu erhalten. Die Zielgruppe sind alle australischen Organisationen, die implementiert haben oder implementieren, d Data Warehouse. Anschließend werden die einzelnen Organisationen registriert. Der Fragebogen wurde an die an einer Adoption interessierten Organisationen verschickt Data Warehouse. Diese Methode stellt sicher, dass die gesammelten Informationen aus den am besten geeigneten Ressourcen jeder teilnehmenden Organisation stammen.

3.4.3. Umfragestichprobe

Die Mailingliste der Umfrageteilnehmer wurde vom TDWI bezogen. Aus dieser Liste wurden 3000 australische Organisationen als Grundlage für die Stichprobenziehung ausgewählt. Ein Follow-up-Schreiben, in dem das Projekt und der Zweck der Umfrage erläutert wurden, zusammen mit einem Antwortformular und einem frankierten Rückumschlag für die Rücksendung des ausgefüllten Fragebogens wurden an die Stichprobe gesendet. Von den 3000 Organisationen erklärten sich 198 bereit, an der Studie teilzunehmen. Mit so wenigen Antworten war zu rechnen dato die große Anzahl australischer Organisationen, die damals die Data-Warehousing-Strategie in ihren Organisationen angenommen hatten oder annahmen. Somit besteht die Zielgruppe dieser Studie aus nur 198 Organisationen.

3.4.4. Inhalt des Fragebogens

Das Fragebogendesign basierte auf dem Data-Warehousing-Modell von Monash (zuvor in Teil 2.3 besprochen). Der Inhalt des Fragebogens basierte auf der in Kapitel 2 vorgestellten Literaturrecherche. Eine Kopie des Fragebogens, der den Umfrageteilnehmern per Post zugeschickt wurde, befindet sich in Anhang B. Der Fragebogen besteht aus sechs Abschnitten, die den Schritten des abgedeckten Modells folgen . Die folgenden sechs Absätze fassen den Inhalt der einzelnen Abschnitte kurz zusammen.

Abschnitt A: Grundlegende Informationen zur Organisation
Dieser Abschnitt enthält Fragen zum Profil der teilnehmenden Organisationen. Darüber hinaus beziehen sich einige der Fragen auf den Status des Data Warehousing-Projekts des Teilnehmers. Vertrauliche Informationen wie der Name der Organisation wurden in der Umfrageanalyse nicht offengelegt.

Abschnitt B: Start
Die Fragen in diesem Abschnitt beziehen sich auf den Einstieg in Data Warehousing. Es wurden Fragen zu den Projektinitiatoren, Sponsoren, erforderlichen Fähigkeiten und Kenntnissen, den Zielen der Data-Warehousing-Entwicklung und den Erwartungen der Endnutzer gestellt.

Abschnitt C: Design
Dieser Abschnitt enthält Fragen zu den Planungsaktivitäten des Data Warehouse. Die Fragen betrafen insbesondere den Umfang der Umsetzung, die Dauer des Projekts, die Kosten des Projekts und die Kosten-Nutzen-Analyse.

Abschnitt D: Entwicklung
Im Entwicklungsabschnitt gibt es Fragen zu den Entwicklungsaktivitäten des Data Warehouse: Sammlung von Endbenutzeranforderungen, Quellen von geben, das logische Modell von geben, Prototypen, Kapazitätsplanung, technische Architekturen und Auswahl von Data-Warehousing-Entwicklungstools.

Abschnitt E: Betrieb
Operative Fragen zur Bedienung und Erweiterbarkeit des Data Warehouse, wie es sich in der nächsten Entwicklungsstufe entwickelt. Dort Datenqualität, die Aktualisierungsstrategien der geben, die Granularität der geben, Skalierbarkeit von Data Warehouse und Sicherheitsfragen Data Warehouse gehörten zu den Arten von Fragen, die gestellt wurden.

Abschnitt F: Entwicklung
Dieser Abschnitt enthält Fragen zur Verwendung von Data Warehouse von Endnutzern. Der Forscher interessierte sich für den Zweck und Nutzen der Data Warehouse, die angenommenen Überprüfungs- und Schulungsstrategien und die Kontrollstrategie der Data Warehouse angenommen.

3.4.5. Rücklaufquote

Obwohl Briefbefragungen wegen ihrer geringen Rücklaufquote kritisiert werden, wurden Schritte unternommen, um die Rücklaufquote zu erhöhen (wie oben in Abschnitt 3.4.1 erörtert). Der Begriff „Rücklaufquote“ bezieht sich auf den Prozentsatz der Personen in einer bestimmten Umfragestichprobe, die den Fragebogen beantwortet haben (Denscombe 1998). Die folgende Formel wurde verwendet, um die Rücklaufquote für diese Studie zu berechnen:

Anzahl der Personen, die geantwortet haben
Rücklaufquote = —————————————————————————– X 100 Gesamtzahl der versendeten Fragebögen

3.4.6. Testlauf

Bevor der Fragebogen an die Stichprobe verschickt wurde, wurden die Fragen in Pilotversuchen getestet, wie von Luck und Rubin (1987), Jackson (1988) und de Vaus (1991) vorgeschlagen. Der Zweck von Pilotversuchen besteht darin, unangenehme, mehrdeutige Ausdrücke und schwer zu interpretierende Fragen aufzudecken, alle verwendeten Definitionen und Begriffe zu klären und die ungefähre Zeit zu ermitteln, die zum Ausfüllen des Fragebogens erforderlich ist (Warwick und Lininger 1975, Jackson 1988, Salant und Dilmann 1994). Die Pilotversuche wurden durchgeführt, indem Versuchspersonen mit ähnlichen Merkmalen wie die endgültigen Versuchspersonen ausgewählt wurden, wie von Davis e Cosenza (1993). In dieser Studie wurden sechs Data-Warehousing-Experten als Pilotpersonen ausgewählt. Nach jedem Pilottest wurden die notwendigen Korrekturen vorgenommen. Aus den durchgeführten Pilottests trugen die Teilnehmer dazu bei, die endgültige Version des Fragebogens umzugestalten und neu aufzusetzen.

3.4.7. Analysemethoden Di. Geben

I geben Die aus den geschlossenen Fragebögen gesammelten Umfragedaten wurden mit einem statistischen Softwarepaket namens SPSS analysiert. Viele der Antworten wurden mithilfe deskriptiver Statistiken analysiert. Eine Reihe von Fragebögen wurde unvollständig zurückgeschickt. Diese wurden sorgfältiger behandelt, um sicherzustellen, dass i geben fehlende Daten nicht auf Fehler bei der Dateneingabe zurückzuführen waren, sondern darauf, dass die Fragen für den Registranten nicht geeignet waren oder der Registrant entschieden hat, eine oder mehrere spezifische Fragen nicht zu beantworten. Diese fehlenden Antworten wurden beim Analysieren der Daten ignoriert geben und wurden mit „-9“ codiert, um sicherzustellen, dass sie aus dem Analyseprozess ausgeschlossen werden.

Bei der Vorbereitung des Fragebogens wurden die geschlossenen Fragen vorcodiert, indem jeder Option eine Nummer zugewiesen wurde. Die Nummer wurde dann verwendet, um i zu trainieren geben während der Analyse (Denscombe 1998, Sapsford und Jupp 1996). Zum Beispiel gab es sechs Optionen, die in Frage 1 von Abschnitt B aufgeführt sind: Vorstand, leitender Angestellter, IT-Abteilung, Geschäftseinheit, Berater und andere. In der Akte von geben von SPSS wurde eine Variable für „Projektinitiator“ mit sechs Wertbezeichnungen generiert: „1“ für „Vorstand“, „2“ für „Führungskraft“ usw. Straße. Die Verwendung der Likertin-Skala in einigen der geschlossenen Fragen ermöglichte auch eine mühelose Identifizierung, indem die entsprechenden in SPSS eingegebenen Zahlenwerte verwendet wurden. Bei Fragen mit nicht erschöpfenden Antworten, die sich nicht gegenseitig ausschlossen, wurde jede Option als eine einzelne Variable mit zwei Wertbezeichnungen behandelt: „1“ für „angekreuzt“ und „2“ für „nicht angekreuzt“.

Offene Fragen wurden anders behandelt als geschlossene Fragen. Die Antworten auf diese Fragen wurden nicht in SPSS eingegeben. Stattdessen wurden sie von Hand analysiert. Die Verwendung dieser Art von Fragen ermöglicht es, Informationen über frei geäußerte Ideen und persönliche Erfahrungen der Befragten zu erhalten (Bainbridge 1989, Denscombe 1998). Wo möglich, wurde eine Kategorisierung der Antworten vorgenommen.

Für die Analyse von gebenMethoden der einfachen statistischen Analyse werden verwendet, wie die Antworthäufigkeit, der Mittelwert, die Standardabweichung und der Median (Argyrous 1996, Denscombe 1998).
Der Gamma-Test war leistungsfähig, um quantitative Maße der Assoziationen zwischen zu erhalten geben Ordnungszahlen (Norusis 1983, Argyrous 1996). Diese Tests waren geeignet, da die verwendeten Ordinalskalen nicht viele Kategorien hatten und in einer Tabelle dargestellt werden konnten (Norusis 1983).

3.5 Zusammenfassung

In diesem Kapitel wurden die Forschungsmethodik und das Design dieser Studie diskutiert.

Die Auswahl der am besten geeigneten Forschungsmethode für eine bestimmte Studie dauert
Berücksichtigung einer Reihe von Regeln, einschließlich der Art und Art der Forschung, sowie der Vorzüge und Schwächen jeder möglichen Methode (Jenkins 1985, Benbasat et al. 1097, Galliers und Land 1987, Yin 1989, Hamilton und Ives 1992, Galliers 1992, Neumann 1994). Angesichts des Mangels an vorhandenem Wissen und Theorie zur Einführung von Data Warehousing in Australien fordert diese Forschungsstudie eine interpretative Forschungsmethode mit einer explorativen Fähigkeit, um die Erfahrungen australischer Organisationen zu untersuchen. Die gewählte Forschungsmethode wurde ausgewählt, um Informationen über die Annahme des Data-Warehousing-Konzepts durch australische Organisationen zu sammeln. Als Erhebungsverfahren wurde ein postalischer Fragebogen gewählt geben. Die Begründungen für die Forschungsmethode und Erhebungstechnik geben Eine Auswahl wird in diesem Kapitel bereitgestellt. Darüber hinaus wurde über die Analyseeinheit, die verwendete Stichprobe, die Prozentsätze der Antworten, den Inhalt des Fragebogens, den Vortest des Fragebogens und die Analysemethode des Fragebogens diskutiert geben.

Designing a Data Warehousing:

Kombination von Entitätsbeziehung und Dimensionsmodellierung

ABSTRACT
Speichern Sie i geben ist für viele Organisationen ein großes aktuelles Thema. Ein zentrales Problem bei der Entwicklung der Lagerhaltung geben es ist sein Design.
Die Zeichnung muss das Erkennen von Konzepten in der unterstützen Data Warehouse zu Legacy-System und anderen Quellen von geben sowie eine leichte Verständlichkeit und Effizienz in der Umsetzung Data Warehouse.
Ein Großteil der Speicherliteratur geben empfiehlt die Verwendung von Entity-Relationship-Modellierung oder dimensionaler Modellierung, um das Design darzustellen Data Warehouse.
In diesem Beitrag zeigen wir, wie beide Darstellungen in einem Entwurfsansatz kombiniert werden können Data Warehouse. Der verwendete Ansatz ist systematisch

in einer Fallstudie untersucht und in einer Reihe von wichtigen Implikationen mit Fachleuten identifiziert.

DATENLAGERUNG

Un Data Warehouse sie wird gewöhnlich als „subjektorientierte, integrierte, zeitvariable und nichtflüchtige Sammlung von Daten zur Unterstützung von Managemententscheidungen“ definiert (Inmon und Hackathorn, 1994). Subjektorientiert und integriert weist darauf hin, dass die Data Warehouse wurde entwickelt, um die funktionalen Grenzen von Legacy-Systemen zu überschreiten, um eine integrierte Perspektive zu bieten geben.
Die Zeitvariante beeinflusst die historische oder zeitliche Natur von geben in eine Data Warehouse, wodurch Trends analysiert werden können. Nichtflüchtig zeigt an, dass die Data Warehouse es wird nicht ständig aktualisiert wie a Datenbank von OLTP. Vielmehr wird es periodisch aktualisiert, mit geben aus internen und externen Quellen. Das Data Warehouse Es ist speziell für die Forschung konzipiert, anstatt die Integrität und Betriebsleistung zu aktualisieren.
Die Idee, i zu speichern geben ist nicht neu, es war einer der Zwecke des Managements geben seit den 1982er Jahren (Il Martin, XNUMX).
I Data Warehouse sie bieten die infrastruktur geben für Führungsunterstützungssysteme. Managementunterstützungssysteme umfassen Entscheidungsunterstützungssysteme (DSS) und Führungsinformationssysteme (EIS). Ein DSS ist ein computergestütztes Informationssystem, das darauf ausgelegt ist, den Prozess und damit die menschliche Entscheidungsfindung zu verbessern. Ein EIS ist typischerweise ein Liefersystem geben die es Führungskräften ermöglicht, einfach auf die Ansicht zuzugreifen geben.
Die allgemeine Architektur von a Data Warehouse unterstreicht die Rolle von Data Warehouse bei der Managementunterstützung. Neben dem Angebot der Infrastruktur geben für EIS und DSS, auch Data Warehouse Es kann direkt über Abfragen darauf zugegriffen werden. DER geben enthalten in a Data Warehouse basieren auf einer Analyse der Anforderungen an Managementinformationen und stammen aus drei Quellen: interne Legacy-Systeme, spezielle Datenerfassungssysteme und externe Datenquellen. DER geben in internen Altsystemen sind häufig redundant, inkonsistent, von geringer Qualität und in unterschiedlichen Formaten gespeichert, sodass sie abgeglichen und bereinigt werden müssen, bevor sie in die geladen werden können

Data Warehouse (Inmon, 1992; McFadden, 1996). DAS geben aus Speichersystemen geben ad hoc und aus Quellen geben extern werden verwendet, um zu erweitern (aktualisieren, ersetzen) i geben von Legacy-Systemen.

Es gibt viele zwingende Gründe für die Entwicklung eines Data Warehouse, die eine verbesserte Entscheidungsfindung durch die effektive Nutzung von mehr Informationen (Ives 1995), die Unterstützung einer Konzentration auf ganze Angelegenheiten (Graham 1996) und eine Reduzierung der Entscheidungsfindungskosten beinhalten geben für EIS und DSS (Graham 1996, McFadden 1996).

Eine kürzlich durchgeführte empirische Studie ergab im Durchschnitt eine Kapitalrendite für i Data Warehouse um 401 % nach drei Jahren (Graham, 1996). Allerdings sind die anderen empirischen Studien von Data Warehouse stellten erhebliche Probleme fest, darunter Schwierigkeiten bei der Messung und Zuweisung von Vorteilen, Mangel an einem klaren Zweck, Unterschätzung des Umfangs und der Komplexität des Speicherungsprozesses geben, insbesondere in Bezug auf die Quellen und die Sauberkeit der geben. Speichern i geben kann als Lösung des Managementproblems angesehen werden geben zwischen Organisationen. Die Manipulation von geben Als soziale Ressource ist es seit vielen Jahren eines der Hauptprobleme bei der Verwaltung von Informationssystemen weltweit geblieben (Brancheau et al. 1996, Galliers et al. 1994, Niederman et al. 1990, Pervan 1993).

Ein beliebter Ansatz für die Verwaltung geben In den Achtzigern erfolgte die Entwicklung eines Modells geben Sozial. Modell geben social wurde konzipiert, um eine stabile Basis für die Entwicklung neuer Anwendungssysteme zu bieten, z Datenbank und die Rekonstruktion und Integration von Altsystemen (Brancheau et al.

1989, Goodhue et al. 1988:1992, Kim und Everest 1994). Bei diesem Ansatz gibt es jedoch mehrere Probleme, insbesondere die Komplexität und Kosten jeder Aufgabe sowie die lange Zeit, die erforderlich ist, um greifbare Ergebnisse zu erzielen (Beynon-Davies 1994, Earl 1993, Goodhue et al. 1992, Periasamy 1994, Shanks 1997). ).

Il Data Warehouse Es handelt sich um eine separate Datenbank, die mit den Legacy-Datenbanken koexistiert, anstatt diese zu ersetzen. Es ermöglicht Ihnen daher, die Verwaltung von zu steuern geben und vermeiden Sie den kostspieligen Neuaufbau von Altsystemen.

BESTEHENDE ANSÄTZE ZUR DATUMZEICHNUNG

WARENHAUS

Der Prozess des Bauens und Perfektionierens von a Data Warehouse sollte eher als ein evolutionärer Prozess und nicht als traditioneller Systementwicklungslebenszyklus verstanden werden (Desio, 1995, Shanks, O'Donnell und Arnott 1997a). An einem Projekt sind viele Prozesse beteiligt Data Warehouse wie Initialisierung, Planung; Informationen, die aus den Anforderungen der Unternehmensleiter gewonnen wurden; Quellen, Transformationen, Reinigung von geben und Synchronisierung von Legacy-Systemen und anderen Quellen geben; Liefersysteme in der Entwicklung; Überwachung von Data Warehouse; und Sinnlosigkeit des Evolutionsprozesses und des Aufbaus eines Data Warehouse (Stinchi, O'Donnell und Arnott 1997b). In diesem Tagebuch konzentrieren wir uns darauf, wie man i zeichnet geben im Rahmen dieser anderen Prozesse gespeichert. Es gibt eine Reihe vorgeschlagener Ansätze für die Videoarchitektur Data Warehouse in der Literatur (Inmon 1994, Ives 1995, Kimball 1994, McFadden 1996). Zu jeder dieser Methoden gibt es einen kurzen Überblick mit einer Analyse ihrer Stärken und Schwächen.

Inmons (1994) Ansatz für Data Warehousing Design

Inmon (1994) schlug vier iterative Schritte zum Entwerfen eines vor Data Warehouse (siehe Abbildung 2). Der erste Schritt besteht darin, eine Vorlage zu entwerfen geben sozial zu verstehen, wie ich geben kann über Funktionsbereiche innerhalb einer Organisation integriert werden, indem i geben in Bereichen speichern. Modell geben Es ist zur Aufbewahrung gedacht geben in Bezug auf die Entscheidungsfindung, einschließlich geben historisch und enthalten geben abgezogen und aggregiert. Im zweiten Schritt geht es darum, Themenbereiche für die Umsetzung zu identifizieren. Diese basieren auf Prioritäten, die von einer bestimmten Organisation festgelegt werden. Der dritte Schritt besteht darin, a zu zeichnen Datenbank Achten Sie für den Themenbereich besonders auf die Einbeziehung angemessener Granularitätsebenen. Inmon empfiehlt die Verwendung des Entitäts- und Beziehungsmodells. Der vierte Schritt besteht darin, Quellsysteme zu identifizieren geben erforderlich und entwickeln Transformationsprozesse, um i zu erfassen, zu bereinigen und zu formatieren geben.

Die Stärken von Inmons Ansatz sind das Modell geben Soziales bietet die Grundlage für die Integration von geben innerhalb der Organisation und Planung unterstützt die iterative Entwicklung von Data Warehouse. Die Nachteile liegen in der Schwierigkeit und den Kosten für den Entwurf des Modells geben sozial, die Schwierigkeit, Modelle von Entitäten und Beziehungen zu verstehen, die in beiden Modellen verwendet werden geben sozial und das von geben gespeichert nach Themenbereichen und der Angemessenheit von geben der Zeichnung von Data Warehouse zur Realisierung von Datenbank relational aber nicht für Datenbank mehrdimensional.

Ives' (1995) Herangehensweise an Data Warehousing Design

Ives (1995) schlägt einen vierstufigen Ansatz zum Entwurf eines Informationssystems vor, der seiner Ansicht nach auf den Entwurf eines Informationssystems anwendbar ist Data Warehouse (siehe Abbildung 3). Der Ansatz orientiert sich stark am Information Engineering zur Entwicklung von Informationssystemen (Martin 1990). Der erste Schritt besteht darin, Ihre Ziele, Erfolgs- und kritischen Faktoren sowie Leistungskennzahlen zu ermitteln. Wichtige Geschäftsprozesse und die notwendigen Informationen werden modelliert, um uns zu einem Modell zu führen geben Sozial. Im zweiten Schritt geht es um die Entwicklung einer prägenden Architektur geben nach Bereichen gespeichert, Datenbank di Data Warehouse, die erforderlichen Technologiekomponenten, die organisatorische Unterstützung, die für die Implementierung und den Betrieb erforderlich ist Data Warehouse. Der dritte Schritt umfasst die Auswahl der benötigten Softwarepakete und Tools. Der vierte Schritt ist die detaillierte Planung und Konstruktion des Data Warehouse. Ives merkt das zu speichern geben Es handelt sich um einen eingeschränkten iterativen Prozess.

Die Stärken des Ives-Ansatzes liegen in der Verwendung technischer Spezifikationen zur Ermittlung des Informationsbedarfs und in der Verwendung eines strukturierten Prozesses zur Unterstützung der Integration Data Warehouse, die geeignete Hardware- und Softwareauswahl und die Verwendung mehrerer Darstellungstechniken für die Data Warehouse. Seine Mängel liegen in der Komplexität begründet. Andere schließen Schwierigkeiten bei der Entwicklung vieler Ebenen ein Datenbank innerhalb der Data Warehouse in einem angemessenen Zeit- und Kostenrahmen.

Kimballs (1994) Ansatz zu Data Warehousing Design

Kimball (1994) schlug fünf iterative Schritte für den Entwurf eines vor Data Warehouse (siehe Abbildungen 4). Seine Herangehensweise ist insbesondere der Zeichnung eines Solos gewidmet Data Warehouse und über die Verwendung dimensionaler Modelle gegenüber Entitäts- und Beziehungsmodellen. Kimball analysiert diese dimensionalen Modelle, weil es für Unternehmensleiter einfacher ist, das Geschäft zu verstehen, und weil sie bei der Bewältigung komplexer Beratungen und deren Gestaltung effizienter sind Datenbank physisch ist effizienter (Kimball 1994). Kimball räumt ein, dass die Entwicklung eines Data Warehouse ist iterativ, und das Data Warehouse Getrennte Elemente können durch die Unterteilung in Tabellen mit gemeinsamen Abmessungen integriert werden.

Der erste Schritt besteht darin, den jeweiligen Themenbereich zu identifizieren, der perfektioniert werden soll. Im zweiten und dritten Schritt geht es um die dimensionale Formgebung. Im zweiten Schritt identifizieren die Maßnahmen interessante Dinge im Themenbereich und gruppieren sie in einer Faktentabelle. Beispielsweise könnten in einem Verkaufsthemenbereich die Menge der verkauften Artikel und der Dollar als Verkaufswährung zu den interessierenden Maßstäben gehören. Der dritte Schritt besteht darin, Dimensionen zu identifizieren, mit denen Fakten gruppiert werden können. In einem Verkaufsthemenbereich können relevante Dimensionen Artikel, Standort und Zeitraum umfassen. Die Faktentabelle verfügt über einen mehrteiligen Schlüssel zur Verknüpfung mit den einzelnen Dimensionstabellen und enthält typischerweise eine sehr große Anzahl von Fakten. Im Gegensatz dazu enthalten Dimensionstabellen beschreibende Informationen zu Dimensionen und anderen Attributen, die zum Gruppieren von Fakten verwendet werden können. Die vorgeschlagene zugehörige Fakten- und Dimensionstabelle bildet aufgrund ihrer Form ein sogenanntes Sternschema. Der vierte Schritt umfasst den Aufbau eines Datenbank mehrdimensional, um das Muster des Sterns zu perfektionieren. Der letzte Schritt besteht darin, Quellsysteme zu identifizieren geben erforderlich und entwickeln Transformationsprozesse, um i zu erfassen, zu bereinigen und zu formatieren geben.

Zu den Stärken von Kimballs Ansatz gehört die Verwendung dimensionaler Modelle zur Darstellung von i geben gespeichert, was es leicht verständlich macht und zu einem effizienten physischen Design führt. Ein Dimensionsmodell, das auch beide Systeme problemlos nutzt Datenbank relationale Systeme können perfektioniert werden oder Systeme Datenbank mehrdimensional. Zu seinen Mängeln gehört das Fehlen einiger Techniken, die die Planung oder Integration vieler Sternpläne innerhalb eines Systems erleichtern Data Warehouse und die Schwierigkeit, ausgehend von der extrem denormalisierten Struktur ein dimensionales Modell zu entwerfen a geben im Legacy-System.

McFaddens (1996) Ansatz zu Daten Lagergestaltung

McFadden (1996) schlägt einen fünfstufigen Ansatz zum Zeichnen eines vor Data Warehouse (siehe Abbildung 5).
Sein Ansatz basiert auf einer Synthese von Ideen aus der Literatur und konzentriert sich auf die Gestaltung eines einzigen Data Warehouse. Im ersten Schritt erfolgt eine Anforderungsanalyse. Obwohl keine technischen Spezifikationen vorgeschrieben sind, identifizieren McFaddens Notizen Entitäten geben Spezifikationen und ihre Attribute und verweist die Leser Watson und Frolick (1993) zur Erfassung der Anforderungen.
Im zweiten Schritt wird ein Beziehungsentitätsmodell für gezeichnet Data Warehouse und dann von den Führungskräften des Unternehmens validiert. Im dritten Schritt erfolgt die Ermittlung der Zuordnung aus Altsystemen und externen Quellen Data Warehouse. Der vierte Schritt umfasst Prozesse zur Entwicklung, Bereitstellung und Synchronisierung geben in Data Warehouse. Im letzten Schritt wird die Auslieferung des Systems mit Schwerpunkt auf einer Benutzeroberfläche entwickelt. McFadden weist darauf hin, dass der Zeichenprozess im Allgemeinen iterativ ist.

Die Stärken von McFaddens Ansatz liegen in der Einbindung von Unternehmensleitern in die Ermittlung der Anforderungen sowie in der Bedeutung von Ressourcen gebenderen Reinigung und Sammlung. Seine Mängel sind das Fehlen eines Prozesses zur Aufteilung eines großen Projekts Data Warehouse in vielen integrierten Stufen, und die

Schwierigkeiten beim Verständnis der Entitäts- und Beziehungsmodelle, die beim Entwurf von verwendet werden Data Warehouse.

Es sind nicht nur diejenigen, die uns nahe stehen, die uns wählen.

    0/5 (0 Bewertungen)
    0/5 (0 Bewertungen)
    0/5 (0 Bewertungen)

    Erfahren Sie mehr von der Online-Webagentur

    Abonnieren Sie, um die neuesten Artikel per E-Mail zu erhalten.

    Autor Avatar
    Administrator CEO & Founder
    👍Online-Webagentur | Webagentur-Experte für digitales Marketing und SEO. Web Agency Online ist eine Webagentur. Für Agenzia Web Online basiert der Erfolg in der digitalen Transformation auf den Grundlagen von Iron SEO Version 3. Spezialgebiete: Systemintegration, Unternehmensanwendungsintegration, serviceorientierte Architektur, Cloud Computing, Data Warehouse, Business Intelligence, Big Data, Portale, Intranets, Webanwendungen Entwurf und Verwaltung relationaler und mehrdimensionaler Datenbanken. Entwurf von Schnittstellen für digitale Medien: Benutzerfreundlichkeit und Grafiken. Die Online-Webagentur bietet Unternehmen folgende Dienstleistungen an: -SEO auf Google, Amazon, Bing, Yandex; -Webanalyse: Google Analytics, Google Tag Manager, Yandex Metrica; -Benutzerkonvertierungen: Google Analytics, Microsoft Clarity, Yandex Metrica; -SEM bei Google, Bing, Amazon Ads; -Social-Media-Marketing (Facebook, Linkedin, Youtube, Instagram).
    Meine agile Privatsphäre
    Diese Website verwendet technische Cookies und Profiling-Cookies. Indem Sie auf „Akzeptieren“ klicken, autorisieren Sie alle Profiling-Cookies. Durch Klicken auf Ablehnen oder das X werden alle Profiling-Cookies abgelehnt. Durch Klicken auf Anpassen können Sie auswählen, welche Profiling-Cookies aktiviert werden sollen.
    Diese Website entspricht dem Datenschutzgesetz (DSG), dem Schweizer Bundesgesetz vom 25. September 2020, und der DSGVO, der EU-Verordnung 2016/679, zum Schutz personenbezogener Daten sowie zum freien Datenverkehr.