fbpx

डेटा वेअरहाऊसिंग आणि एंटरप्राइझ रिसोर्स प्लॅनिंग | DWH आणि ERP

संग्रह डेटा सेंट्रल: हिस्ट्री ईडी उत्क्रांती

90 च्या दशकात कॉर्पोरेट तंत्रज्ञानाच्या दोन प्रमुख थीम होत्या i डेटा वेअरहाऊस आणि ईआरपी. बर्याच काळापासून हे दोन शक्तिशाली प्रवाह कधीही छेदन न करता कॉर्पोरेट आयटीचे भाग आहेत. ते जवळजवळ मॅटर आणि अँटी मॅटर असल्यासारखे होते. परंतु दोन्ही घटनांच्या वाढीमुळे अपरिहार्यपणे त्यांचे छेदनबिंदू झाले. आज कंपन्यांना ईआरपीचे काय करायचे हा प्रश्न भेडसावत आहे डेटा वेअरहाऊस. या लेखात समस्या काय आहेत आणि कंपन्या त्या कशा सोडवत आहेत हे स्पष्ट करेल.

सुरूवातीला…

सुरुवातीला तेथे होते डेटा वेअरहाऊस. डेटा गोदाम व्यवहार प्रक्रिया अनुप्रयोग प्रणालीचा प्रतिकार करण्यासाठी तयार केले गेले. सुरुवातीच्या काळात चे memorization dati ते व्यवहार प्रक्रिया अनुप्रयोगांसाठी फक्त एक काउंटरपॉईंट म्हणून होते. पण आजकाल काय अत्याधुनिक दृष्टीकोन आहेत डेटा वेअरहाऊस. आजच्या जगात द डेटा वेअरहाऊस कॉर्पोरेट इन्फॉर्मेशन फॅक्टरी म्हणता येईल अशा संरचनेत ते समाविष्ट केले आहे.

कॉर्पोरेट माहिती कारखाना (सीआयएफ)

कॉर्पोरेट माहिती फॅक्टरीमध्ये मानक वास्तुशास्त्रीय घटक आहेत: परिवर्तनाचा स्तर आणि कोड एकत्रीकरण जे समाकलित करते dati जेव्हा मी dati ते ऍप्लिकेशन वातावरणातून पर्यावरणाकडे जातात डेटा वेअरहाऊस कंपनीच्या; a डेटा वेअरहाऊस कंपनीचे जेथे dati तपशीलवार आणि एकत्रित इतिहास. द डेटा वेअरहाऊस कंपनीचा पाया म्हणून काम करते ज्यावर कंपनीच्या पर्यावरणाचे इतर सर्व भाग बांधले जाऊ शकतात डेटा वेअरहाऊस; ऑपरेशनल डेटा स्टोअर (ODS). ODS ही एक संकरित रचना आहे ज्यामध्ये काही पैलू असतात डेटा वेअरहाऊस आणि OLTP वातावरणाचे इतर पैलू; डेटा मार्ट, जेथे विविध विभागांची स्वतःची आवृत्ती असू शकते डेटा वेअरहाऊस; अ डेटा वेअरहाऊस अन्वेषणाचे ज्यामध्ये कंपनीचे "तत्वज्ञानी" त्यांच्या 72-तासांच्या प्रश्नांना हानीकारक परिणाम न करता सबमिट करू शकतात डेटा वेअरहाऊस; आणि जवळची ओळ मेमरी, ज्यामध्ये dati जुने आणि dati मोठ्या प्रमाणात तपशील स्वस्तात साठवले जाऊ शकतात.

जेथे ERP LA सह सामील होते कॉर्पोरेट माहिती कारखाना

ईआरपी कॉर्पोरेट माहिती कारखान्यात दोन ठिकाणी विलीन होते. प्रथम मूलभूत अनुप्रयोग (बेसलाइन) म्हणून जे प्रदान करते i dati च्या अर्जाचा डेटा वेअरहाऊस. या प्रकरणात आय dati, व्यवहार प्रक्रियेचे उप-उत्पादन म्हणून व्युत्पन्न केलेले, समाकलित आणि लोड केले जातात डेटा वेअरहाऊस कंपनीच्या. ईआरपी आणि सीआयएफ आणि ओडीएसमधील युनियनचा दुसरा मुद्दा. खरं तर, बर्‍याच वातावरणात ERP चा वापर क्लासिक ODS म्हणून केला जातो.

जर ईआरपी मूळ ऍप्लिकेशन म्हणून वापरली जात असेल, तर तीच ईआरपी सीआयएफमध्ये ओडीएस म्हणून देखील वापरली जाऊ शकते. कोणत्याही परिस्थितीत, जर दोन्ही भूमिकांमध्ये ERP वापरायचे असेल तर, दोन घटकांमध्ये स्पष्ट फरक असणे आवश्यक आहे. दुसऱ्या शब्दांत, जेव्हा ईआरपी मूलभूत अनुप्रयोग आणि ओडीएसची भूमिका बजावते, तेव्हा दोन आर्किटेक्चरल घटकांमध्ये फरक करणे आवश्यक आहे. जर एकाच ERP अंमलबजावणीने दोन्ही भूमिका एकाच वेळी पार पाडण्याचा प्रयत्न केला तर त्या संरचनेच्या डिझाइन आणि अंमलबजावणीमध्ये अपरिहार्यपणे समस्या निर्माण होतील.

ओडीएस आणि मूलभूत अनुप्रयोग वेगळे करा

अनेक कारणे आहेत ज्यामुळे वास्तुशास्त्रीय घटकांचे विभाजन होते. आर्किटेक्चरचे वेगवेगळे घटक वेगळे करण्यासाठी कदाचित सर्वात महत्त्वाची समस्या म्हणजे आर्किटेक्चरच्या प्रत्येक घटकाचे स्वतःचे दृश्य आहे. बेसलाइन ऍप्लिकेशन ODS पेक्षा वेगळ्या उद्देशाने काम करते. ओव्हरलॅप करण्याचा प्रयत्न करा

ODS च्या जगावर बेसलाइन ऍप्लिकेशन दृश्य किंवा त्याउलट काम करण्याचा योग्य मार्ग नाही.

परिणामी, CIF मधील ERP ची पहिली समस्या म्हणजे बेसलाइन ऍप्लिकेशन्स आणि ODS मध्ये फरक आहे की नाही हे सत्यापित करणे.

कॉर्पोरेटमधील डेटा मॉडेल्स माहिती कारखाना

सीआयएफ आर्किटेक्चरच्या विविध घटकांमधील एकसंधता प्राप्त करण्यासाठी, एक मॉडेल असणे आवश्यक आहे dati. च्या मॉडेल्स dati ते बेसलाइन ऍप्लिकेशन्स आणि ODS सारख्या आर्किटेक्चरच्या विविध घटकांमधील दुवा म्हणून काम करतात. च्या मॉडेल्स dati CIF च्या विविध वास्तुशास्त्रीय घटकांमधून योग्य अर्थ मिळवण्यासाठी ते “बौद्धिक मार्ग नकाशा” बनतात.

या कल्पनेला हाताशी धरून, कल्पना अशी आहे की एक मोठे आणि एकच मॉडेल असावे dati. साहजिकच एक मॉडेल असावे dati प्रत्येक घटकासाठी आणि विविध मॉडेल्सना जोडणारा एक समंजस मार्गही असावा. आर्किटेक्चरचा प्रत्येक घटक - ODS, बेसलाइन ऍप्लिकेशन्स, डेटा वेअरहाऊस कंपनीचे, आणि असेच.. - स्वतःचे मॉडेल आवश्यक आहे dati. आणि म्हणून हे मॉडेल कसे आहेत याची अचूक व्याख्या असणे आवश्यक आहे dati ते एकमेकांशी संवाद साधतात.

हलवा I डेटा DATE मध्ये ERP च्या सावधान

ची उत्पत्ती असल्यास dati एक बेसलाइन अॅप्लिकेशन आणि/किंवा ODS आहे, जेव्हा ERP समाविष्ट करते i dati नेल डेटा वेअरहाऊस, हे समाविष्ट करणे "ग्रॅन्युलॅरिटी" च्या सर्वात खालच्या स्तरावर होणे आवश्यक आहे. फक्त सारांश किंवा एकत्रित करा i dati कारण ते ERP बेसलाइन ऍप्लिकेशनमधून बाहेर पडतात किंवा ERP ODS ही योग्य गोष्ट नाही. द dati मध्ये तपशील आवश्यक आहेत डेटा वेअरहाऊस DSS प्रक्रियेचा आधार तयार करण्यासाठी. अशा dati डेटा मार्ट्स आणि एक्सप्लोरेशन द्वारे अनेक प्रकारे आकार बदलला जाईल डेटा वेअरहाऊस.

चे विस्थापन dati ERP बेसलाइन ऍप्लिकेशन वातावरणापासून ते डेटा वेअरहाऊस कंपनीचे काम वाजवी आरामात केले जाते. ही हालचाल ERP मध्‍ये अपडेट किंवा निर्माण झाल्यानंतर साधारण 24 तासांनंतर होते. च्या "आळशी" चळवळ असण्याची वस्तुस्थिती dati नेल डेटा वेअरहाऊस कंपनी परवानगी देते dati ERP वरून "डिपॉझिट" वर येत आहे. एकदा मी dati बेसलाइन ऍप्लिकेशनमध्ये संग्रहित केले जातात, नंतर आपण सुरक्षितपणे हलवू शकता dati कंपनीतील ERP चे. च्या "आळशी" हालचालीमुळे साध्य करण्यायोग्य आणखी एक ध्येय dati हे ऑपरेशनल प्रक्रिया आणि DSS मधील स्पष्ट वर्णन आहे. च्या “जलद” हालचालीसह dati DSS आणि ऑपरेशनल यांच्यातील विभाजन रेषा अस्पष्ट राहते.

ची चळवळ dati ERP ODS पासून ते डेटा वेअरहाऊस कंपनीचे नियमितपणे केले जाते, सहसा साप्ताहिक किंवा मासिक. या प्रकरणात च्या हालचाली dati हे जुने "स्वच्छ" करण्याच्या गरजेवर आधारित आहे dati इतिहासकार अर्थात, ODS मध्ये i dati जे पेक्षा खूपच अलीकडील आहेत dati मध्ये इतिहासकार सापडले डेटा वेअरहाऊस.

चे विस्थापन dati नेल डेटा वेअरहाऊस हे जवळजवळ कधीच "घाऊक" (घाऊक व्यापारी पद्धतीने) केले जात नाही. ईआरपी वातावरणातील टेबल कॉपी करा डेटा वेअरहाऊस याचा काही अर्थ निघत नाही. च्या निवडलेल्या युनिट्स हलवणे हा अधिक वास्तववादी दृष्टीकोन आहे dati. फक्त द dati जे च्या शेवटच्या अपडेट पासून बदलले आहे डेटा वेअरहाऊस ते मध्ये हलविले पाहिजे की आहेत डेटा वेअरहाऊस. कोणते हे जाणून घेण्याचा एक मार्ग dati च्या टाइमस्टॅम्प पाहण्यासाठी शेवटचे अद्यतन बदलले आहे dati ERP वातावरणात आढळते. डिझायनर शेवटच्या अपडेटपासून झालेले सर्व बदल निवडतो. दुसरा दृष्टिकोन बदल कॅप्चर तंत्र वापरणे आहे dati. या तंत्रांसह, कोणते हे निर्धारित करण्यासाठी लॉग आणि जर्नल टेपचे विश्लेषण केले जाते dati ईआरपी वातावरणातून त्यामध्ये हलविले जाणे आवश्यक आहे डेटा वेअरहाऊस. ही तंत्रे सर्वोत्कृष्ट आहेत कारण लॉग आणि जर्नल टेप ईआरपी फायलींमधून इतर ईआरपी संसाधनांवर परिणाम न करता वाचता येतात.

इतर गुंतागुंत

CIF मधील ERP समस्यांपैकी एक म्हणजे इतर ऍप्लिकेशन स्त्रोतांचे किंवा ते काय होते dati ज्या ODS मध्ये योगदान देणे आवश्यक आहे डेटा वेअरहाऊस परंतु ते ERP वातावरणाचा भाग नाहीत. ईआरपीचे बंद स्वरूप लक्षात घेता, विशेषत: एसएपी, च्या बाह्य स्त्रोतांकडून कळा एकत्रित करण्याचा प्रयत्न dati मी सह dati जे हलवताना ERP मधून येतात dati नेल डेटा वेअरहाऊस, हे एक मोठे आव्हान आहे. आणि नक्की काय संभाव्यता आहेत की i dati ERP वातावरणाच्या बाहेरील अनुप्रयोग किंवा ODS मध्ये एकत्रित केले जातील डेटा वेअरहाऊस? शक्यता प्रत्यक्षात खूप जास्त आहेत.

शोधणे डेटा ERP कडून ऐतिहासिक

आय सह आणखी एक समस्या dati ईआरपी हे असण्याची गरज आहे dati आत इतिहासकार डेटा वेअरहाऊस. सहसा द डेटा वेअरहाऊस गरजा dati इतिहासकार आणि ईआरपी तंत्रज्ञान सहसा हे संग्रहित करत नाही dati ऐतिहासिक, किमान त्या बिंदूपर्यंत नाही जिथे ते आवश्यक आहे डेटा वेअरहाऊस. जेव्हा मोठ्या प्रमाणात dati ईआरपी वातावरणात इतिहास जोडणे सुरू होते, ते वातावरण स्वच्छ करणे आवश्यक आहे. उदाहरणार्थ, समजा की ए डेटा वेअरहाऊस पाच वर्षांनी लोड करणे आवश्यक आहे dati ऐतिहासिक डेटा तर ईआरपी जास्तीत जास्त सहा महिने ठेवते dati. जोपर्यंत कंपनी मालिका गोळा करण्यात समाधानी आहे dati जसजसा वेळ जातो तसतसे इतिहासकार, नंतर ईआरपीचा स्त्रोत म्हणून वापर करण्यात कोणतीही अडचण येत नाही डेटा वेअरहाऊस. पण जेव्हा द डेटा वेअरहाऊस त्याला वेळेत परत जावे लागेल आणि देव मिळवावे लागतील dati पूर्वी ERP द्वारे संग्रहित आणि जतन न केलेले इतिहास, नंतर ERP वातावरण अकार्यक्षम होते.

ईआरपी आणि मेटाडेटा

ERP बद्दल आणखी एक विचार करा e डेटा वेअरहाऊस ईआरपी वातावरणात अस्तित्वात असलेल्या मेटाडेटावरील एक आहे. जसा मेटाडेटा ईआरपी वातावरणातून आयटी वातावरणात जातो डेटा वेअरहाऊस, मेटाडेटा त्याच प्रकारे हलविला जाणे आवश्यक आहे. शिवाय, मेटाडेटाला पायाभूत सुविधांद्वारे आवश्यक स्वरूप आणि संरचनेत रूपांतरित करणे आवश्यक आहे. डेटा वेअरहाऊस. ऑपरेशनल मेटाडेटा आणि DSS मेटाडेटामध्ये मोठा फरक आहे. ऑपरेशनल मेटाडेटा प्रामुख्याने विकसक आणि

प्रोग्रामर DSS मेटाडेटा मुख्यतः अंतिम वापरकर्त्यासाठी आहे. ERP अनुप्रयोग किंवा ODS मध्ये विद्यमान मेटाडेटा रूपांतरित करणे आवश्यक आहे आणि हे रूपांतरण नेहमीच सोपे आणि सरळ नसते.

ईआरपी डेटा सोर्सिंग

जर ईआरपीचा प्रदाता म्हणून वापर केला असेल dati प्रति आयएल डेटा वेअरहाऊस हलवणारा ठोस इंटरफेस असणे आवश्यक आहे dati ERP वातावरणापासून पर्यावरणापर्यंत डेटा वेअरहाऊस. इंटरफेस आवश्यक आहे:

  • ▪  वापरण्यास सोपे असावे
  • ▪  ला प्रवेश द्या dati ERP च्या
  • ▪  चा अर्थ मिळवा dati कडे हलविण्यात येणार आहेत डेटा वेअरहाऊस
  • ▪  अॅक्सेस करताना उद्भवू शकणार्‍या ERP मर्यादा जाणून घ्या dati ERP चे:
  • ▪  संदर्भ अखंडता
  • ▪ पदानुक्रमित संबंध
  • ▪  निहित तार्किक संबंध
  • ▪  अर्ज अधिवेशन
  • ▪  सर्व संरचना dati ERP द्वारे समर्थित, आणि असेच…
  • ▪  प्रवेश करण्यात सक्षम व्हा dati, प्रदान करून:
  • ▪  ची थेट हालचाल dati
  • ▪  बदलाचे संपादन dati
  • ▪  समर्थन वेळेवर प्रवेश dati
  • ▪  चे स्वरूप समजून घ्या dati, आणि असेच… SAP सह इंटरफेसिंग इंटरफेस दोन प्रकारचे असू शकते, घरगुती किंवा व्यावसायिक. काही प्रमुख ट्रेडिंग इंटरफेसमध्ये हे समाविष्ट आहे:
  • ▪  एसएएस
  • ▪  Prims Solutions
  • ▪  D2k, आणि असेच… एकाधिक ईआरपी तंत्रज्ञान ERP पर्यावरणाला एकच तंत्रज्ञान असल्यासारखे वागवणे ही एक मोठी चूक आहे. अनेक ईआरपी तंत्रज्ञान आहेत, प्रत्येकाची स्वतःची ताकद आहे. बाजारातील सर्वात प्रसिद्ध विक्रेते आहेत:
  • ▪  एसएपी
  • ▪  Oracle Financials
  • ▪  PeopleSoft
  • ▪  जेडी एडवर्ड्स
  • ▪  बान सॅप SAP हे सर्वात मोठे आणि संपूर्ण ERP सॉफ्टवेअर आहे. SAP ऍप्लिकेशन्समध्ये अनेक क्षेत्रांमध्ये अनेक प्रकारच्या ऍप्लिकेशन्सचा समावेश होतो. SAP ची अशी प्रतिष्ठा आहे:
  • ▪  खूप मोठी
  • ▪  अंमलात आणणे खूप कठीण आणि महाग आहे
  • ▪  अंमलबजावणीसाठी अनेक लोक आणि सल्लागारांची आवश्यकता आहे
  • ▪  ला अंमलबजावणीसाठी विशेष लोकांची आवश्यकता आहे
  • ▪  अंमलबजावणीसाठी बराच वेळ लागतो शिवाय, SAP ची स्वतःची आठवण ठेवण्याची प्रतिष्ठा आहे dati अत्यंत सावधगिरीने, SAP क्षेत्राबाहेरील व्यक्तीला त्यांच्यामध्ये प्रवेश करणे कठीण होते. एसएपीची ताकद अशी आहे की ते मोठ्या प्रमाणात कॅप्चर आणि संचयित करण्यास सक्षम आहे dati. अलीकडेच SAP ने आपले अर्ज वाढवण्याचा आपला इरादा जाहीर केला डेटा वेअरहाऊस. विक्रेता म्हणून SAP वापरण्याचे अनेक साधक आणि बाधक आहेत डेटा वेअरहाऊस. एक फायदा असा आहे की SAP आधीच स्थापित आहे आणि बहुतेक सल्लागारांना आधीच SAP माहित आहे.
    पुरवठादार म्हणून SAP असण्याचे तोटे डेटा वेअरहाऊस अनेक आहेत: SAP च्या जगात अनुभव नाही डेटा वेअरहाऊस जर SAP चा पुरवठादार असेल डेटा वेअरहाऊस, "बाहेर काढणे" आवश्यक आहे i dati SAP पासून ते डेटा वेअरहाऊस. तारीख बंद सिस्टीमचा SAP चा ट्रॅक रेकॉर्ड, SAP मधून i (???) मध्ये आणणे सोपे होईल अशी शक्यता नाही. IMS, VSAM, ADABAS, ORACLE, DB2, आणि यासारख्या SAP ला सामर्थ्य देणारे अनेक परंपरागत वातावरण आहेत. SAP "येथे शोध लावला नाही" दृष्टिकोनावर आग्रह धरतो. SAP वापरण्यासाठी किंवा तयार करण्यासाठी इतर विक्रेत्यांसह भागीदारी करू इच्छित नाही डेटा वेअरहाऊस. SAP स्वतःचे सर्व सॉफ्टवेअर तयार करण्याचा आग्रह धरतो.

SAP ही एक मोठी आणि शक्तिशाली कंपनी असली तरी, ELT, OLAP, सिस्टीम अॅडमिनिस्ट्रेशन आणि अगदी मुख्य कोडचे तंत्रज्ञान पुन्हा लिहिण्याचा प्रयत्न करत आहे. डीबीएमएस तो फक्त वेडा आहे. च्या पुरवठादारांशी सहकार्याची वृत्ती घेण्याऐवजी डेटा वेअरहाऊस दीर्घकाळापासून, SAP ने "त्यांना सर्वोत्तम माहिती आहे" या दृष्टिकोनाचे अनुसरण केले आहे. ही वृत्ती SAP च्या क्षेत्रात मिळू शकणार्‍या यशात अडथळा आणते डेटा वेअरहाऊस.
SAP चा नकार बाह्य विक्रेत्यांना त्यांच्या विक्रेत्यांना त्वरित आणि कृपापूर्वक प्रवेश करण्यास अनुमती देण्यास dati. ए वापरण्याचे सार डेटा वेअरहाऊस सहज प्रवेश आहे dati. SAP चा संपूर्ण इतिहास प्रवेश करणे कठीण करण्यावर आधारित आहे dati.
च्या मोठ्या खंडांशी व्यवहार करताना SAP चा अनुभवाचा अभाव dati; च्या क्षेत्रात डेटा वेअरहाऊस च्या खंड आहेत dati SAP द्वारे कधीही पाहिले नाही आणि या मोठ्या प्रमाणात व्यवस्थापित करण्यासाठी dati आपल्याकडे योग्य तंत्रज्ञान असणे आवश्यक आहे. च्या क्षेत्रात प्रवेश करण्यासाठी अस्तित्वात असलेल्या या तांत्रिक अडथळ्याबद्दल SAP ला स्पष्टपणे माहिती नाही डेटा वेअरहाऊस.
SAP ची कॉर्पोरेट संस्कृती: SAP ने मिळवून एक व्यवसाय केला आहे dati प्रणाली पासून. पण हे करण्यासाठी तुमची मानसिकता वेगळी असावी लागते. पारंपारिकपणे, सॉफ्टवेअर कंपन्या ज्या वातावरणात डेटा मिळवण्यात चांगल्या होत्या त्या इतर मार्गाने डेटा मिळवण्यात चांगल्या नाहीत. SAP ने या प्रकारचा स्विच बनवल्यास, असे करणारी ती पहिली कंपनी असेल.

थोडक्यात, कंपनीने पुरवठादार म्हणून SAP निवडावे की नाही हे शंकास्पद आहे डेटा वेअरहाऊस. एकीकडे खूप गंभीर धोके आहेत आणि दुसरीकडे फारच कमी बक्षिसे आहेत. परंतु आणखी एक कारण आहे जे पुरवठादार म्हणून SAP निवडण्यास परावृत्त करते डेटा वेअरहाऊस. कारण प्रत्येक कंपनी सारखीच असावी डेटा वेअरहाऊस इतर सर्व कंपन्यांचे? द डेटा वेअरहाऊस हे स्पर्धात्मक फायद्याचे हृदय आहे. जर प्रत्येक कंपनीने असाच अवलंब केला डेटा वेअरहाऊस स्पर्धात्मक फायदा मिळवणे अशक्य असले तरी अवघड असेल. SAP असे वाटते की ए डेटा वेअरहाऊस हे कुकी म्हणून पाहिले जाऊ शकते आणि हे त्यांच्या अनुप्रयोगांच्या "डेटा मिळवा" च्या मानसिकतेचे आणखी एक चिन्ह आहे.

इतर कोणताही ईआरपी विक्रेता SAP सारखा प्रबळ नाही. निःसंशयपणे अशा कंपन्या असतील ज्या त्यांच्यासाठी SAP च्या मार्गाचे अनुसरण करतील डेटा वेअरहाऊस पण बहुधा या डेटा वेअरहाऊस SAP तयार करण्यासाठी मोठा, महाग आणि वेळ घेणारा असेल.

या वातावरणात बँक टेलर प्रक्रिया, एअरलाइन आरक्षण प्रक्रिया, विमा दाव प्रक्रिया इत्यादीसारख्या क्रियाकलापांचा समावेश होतो. व्यवहार प्रणाली जितकी अधिक कार्यक्षम होती, तितकीच ऑपरेशनल प्रक्रिया आणि DSS (निर्णय समर्थन प्रणाली) यांच्यात विभक्त होण्याची गरज अधिक स्पष्ट होती. तथापि, एचआर आणि कर्मचारी प्रणालीसह, तुम्हाला कधीही मोठ्या प्रमाणात व्यवहारांचा सामना करावा लागत नाही. आणि, अर्थातच, जेव्हा एखादी व्यक्ती कामावर घेतली जाते किंवा कंपनी सोडते तेव्हा हा व्यवहाराचा रेकॉर्ड असतो. परंतु इतर प्रणालींच्या तुलनेत, HR आणि कर्मचारी प्रणालींमध्ये फक्त जास्त व्यवहार नसतात. म्हणून, एचआर आणि कर्मचारी प्रणालींमध्ये हे पूर्णपणे स्पष्ट नाही की डेटावेअरहाऊसची आवश्यकता आहे. अनेक प्रकारे या प्रणाली DSS प्रणालींचे एकत्रीकरण दर्शवतात.

परंतु आणखी एक घटक आहे ज्याचा विचार केला पाहिजे जर तुम्ही डेटा वेअरहाऊस आणि पीपलसॉफ्टशी व्यवहार करत असाल. अनेक वातावरणात, i dati कंपनीच्या प्राथमिक व्यवसायासाठी मानवी आणि वैयक्तिक संसाधने दुय्यम आहेत. बर्‍याच कंपन्या उत्पादन, विक्री, सेवा प्रदान करणे इत्यादींमध्ये व्यस्त असतात. मानवी संसाधने आणि कर्मचारी प्रणाली सहसा कंपनीच्या व्यवसायाच्या मुख्य ओळीत (किंवा समर्थन) दुय्यम असतात. म्हणून, ते विवादास्पद आणि गैरसोयीचे आहे डेटा वेअरहाऊस मानवी संसाधने आणि कर्मचारी समर्थनासाठी वेगळे.

पीपलसॉफ्ट या बाबतीत SAP पेक्षा खूप वेगळे आहे. SAP सह, हे अनिवार्य आहे की ए डेटा वेअरहाऊस. PeopleSoft सह, हे इतके स्पष्ट नाही. पीपलसॉफ्टसह डेटा वेअरहाऊस पर्यायी आहे.

i साठी सर्वात चांगली गोष्ट म्हणता येईल dati पीपलसॉफ्ट म्हणजे द डेटा वेअरहाऊस संग्रहित करण्यासाठी वापरले जाऊ शकते i dati जुन्या मानवी आणि वैयक्तिक संसाधनांशी संबंधित. कंपनी का वापरू इच्छिते याचे दुसरे कारण a डेटा वेअरहाऊस a

पीपलसॉफ्ट पर्यावरणाचे नुकसान म्हणजे प्रवेश आणि विश्लेषण साधनांना विनामूल्य प्रवेश देणे dati PeopleSoft द्वारे. परंतु या कारणांच्या पलीकडे, अशी काही प्रकरणे असू शकतात ज्यासाठी डेटा वेअरहाऊस नसणे श्रेयस्कर आहे dati पीपलसॉफ्ट.

सारांश

ए च्या बांधकामाबाबत अनेक कल्पना आहेत डेटा वेअरहाऊस ईआरपी सॉफ्टवेअरमध्ये.
यापैकी काही आहेत:

  • ▪  असण्यात अर्थ आहे डेटा वेअरहाऊस उद्योगातील इतर कोणाशी ते समान आहे?
  • ▪  ईआरपी किती लवचिक आहे डेटा वेअरहाऊस सॉफ्टवेअर
  • ▪  एक ERP डेटा वेअरहाऊस सॉफ्टवेअरची मात्रा हाताळू शकते dati जे a मध्ये स्थित आहेडेटा वेअरहाऊस रिंगण"?
  • ▪  ईआरपी विक्रेता हे ट्रेस रेकॉर्डिंग काय आहे जे सोपे आणि स्वस्त, वेळेच्या दृष्टीने, dati? (ईआरपी विक्रेते स्वस्त, वेळेवर, डेटा ऍक्सेस करण्यास सुलभ वितरणाचा ट्रॅक रेकॉर्ड काय आहे?)
  • ▪  DSS आर्किटेक्चर आणि कॉर्पोरेट माहिती फॅक्टरीबद्दल ERP विक्रेत्याची समज काय आहे?
  • ▪  ईआरपी विक्रेत्यांना कसे साध्य करायचे हे समजते dati वातावरणात, परंतु त्यांना ते कसे निर्यात करायचे हे देखील समजते का?
  • ▪  डेटा वेअरहाउसिंग टूल्ससाठी ERP विक्रेता किती खुला आहे?
    कोठे ठेवायचे हे ठरवताना हे सर्व विचार करणे आवश्यक आहे डेटा वेअरहाऊस जे होस्ट करेल i dati ईआरपी आणि इतर dati. सर्वसाधारणपणे, अन्यथा करण्याचे सक्तीचे कारण नसल्यास, इमारत बांधण्याची शिफारस केली जाते डेटा वेअरहाऊस ईआरपी विक्रेत्याच्या वातावरणाच्या बाहेर. प्रकरण १ BI संस्थेचे विहंगावलोकन प्रमुख मुद्दे:
    माहिती भांडार व्यवसाय बुद्धिमत्ता (BI) आर्किटेक्चरच्या उलट कार्य करतात:
    कॉर्पोरेट संस्कृती आणि आयटी BI संस्था तयार करण्यात यश मर्यादित करू शकतात.

BI संस्थांसाठी तंत्रज्ञान आता मर्यादित घटक राहिलेले नाही. वास्तुविशारद आणि प्रकल्प नियोजकांसाठी प्रश्न हे तंत्रज्ञान अस्तित्वात आहे की नाही हा नसून ते उपलब्ध तंत्रज्ञानाची प्रभावीपणे अंमलबजावणी करू शकतात का हा आहे.

अनेक कंपन्यांसाठी ए डेटा वेअरहाऊस हे वितरीत करणार्‍या निष्क्रिय ठेवीपेक्षा थोडे अधिक आहे dati ज्या वापरकर्त्यांना त्याची गरज आहे. द dati ते स्त्रोत प्रणालींमधून काढले जातात आणि लक्ष्य संरचनांमध्ये समाविष्ट केले जातात डेटा वेअरहाऊस. मी dati ते कोणत्याही नशिबाने देखील साफ केले जाऊ शकतात. तथापि कोणतेही अतिरिक्त मूल्य जोडलेले किंवा गोळा केलेले नाही dati या प्रक्रियेदरम्यान.

मूलत:, निष्क्रिय Dw, सर्वोत्तम, फक्त i प्रदान करते dati वापरकर्ता संघटनांसाठी स्वच्छ आणि कार्यरत. माहिती निर्मिती आणि विश्लेषणात्मक समज पूर्णपणे वापरकर्त्यांवर अवलंबून आहे. DW (डेटा गोदाम) यश व्यक्तिनिष्ठ आहे. जर आम्ही कार्यक्षमतेने गोळा, समाकलित आणि स्वच्छ करण्याच्या क्षमतेवर यशाचा न्याय केला dati अंदाजानुसार कॉर्पोरेट, नंतर होय, DW यशस्वी आहे. दुसरीकडे, जर आपण संपूर्ण संस्थेतील माहितीचे संकलन, एकत्रीकरण आणि शोषण पाहिल्यास, DW अपयशी आहे. DW माहितीचे थोडे किंवा कोणतेही मूल्य प्रदान करते. परिणामी, वापरकर्त्यांना डू करण्यास भाग पाडले जाते, अशा प्रकारे माहिती सिलो तयार केली जाते. हा धडा कंपनीच्या BI (बिझनेस इंटेलिजन्स) आर्किटेक्चरचा सारांश देण्यासाठी एक व्यापक दृष्टीकोन सादर करतो. आम्ही BI च्या वर्णनाने सुरुवात करतो आणि नंतर फक्त माहिती देण्याच्या विरोधात, माहिती डिझाइन आणि विकासाच्या चर्चेकडे जातो. dati वापरकर्त्यांना. चर्चा नंतर तुमच्या BI प्रयत्नांचे मूल्य मोजण्यावर लक्ष केंद्रित करतात. IBM तुमच्या संस्थेच्या BI आर्किटेक्चरल आवश्यकता कशा पूर्ण करते हे परिभाषित करून आम्ही निष्कर्ष काढतो.

च्या आर्किटेक्चरचे वर्णन BI संस्था

जगभरातील कॉर्पोरेशन्ससाठी प्रभावीपणे खेळाचे क्षेत्र समतल करून, प्रत्येक मोठ्या एंटरप्राइझमध्ये शक्तिशाली व्यवहार-देणारं माहिती प्रणाली आता सामान्य आहे.

तथापि, स्पर्धात्मक राहण्यासाठी आता विश्‍लेषणाभिमुख प्रणालींची आवश्यकता आहे जी कंपनीच्या त्यांच्याकडे आधीपासून असलेली माहिती पुन्हा शोधण्याच्या आणि वापरण्याच्या क्षमतेत क्रांती घडवू शकते. ची समृद्धता समजून घेण्यापासून या विश्लेषणात्मक प्रणाली प्राप्त होतात dati उपलब्ध. BI संपूर्ण एंटरप्राइझमध्ये कार्यप्रदर्शन सुधारू शकते. कंपन्या ग्राहक-पुरवठादार संबंध सुधारू शकतात, उत्पादने आणि सेवांची नफा सुधारू शकतात, नवीन आणि चांगल्या ऑफर निर्माण करू शकतात, जोखीम नियंत्रित करू शकतात आणि इतर अनेक नफ्यांमध्ये नाटकीयरित्या खर्च कमी करू शकतात. BI सह तुमची कंपनी शेवटी ग्राहकांची माहिती एक स्पर्धात्मक मालमत्ता म्हणून वापरण्यास सुरुवात करते, ज्यांचे बाजार उद्दिष्टे असलेले अनुप्रयोग आहेत.

योग्य व्यवसाय साधने असणे म्हणजे मुख्य प्रश्नांची निश्चित उत्तरे असणे जसे की:

  • ▪  आमच्यापैकी कोणते ग्राहकांना ते आम्हाला अधिक कमावतात किंवा ते आमचे पैसे गमावतात?
  • ▪  जिथे आमचे सर्वोत्तम राहतात ग्राहकांना संबंधात दुकान/ गोदाम ते वारंवार?
  • ▪  आमची कोणती उत्पादने आणि सेवा सर्वात प्रभावीपणे आणि कोणाला विकली जाऊ शकतात?
  • ▪ कोणती उत्पादने सर्वात प्रभावीपणे आणि कोणाला विकली जाऊ शकतात?
  • ▪ कोणती विक्री मोहीम सर्वाधिक यशस्वी आहे आणि का?
  • ▪ कोणते विक्री चॅनेल कोणत्या उत्पादनांसाठी सर्वात प्रभावी आहेत?
  • ▪  आम्ही आमच्या सर्वोत्तम लोकांशी संबंध कसे सुधारू शकतो ग्राहकांना? बहुतेक कंपन्यांकडे आहे dati या प्रश्नांची उत्तरे देण्यासाठी कठोर मार्ग.
    ऑपरेशनल सिस्टम मोठ्या प्रमाणात उत्पादन, ग्राहक आणि तयार करतात dati विक्री बिंदू, आरक्षणे, ग्राहक सेवा आणि तांत्रिक समर्थन प्रणाली पासून बाजार. ही माहिती काढणे आणि त्याचा फायदा घेणे हे आव्हान आहे. बर्‍याच कंपन्या फक्त त्यांच्या छोट्या अंशातून नफा मिळवतात dati धोरणात्मक विश्लेषणासाठी.
    I dati उर्वरित, अनेकदा i सह सामील झाले dati सरकारी अहवाल आणि इतर खरेदी केलेली माहिती यांसारख्या बाह्य स्रोतांमधून मिळवलेली सोन्याची खाण फक्त शोधण्याची वाट पाहत आहे आणि dati त्यांना फक्त तुमच्या संस्थेच्या माहितीच्या संदर्भात परिष्कृत करणे आवश्यक आहे.

हे ज्ञान एकंदर कॉर्पोरेट धोरण तयार करण्यापासून ते पुरवठादारांशी वैयक्तिक संप्रेषणापर्यंत, कॉल सेंटरद्वारे, इनव्हॉइसिंगद्वारे, अनेक प्रकारे लागू केले जाऊ शकते. इंटरनेट आणि इतर मुद्दे. आजचे व्यावसायिक वातावरण असे ठरवते की DW आणि संबंधित BI सोल्यूशन्स पारंपारिक व्यवसाय संरचना चालवण्यापलीकडे विकसित होतात. dati जे i dati अणु स्तरावर आणि "स्टार/क्यूब फार्म्स" वर सामान्यीकृत.

स्पर्धात्मक राहण्यासाठी जे आवश्यक आहे ते एक विशाल विश्लेषणात्मक लँडस्केपला समर्थन देण्यासाठी पारंपारिक आणि प्रगत तंत्रज्ञानाचे मिश्रण आहे.
निष्कर्ष काढण्यासाठी, सामान्य वातावरणाने संपूर्णपणे कंपनीचे ज्ञान सुधारले पाहिजे, हे सुनिश्चित केले पाहिजे की केलेल्या विश्लेषणाच्या परिणामी केलेल्या कृती उपयुक्त आहेत जेणेकरून प्रत्येकाला फायदा होईल.

उदाहरणार्थ, समजा तुम्ही तुमचे वर्गीकरण करा ग्राहकांना उच्च किंवा कमी जोखीम श्रेणींमध्ये.
जर ही माहिती मॉडेल एक्स्ट्रॅक्टर किंवा इतर माध्यमांद्वारे व्युत्पन्न केली गेली असेल, तर ती DW मध्ये टाकली जाणे आवश्यक आहे आणि स्टॅटिक रिपोर्ट्स, स्प्रेडशीट्स, टेबल्स किंवा ऑनलाइन विश्लेषणात्मक प्रक्रिया (OLAP) सारख्या कोणत्याही प्रवेश साधनाद्वारे कोणालाही प्रवेशयोग्य करणे आवश्यक आहे. .

तथापि, सध्या या प्रकारची बरीचशी माहिती सायलोमध्ये राहते dati विश्लेषण निर्माण करणाऱ्या व्यक्ती किंवा विभागांचे. संस्था, एकंदरीत, समजण्यासाठी कमी किंवा दृश्यमानता नाही. केवळ तुमच्या एंटरप्राइझ DW मध्ये या प्रकारच्या माहिती सामग्रीचे मिश्रण करून तुम्ही माहितीचे सिलो काढून टाकू शकता आणि तुमचे DW वातावरण उन्नत करू शकता.
BI संस्था विकसित करण्यात दोन प्रमुख अडथळे आहेत.
प्रथम, आपल्याला स्वतः संस्थेची आणि तिच्या शिस्तीची समस्या आहे.
आम्ही संस्थात्मक धोरणातील बदलांमध्ये मदत करू शकत नसलो तरी, आम्ही संस्थेच्या BI चे घटक, त्याची रचना आणि IBM तंत्रज्ञान त्याचा विकास कसा सुलभ करते हे समजून घेण्यात मदत करू शकतो.
मात करण्यासाठी दुसरा अडथळा म्हणजे एकात्मिक तंत्रज्ञानाचा अभाव आणि एका लहान घटकाच्या विरूद्ध संपूर्ण BI जागा समाविष्ट असलेल्या पद्धतीचे ज्ञान.

IBM इंटिग्रेशन तंत्रज्ञानातील बदलांसह पकड घेत आहे. विचारपूर्वक डिझाइन प्रदान करणे ही आपली जबाबदारी आहे. हे आर्किटेक्चर अनियंत्रित एकीकरणासाठी निवडलेल्या तंत्रज्ञानासह किंवा अगदी कमीत कमी, खुल्या मानकांचे पालन करणाऱ्या तंत्रज्ञानासह विकसित केले जाणे आवश्यक आहे. शिवाय, तुमच्या कंपनी व्यवस्थापनाने हे सुनिश्चित केले पाहिजे की BI उपक्रम योजनेनुसार पार पाडला जातो आणि सेल्फ-सर्व्हिंग अजेंडा किंवा उद्दिष्टांमधून उद्भवलेल्या माहितीच्या सायलोच्या विकासास परवानगी देऊ नये.
याचा अर्थ असा नाही की BI वातावरण वेगवेगळ्या वापरकर्त्यांच्या विविध गरजा आणि आवश्यकतांवर प्रतिक्रिया देण्यास संवेदनशील नाही; त्याऐवजी, याचा अर्थ असा की त्या वैयक्तिक गरजा आणि आवश्यकतांची अंमलबजावणी संपूर्ण BI संस्थेच्या फायद्यासाठी केली जाते.
BI संस्था आर्किटेक्चरचे वर्णन आकृती 9 मधील पृष्ठ 1.1 वर आढळू शकते. आर्किटेक्चर तंत्रज्ञान आणि तंत्रांचे समृद्ध मिश्रण प्रदर्शित करते.
पारंपारिक दृष्टिकोनातून, आर्किटेक्चरमध्ये खालील गोदाम घटक समाविष्ट आहेत

अणु स्तर.

हा पाया आहे, संपूर्ण DW चे हृदय आणि म्हणूनच धोरणात्मक अहवालाचा.
I dati येथे संग्रहित ऐतिहासिक अखंडता, संबंध टिकवून ठेवेल dati आणि व्युत्पन्न मेट्रिक्स, तसेच काढलेल्या मॉडेल्सचा वापर करून साफ ​​करणे, एकत्रित करणे आणि संग्रहित करणे समाविष्ट करा.
या सर्व पुढील वापर dati आणि संबंधित माहिती या संरचनेतून मिळविली जाते. खाणकामासाठी हा उत्तम स्रोत आहे dati आणि संरचित SQL क्वेरींसह अहवालांसाठी

चे ऑपरेशनल डेपो dati किंवा त्यावर आधारित अहवाल dati(ऑपरेशनल डेटा स्टोअर (ODS) किंवा रिपोर्टिंग डेटाबेस.)

ची ही रचना आहे dati विशेषतः तांत्रिक अहवालासाठी डिझाइन केलेले.

I dati संग्रहित आणि वर नोंदवलेल्या या संरचना शेवटी स्टेजिंग क्षेत्राद्वारे वेअरहाऊसमध्ये प्रसारित होऊ शकतात, जेथे ते धोरणात्मक सिग्नलिंगसाठी वापरले जाऊ शकते.

स्टेजिंग क्षेत्र.

बहुतेकांसाठी पहिला थांबा dati वेअरहाऊस पर्यावरणासाठी अभिप्रेत संस्था क्षेत्र आहे.
येथे आय dati ते समाकलित, स्वच्छ आणि रूपांतरित केले जातात dati नफा जे वेअरहाऊस संरचना तयार करेल

डेटा मार्ट्स.

आर्किटेक्चरचा हा भाग संरचनेचे प्रतिनिधित्व करतो dati विशेषतः OLAP साठी वापरले जाते. डेटामार्टची उपस्थिती, जर i dati ओव्हरलॅपिंग स्टार स्कीमामध्ये संग्रहित केले जातात dati रिलेशनल वातावरणात किंवा च्या फायलींमध्ये बहुआयामी dati विशिष्ट OLAP तंत्रज्ञानाद्वारे वापरलेले गोपनीय, जसे की DB2 OLAP सर्व्हर, संबंधित नाही.

फक्त अडचण अशी आहे की आर्किटेक्चर वापरण्यास सुलभ करते dati बहुआयामी.
आर्किटेक्चरमध्ये गंभीर BI तंत्रज्ञान आणि तंत्रे देखील समाविष्ट आहेत जी खालीलप्रमाणे आहेत:

अवकाशीय विश्लेषण

विश्लेषकासाठी स्पेस ही माहितीचा विंडफॉल आहे आणि पूर्ण रिझोल्यूशनसाठी ती महत्त्वाची आहे. स्पेस एखाद्या विशिष्ट ठिकाणी राहणार्‍या लोकांबद्दलची माहिती तसेच इतर जगाच्या तुलनेत ते स्थान भौतिकदृष्ट्या कोठे आहे याबद्दलची माहिती दर्शवू शकते.

हे विश्लेषण करण्यासाठी, तुम्ही तुमची माहिती अक्षांश आणि रेखांश निर्देशांकांशी जोडून सुरुवात केली पाहिजे. याला "जिओकोडिंग" म्हणून संबोधले जाते आणि ते तुमच्या वेअरहाऊसच्या अणू स्तरावरील अर्क, ट्रान्सफॉर्म आणि लोड (ETL) प्रक्रियेचा भाग असणे आवश्यक आहे.

डेटा खाण.

च्या उतारा dati आमच्या कंपन्यांची संख्या वाढू देते ग्राहकांना, विक्रीच्या ट्रेंडचा अंदाज लावण्यासाठी आणि सह संबंधांचे व्यवस्थापन करण्यास अनुमती देण्यासाठी ग्राहकांना (सी आर एम), इतर BI उपक्रमांमध्ये.

च्या उतारा dati म्हणून ते च्या संरचनेसह एकत्रित केले पाहिजे dati DWhouse चे आणि तंत्रज्ञान आणि संबंधित तंत्रांचा प्रभावी आणि कार्यक्षम वापर सुनिश्चित करण्यासाठी वेअरहाऊस प्रक्रियेद्वारे समर्थित.

BI आर्किटेक्चरमध्ये दर्शविल्याप्रमाणे, Dwhouse ची अणु पातळी, तसेच डेटामार्ट्स, एक उत्कृष्ट स्त्रोत आहे dati काढण्यासाठी. त्या समान सुविधा देखील विस्तृत प्रेक्षकांसाठी उपलब्धता सुनिश्चित करण्यासाठी निष्कर्ष निकालांचे प्राप्तकर्ते असणे आवश्यक आहे.

एजंट्स.

प्रत्येक बिंदूसाठी ग्राहकाची तपासणी करण्यासाठी विविध "एजंट" आहेत जसे की, कंपनीच्या कार्यप्रणाली आणि स्वतः dw. हे एजंट प्रगत न्यूरल नेटवर्क्स असू शकतात जे प्रत्येक टप्प्यावर ट्रेंडबद्दल जाणून घेण्यासाठी प्रशिक्षित आहेत, जसे की विक्रीच्या जाहिरातींवर आधारित भविष्यातील उत्पादनाची मागणी, एखाद्याला प्रतिक्रिया देण्यासाठी नियम-आधारित इंजिन डेटा परिस्थितीचा संच, किंवा अगदी साधे एजंट जे "उच्च अधिकाऱ्यांना" अपवाद नोंदवतात. या प्रक्रिया सामान्यतः रिअल टाइममध्ये घडतात आणि म्हणूनच, त्यांच्या हालचालींशी जवळून जोडल्या गेल्या पाहिजेत dati. च्या या सर्व संरचना dati, तंत्रज्ञान आणि तंत्रे हमी देतात की तुम्ही तुमच्या BI ची संस्था तयार करण्यात रात्र घालवणार नाही.

हा क्रियाकलाप लहान मुद्द्यांसाठी वाढीव चरणांमध्ये विकसित केला जाईल.
प्रत्येक पायरी हा एक स्वतंत्र प्रकल्प प्रयत्न असतो आणि आपल्या DW किंवा BI उपक्रमामध्ये पुनरावृत्ती म्हणून संदर्भित केला जातो. पुनरावृत्तीमध्ये नवीन तंत्रज्ञान लागू करणे, नवीन तंत्रांसह प्रारंभ करणे, नवीन संरचना जोडणे समाविष्ट असू शकते dati , लोड होत आहे i dati अतिरिक्त, किंवा आपल्या पर्यावरणाच्या विश्लेषणाच्या विस्तारासह. या परिच्छेदाची 3 व्या अध्यायात अधिक सखोल चर्चा केली आहे.

पारंपारिक DW स्ट्रक्चर्स आणि BI टूल्स व्यतिरिक्त तुमच्या BI संस्थेची इतर कार्ये आहेत ज्यासाठी तुम्हाला डिझाइन करणे आवश्यक आहे, जसे की:

ग्राहक स्पर्श बिंदू (ग्राहक स्पर्श गुण).

कोणत्याही आधुनिक संस्थेप्रमाणेच अनेक ग्राहक टचपॉइंट्स आहेत जे तुमच्यासाठी सकारात्मक अनुभव कसा घ्यावा हे सूचित करतात ग्राहकांना. किरकोळ विक्रेते, स्विचबोर्ड ऑपरेटर, डायरेक्ट मेल, मल्टीमीडिया आणि प्रिंट जाहिराती, तसेच ईमेल आणि वेब यांसारख्या अधिक वर्तमान चॅनेल आहेत. dati काही संपर्क बिंदू असलेली उत्पादने अधिग्रहित करणे, वाहतूक करणे, साफ करणे, प्रक्रिया करणे आणि नंतर सुविधांमध्ये पॉप्युलेट करणे आवश्यक आहे dati BI च्या.

च्या मुलभूत गोष्टी dati ऑपरेशनल आणि यूजर असोसिएशन (ऑपरेशनल

डेटाबेस आणि वापरकर्ता समुदाय).
च्या संपर्क बिंदूंच्या शेवटी ग्राहकांना च्या पाया सापडतात dati कंपनीचा अनुप्रयोग आणि वापरकर्ता समुदाय. द dati विद्यमान आहेत dati पारंपारिक जे एकत्र आणले पाहिजे आणि विलीन केले पाहिजे dati आवश्यक माहिती पूर्ण करण्यासाठी संपर्क बिंदूंमधून प्रवाह.

विश्लेषक. (विश्लेषक)

BI पर्यावरणाचा प्राथमिक लाभार्थी विश्लेषक आहे. च्या वर्तमान उतारा पासून फायदा तो आहे dati कार्यरत, विविध स्त्रोतांसह एकत्रित dati , भौगोलिक विश्लेषण (जिओकोडिंग) सारख्या वैशिष्ट्यांसह संवर्धित आणि BI तंत्रज्ञानामध्ये सादर केले जे एक्स्ट्रक्शन, OLAP, प्रगत SQL रिपोर्टिंग आणि भौगोलिक विश्लेषण सक्षम करते. अहवाल वातावरणासाठी प्राथमिक विश्लेषक इंटरफेस BI पोर्टल आहे.

तथापि, BI आर्किटेक्चरचा फायदा घेणारा विश्लेषक एकमेव नाही.
व्यवस्थापक, मोठ्या वापरकर्ता संघटना आणि अगदी सदस्य, पुरवठादार आणि ग्राहकांना त्यांना एंटरप्राइझ BI मध्ये फायदे मिळायला हवेत.

बॅक-फीड लूप.

BI आर्किटेक्चर हे शिकण्याचे वातावरण आहे. च्या सतत संरचनांना परवानगी देणे हे विकासाचे वैशिष्ट्यपूर्ण तत्त्व आहे dati वापरलेल्या BI तंत्रज्ञानाद्वारे आणि वापरकर्त्याने केलेल्या कृतींद्वारे अद्यतनित केले जावे. ग्राहक स्कोअरिंग हे एक उदाहरण आहे.

जर विक्री विभाग नवीन सेवा वापरण्यासाठी ग्राहकांच्या स्कोअरचे मॉडेल तयार करत असेल, तर सेवेचा लाभ घेणारा एकमेव गट विक्री विभाग नसावा.

त्याऐवजी, एंटरप्राइझमधील डेटा प्रवाहाचा नैसर्गिक भाग म्हणून मॉडेल एक्सट्रॅक्शन केले जावे आणि ग्राहक स्कोअर सर्व वापरकर्त्यांसाठी दृश्यमान, वेअरहाऊस माहिती संदर्भाचा एक एकीकृत भाग बनला पाहिजे. DB2 UDB, DB2 OLAP सर्व्हरसह IBM च्या द्वि-द्वि-केंद्रित सूटमध्ये आकृती 1.1 मध्ये परिभाषित केलेले बहुतेक प्रमुख तंत्रज्ञान घटक समाविष्ट आहेत.

पुस्तकातील या चित्रात दिसते त्याप्रमाणे आम्ही आर्किटेक्चरचा वापर आम्हाला सातत्य पातळी देण्यासाठी आणि प्रत्येक IBM उत्पादन एकूण BI योजनेमध्ये कसे बसते हे दाखवण्यासाठी करतो.

माहिती सामग्री प्रदान करणे (प्रदान करणे माहिती सामग्री)

तुमच्या BI वातावरणाची रचना, विकास आणि अंमलबजावणी करणे हे एक कठीण काम आहे. डिझाईनमध्ये सध्याच्या आणि भविष्यातील अशा दोन्ही प्रकारच्या व्यवसाय आवश्यकतांचा समावेश करणे आवश्यक आहे. डिझाइन टप्प्यात सापडलेल्या सर्व निष्कर्षांचा समावेश करण्यासाठी आर्किटेक्चरल रेखांकन पूर्ण असणे आवश्यक आहे. अंमलबजावणी एकाच उद्देशासाठी वचनबद्ध राहणे आवश्यक आहे: औपचारिकपणे डिझाइनमध्ये सादर केल्याप्रमाणे आणि व्यावसायिक आवश्यकतांनुसार BI आर्किटेक्चर विकसित करणे.

शिस्त सापेक्ष यश सुनिश्चित करेल असा युक्तिवाद करणे विशेषतः कठीण आहे.
हे सोपे आहे कारण तुम्ही एकाच वेळी BI वातावरण विकसित करत नाही, परंतु तुम्ही ते कालांतराने छोट्या चरणांमध्ये करता.

तथापि, तुमच्या आर्किटेक्चरचे BI घटक ओळखणे दोन कारणांसाठी महत्त्वाचे आहे: तुम्ही पुढील सर्व तांत्रिक आर्किटेक्चर निर्णयांचे मार्गदर्शन कराल.
अनेक महिन्यांपर्यंत तंत्रज्ञानाची आवश्यकता असताना तुम्हाला पुनरावृत्ती मिळणार नसली तरीही तुम्ही जाणीवपूर्वक तंत्रज्ञानाच्या विशिष्ट वापराचे नियोजन करू शकाल.

तुमच्‍या व्‍यवसाय आवश्‍यकता पुरेशा प्रमाणात समजून घेण्‍यामुळे तुम्‍ही तुमच्‍या आर्किटेक्‍चरसाठी कोणत्‍या प्रकारची उत्‍पादने घेता यावर परिणाम होईल.
आपल्या आर्किटेक्चरची रचना आणि विकास करणे हे सुनिश्चित करते की आपले कोठार आहे

एक यादृच्छिक घटना नाही, तर एक काळजीपूर्वक तयार केलेला "सुविचार" आहे. संगीत नाटक मिश्र तंत्रज्ञानाचे मोज़ेक म्हणून कला.

माहिती सामग्री डिझाइन करा

सर्व प्रारंभिक डिझाईनमध्ये आता आणि भविष्यात एकूण वातावरणासाठी आवश्यक असणार्‍या मुख्य BI घटकांवर लक्ष केंद्रित करणे आणि ओळखणे आवश्यक आहे.
व्यवसायाच्या गरजा जाणून घेणे महत्त्वाचे आहे.

कोणतीही औपचारिक रचना सुरू होण्यापूर्वीच, प्रकल्प नियोजक अनेकदा एक किंवा दोन घटक लगेच ओळखू शकतो.
तथापि, आपल्या आर्किटेक्चरसाठी आवश्यक असलेल्या घटकांचा समतोल सहज सापडत नाही. डिझाइन टप्प्यात, आर्किटेक्चरचा मुख्य भाग व्यावसायिक आवश्यकता ओळखण्यासाठी संशोधनावर ऍप्लिकेशन डेव्हलपमेंट (जेएडी) सत्राशी जोडतो.

कधीकधी या आवश्यकता क्वेरी आणि रिपोर्टिंग साधनांवर सोपवल्या जाऊ शकतात.
उदाहरणार्थ, वापरकर्ते सांगतात की जर त्यांना वर्तमान अहवाल स्वयंचलित करायचा असेल तर त्यांनी ते दोन वर्तमान अहवाल एकत्रित करून स्वहस्ते व्युत्पन्न केले पाहिजे आणि dati.
जरी ही आवश्यकता सोपी असली तरी, ती वैशिष्ट्याची विशिष्ट कार्यक्षमता परिभाषित करते जी तुम्ही तुमच्या संस्थेसाठी अहवाल साधने खरेदी करताना समाविष्ट केली पाहिजे.

संपूर्ण चित्र मिळविण्यासाठी डिझायनरने अतिरिक्त आवश्यकता देखील पूर्ण केल्या पाहिजेत. वापरकर्ते या अहवालाची सदस्यता घेऊ इच्छिता?
अहवाल उपसंच तयार केले जातात आणि विविध वापरकर्त्यांना ईमेल केले जातात? त्यांना कंपनी पोर्टलवर हा अहवाल पाहायचा आहे का? या सर्व आवश्यकता वापरकर्त्यांनी विनंती केल्यानुसार मॅन्युअल अहवाल बदलण्याच्या साध्या गरजेचा भाग आहेत. या प्रकारच्या आवश्यकतांचा फायदा असा आहे की प्रत्येकजण, वापरकर्ते आणि डिझाइनर यांना अहवालाच्या संकल्पनेची समज आहे.

तथापि, इतर प्रकारचे व्यवसाय आहेत ज्यासाठी आम्हाला योजना आखणे आवश्यक आहे. जेव्हा व्यवसायाच्या आवश्यकता धोरणात्मक व्यवसाय प्रश्नांच्या स्वरूपात सांगितल्या जातात, तेव्हा तज्ञ डिझायनरला मोजमाप/तथ्य आणि आयामी आवश्यकता ओळखणे सोपे होते.

JAD वापरकर्त्यांना व्यावसायिक समस्येच्या रूपात त्यांच्या आवश्यकता कशा सांगायच्या हे माहित नसल्यास, डिझायनर अनेकदा आवश्यकता गोळा करण्याचे सत्र उडी मारण्यासाठी उदाहरणे देईल.
तज्ञ डिझायनर वापरकर्त्यांना केवळ धोरणात्मक व्यापारच नव्हे तर ते कसे तयार करावे हे देखील समजण्यास मदत करू शकतात.
आवश्यकता गोळा करण्याच्या पद्धतीची चर्चा धडा 3 मध्ये केली आहे; आत्ता आम्ही फक्त सर्व प्रकारच्या BI आवश्यकतांसाठी डिझाइन करण्याची आवश्यकता दर्शवू इच्छितो.

धोरणात्मक व्यवसाय समस्या ही केवळ व्यवसायाची आवश्यकता नाही, तर डिझाइन क्लू देखील आहे. जर तुम्हाला बहुआयामी प्रश्नाचे उत्तर द्यायचे असेल, तर तुम्हाला लक्षात ठेवावे लागेल, सादर करा i dati मितीय, आणि आपण संचयित करणे आवश्यक असल्यास dati बहुआयामी, तुम्ही कोणत्या प्रकारचे तंत्रज्ञान किंवा तंत्र वापरणार आहात हे तुम्ही ठरवले पाहिजे.

तुम्ही आरक्षित क्यूब स्टार स्कीमा किंवा दोन्ही लागू करता? जसे आपण पाहू शकता, अगदी साधी व्यावसायिक समस्या देखील डिझाइनवर लक्षणीय परिणाम करू शकते. परंतु या प्रकारच्या व्यवसाय आवश्यकता सामान्य आहेत आणि समजल्या जातात, किमान प्रकल्प अनुभव असलेल्या डिझाइनर आणि नियोजकांना.

OLAP तंत्रज्ञान आणि समर्थनाविषयी पुरेशी चर्चा झाली आहे आणि समाधानाची विस्तृत श्रेणी उपलब्ध आहे. आत्तापर्यंत आम्ही व्यवसायाच्या आयामी आवश्यकतांसह साधे अहवाल एकत्र आणण्याची गरज नमूद केली आहे आणि या आवश्यकता तांत्रिक स्थापत्य निर्णयांवर कसा प्रभाव पाडतात.

पण अशा कोणत्या आवश्यकता आहेत ज्या वापरकर्त्यांना किंवा Dw टीमला सहज समजत नाहीत? तुम्हाला कधी अवकाशीय विश्लेषणाची गरज भासेल का?
च्या अर्क मॉडेल dati ते तुमच्या भविष्याचा आवश्यक भाग असतील का? कुणास ठाऊक?

हे लक्षात घेणे महत्त्वाचे आहे की या प्रकारचे तंत्रज्ञान सामान्य वापरकर्ता समुदाय आणि Dw टीम सदस्यांद्वारे चांगले ओळखले जात नाहीत, काही प्रमाणात, हे असे असू शकते कारण ते विशेषत: काही अंतर्गत किंवा तृतीय-पक्ष तांत्रिक तज्ञ हाताळतात. या प्रकारच्या तंत्रज्ञानामुळे निर्माण होणाऱ्या समस्यांचे हे अत्यंत टोकाचे प्रकरण आहे. जर वापरकर्ते व्यवसायाच्या आवश्यकतांचे वर्णन करू शकत नसतील किंवा डिझाइनरना मार्गदर्शन प्रदान करतील अशा प्रकारे त्यांना फ्रेम करू शकत नसतील, तर त्यांच्याकडे दुर्लक्ष केले जाऊ शकते किंवा वाईट म्हणजे फक्त दुर्लक्ष केले जाऊ शकते.

जेव्हा डिझायनर आणि विकसक यापैकी एका प्रगत परंतु गंभीर तंत्रज्ञानाचा वापर ओळखू शकत नाहीत तेव्हा ते अधिक समस्याप्रधान बनते.
जसे आपण अनेकदा डिझायनर्सना असे म्हणताना ऐकले आहे, “बरं, ही दुसरी गोष्ट मिळेपर्यंत आपण ती बाजूला का ठेवू नये? “त्यांना खरोखरच प्राधान्यक्रमांमध्ये स्वारस्य आहे किंवा ते फक्त त्यांना समजत नसलेल्या आवश्यकता टाळत आहेत? हे बहुधा शेवटचे गृहितक आहे. आकृती 1.3 मध्ये म्हटल्याप्रमाणे तुमच्या विक्री संघाने व्यवसायाची गरज सांगितली आहे असे समजा, तुम्ही बघू शकता, ही आवश्यकता व्यावसायिक समस्येच्या स्वरूपात तयार केली आहे. ही समस्या आणि ठराविक मितीय समस्या यातील फरक म्हणजे अंतर. या प्रकरणात, विक्री संघाला जाणून घ्यायचे आहे, मासिक आधारावर, उत्पादने, गोदामे आणि स्टोअरमधील एकूण विक्री ग्राहकांना जे ते खरेदी करत असलेल्या गोदामाच्या ५ मैलांच्या आत राहतात.

दुर्दैवाने, डिझायनर किंवा वास्तुविशारद केवळ असे सांगून अवकाशीय घटकाकडे दुर्लक्ष करू शकतात, “आमच्याकडे ग्राहक, उत्पादन आणि dati ठेवीचे. दुसरी पुनरावृत्ती होईपर्यंत अंतर ठेवूया.

"चुकीचे उत्तर. या प्रकारची व्यवसाय समस्या सर्व BI बद्दल आहे. हे आमच्या व्यवसायाची सखोल समज आणि आमच्या विश्लेषकांसाठी एक मजबूत विश्लेषणात्मक जागा दर्शवते. BI साध्या क्वेरी किंवा मानक अहवाल किंवा अगदी OLAP च्या पलीकडे आहे. याचा अर्थ असा नाही की हे तंत्रज्ञान तुमच्या BI साठी महत्त्वाचे नाहीत, परंतु ते स्वतःच BI पर्यावरणाचे प्रतिनिधित्व करत नाहीत.

माहिती संदर्भासाठी डिझाइन (माहिती सामग्रीसाठी डिझाइन करणे)

आता आम्ही विविध मूलभूत घटकांमध्ये फरक करणार्‍या व्यावसायिक आवश्यकता ओळखल्या आहेत, त्या संपूर्ण आर्किटेक्चरल डिझाइनमध्ये समाविष्ट केल्या पाहिजेत. काही BI घटक आमच्या सुरुवातीच्या प्रयत्नांचा भाग आहेत, तर काही अनेक महिने लागू केले जाणार नाहीत.

तथापि, सर्व ज्ञात आवश्यकता डिझाईनमध्ये परावर्तित केल्या जातात जेणेकरुन जेव्हा आम्हाला एखाद्या विशिष्ट तंत्रज्ञानाची अंमलबजावणी करण्याची आवश्यकता असते तेव्हा आम्ही तसे करण्यास तयार असतो. प्रकल्पाबद्दल काहीतरी पारंपारिक विचार प्रतिबिंबित करेल.

चा हा संच dati च्या नंतरच्या वापरांना समर्थन देण्यासाठी वापरले जाते dati आम्ही ओळखलेल्या व्यवसाय समस्यांद्वारे आयामी मार्गदर्शित. अतिरिक्त दस्तऐवज तयार केले जातात, जसे की डिझाइन विकास dati, आम्ही कसे i dati ते वातावरणात पसरतात. आम्ही i चे प्रतिनिधित्व करण्याची गरज पडताळून पाहिली आहे dati मितीय मार्गाने, त्यांना (विशिष्ट विशिष्ट गरजांनुसार) डेटा मार्टमध्ये विभागणे.

उत्तर देण्यासाठी पुढील प्रश्न आहे: हे डेटा मार्ट कसे तयार केले जातील?
तुम्ही क्यूब्सला आधार देण्यासाठी तारे बांधता का, की फक्त क्यूब्स, की फक्त तारे? (किंवा उजवे चौकोनी तुकडे, किंवा उजवे तारे). आश्रित डेटा मार्टसाठी आर्किटेक्चर व्युत्पन्न करा ज्यासाठी सर्वांसाठी अणु स्तर आवश्यक आहे dati मिळवले? स्वतंत्र डेटा मार्ट्सना संपादन करण्याची परवानगी द्या i dati थेट ऑपरेटिंग सिस्टमवरून?

तुम्ही कोणते घन तंत्रज्ञान प्रमाणित करण्याचा प्रयत्न कराल?

आपल्याकडे मोठ्या प्रमाणात आहे dati मितीय विश्लेषणासाठी आवश्यक आहे किंवा तुम्हाला तुमच्या राष्ट्रीय विक्री दलाकडून साप्ताहिक आधारावर किंवा दोन्ही क्यूब्सची आवश्यकता आहे का? तुम्ही वित्तासाठी DB2 OLAP सर्व्हर किंवा तुमच्या विक्री संस्थेसाठी कॉग्नोस पॉवरप्ले क्यूब्स किंवा दोन्हीसारखे शक्तिशाली काहीतरी तयार करता? हे मोठे आर्किटेक्चरल डिझाइन निर्णय आहेत जे इथून पुढे तुमच्या BI वातावरणावर परिणाम करतील. होय, तुम्ही OLAP ची गरज प्रस्थापित केली आहे. आता तो प्रकार आणि तंत्रज्ञान कसे पार पाडणार?

काही सर्वात प्रगत तंत्रज्ञानाचा तुमच्या डिझाईन्सवर कसा परिणाम होतो? समजा तुम्ही तुमच्या संस्थेमध्ये जागेची गरज ओळखली आहे. आपण अनेक महिन्यांपासून अवकाशीय घटक बनवण्याची योजना करत नसला तरीही आपल्याला आता आर्किटेक्चरल ड्रॉईंग आवृत्त्या आठवल्या पाहिजेत. वास्तुविशारदाने आज आवश्यक असलेल्या गोष्टींवर आधारित रचना करणे आवश्यक आहे. व्युत्पन्न, संचयित, कार्यप्रदर्शन आणि प्रवेश प्रदान करणार्‍या अवकाशीय विश्लेषणाच्या गरजेचा अंदाज लावा dati अवकाशीय या बदल्यात आपण सध्या विचारात घेऊ शकता अशा सॉफ्टवेअर तंत्रज्ञानाच्या प्रकार आणि प्लॅटफॉर्म वैशिष्ट्यांशी संबंधित एक मर्यादा म्हणून काम केले पाहिजे. उदाहरणार्थ, प्रशासन प्रणाली डेटा बेस रिलेशनल लेयर (RDBMS) जो तुम्ही तुमच्या अणु लेयरसाठी करता त्यात मजबूत अवकाशीय विस्तार उपलब्ध असणे आवश्यक आहे. हे तुमच्या विश्लेषणात्मक ऍप्लिकेशन्समध्ये भूमिती आणि अवकाशीय वस्तू वापरताना जास्तीत जास्त कामगिरी सुनिश्चित करेल. तुमचे RDBMS हाताळू शकत नसल्यास dati (स्थानिक-केंद्रित) अंतर्गत, म्हणून तुम्हाला ए स्थापित करावे लागेल डेटा बेस (स्थानिक-केंद्रित) बाह्य. हे समस्यांचे व्यवस्थापन गुंतागुंतीचे करते आणि तुमच्या एकूण कार्यक्षमतेशी तडजोड करते, तुमच्या डीबीएसाठी निर्माण केलेल्या अतिरिक्त समस्यांचा उल्लेख करू नका, कारण त्यांना कदाचित मूलभूत गोष्टींची किमान समज आहे. dati स्थानिक तसेच. दुसरीकडे, जर तुमचे RDMBS इंजिन सर्व अवकाशीय घटक हाताळत असेल आणि त्याच्या ऑप्टिमायझरला अवकाशीय वस्तूंच्या विशेष गरजांची (उदाहरणार्थ, अनुक्रमणिका) जाणीव असेल, तर तुमचे DBAs समस्यांचे व्यवस्थापन सहजतेने हाताळू शकतात आणि तुम्ही कामगिरी वाढवू शकता.

याव्यतिरिक्त, पत्ता क्लीनअप समाविष्ट करण्यासाठी तुम्हाला स्टेजिंग क्षेत्र आणि अणु पर्यावरण स्तर समायोजित करण्याची आवश्यकता आहे

अवकाशीय विश्लेषणासाठी मुख्य घटक), तसेच स्पेस ऑब्जेक्ट्सची त्यानंतरची बचत. आवृत्त्या काढण्याचा क्रम आता सुरू आहे कारण आम्ही स्पष्ट दिशेची कल्पना मांडली आहे. एक तर, हा अनुप्रयोग तुमच्या ETL प्रयत्नांसाठी आवश्यक असलेल्या सॉफ्टवेअरचा प्रकार ठरवेल.

तुम्हाला Trillium सारखी उत्पादने स्वच्छ पत्त्यासह किंवा ती कार्यक्षमता प्रदान करण्यासाठी तुमच्या पसंतीच्या ETL विक्रेत्याची गरज आहे का?
आत्तासाठी हे महत्वाचे आहे की तुम्ही तुमचे वेअरहाऊस अंमलात आणण्याआधी पूर्ण केलेल्या डिझाइनच्या पातळीचे कौतुक करा. वरील उदाहरणांनी अनेक डिझाईन निर्णयांचे प्रदर्शन केले पाहिजे जे कोणत्याही विशिष्ट व्यवसाय आवश्यकतांचे पालन करणे आवश्यक आहे. योग्यरित्या घेतल्यास, हे डिझाइन निर्णय आपल्या पर्यावरणाची भौतिक संरचना, वापरलेल्या तंत्रज्ञानाची निवड आणि माहिती सामग्रीच्या प्रसाराचा प्रवाह यांच्यातील परस्परावलंबनास प्रोत्साहन देतात. या पारंपारिक BI आर्किटेक्चरशिवाय, तुमची संस्था विद्यमान तंत्रज्ञानाच्या गोंधळाच्या अधीन असेल, स्पष्टपणे स्थिरता प्रदान करण्यासाठी सर्वोत्तमपणे एकत्र जोडलेली असेल.

माहिती सामग्री राखून ठेवा

आपल्या संस्थेला माहितीचे मूल्य आणणे हे खूप कठीण काम आहे. पुरेशी समज आणि अनुभव, किंवा योग्य नियोजन आणि डिझाइनशिवाय, सर्वोत्तम संघ देखील अयशस्वी होतील. दुसरीकडे, जर तुमच्याकडे उत्तम अंतर्ज्ञान आणि तपशीलवार नियोजन असेल परंतु अंमलबजावणीसाठी कोणतीही शिस्त नसेल, तर तुम्ही फक्त तुमचा पैसा आणि वेळ वाया घालवला आहे कारण तुमचा प्रयत्न अयशस्वी होणार आहे. संदेश स्पष्ट असावा: जर तुमच्याकडे यापैकी एक किंवा अधिक कौशल्ये, समज/अनुभव किंवा नियोजन/डिझाइन किंवा अंमलबजावणी शिस्त नसेल, तर ते BI संस्थेच्या इमारतीला अपंग किंवा नष्ट करेल.

तुमचा संघ पुरेसा तयार आहे का? तुमच्या BI टीममध्ये BI वातावरणात उपलब्ध असलेले विशाल विश्लेषणात्मक लँडस्केप आणि त्या लँडस्केपची देखरेख करण्यासाठी आवश्यक तंत्रे आणि तंत्रज्ञान समजणारे कोणी आहे का? तुमच्या टीममध्ये कोणीतरी आहे जो अॅडव्हान्समधील अॅप्लिकेशन फरक ओळखू शकेल

स्टॅटिक रिपोर्टिंग आणि OLAP, किंवा ROLAP आणि OLAP मधील फरक? तुमच्या कार्यसंघ सदस्यांपैकी एक स्पष्टपणे कसे काढायचे आणि त्याचा वेअरहाऊसवर कसा परिणाम होऊ शकतो किंवा वेअरहाऊस काढण्याच्या कामगिरीला कसे समर्थन देऊ शकते हे स्पष्टपणे ओळखतो का? कार्यसंघ सदस्याचे मूल्य समजते dati जागा किंवा एजंट-आधारित तंत्रज्ञान? मेसेज ब्रोकर टेक्नॉलॉजी विरुद्ध ईटीएल टूल्सच्या अद्वितीय अनुप्रयोगाची प्रशंसा करणारे कोणीतरी तुमच्याकडे आहे का? तुमच्याकडे नसल्यास, एक मिळवा. BI सामान्यीकृत अणु स्तर, OLAP, तारा स्कीमा आणि ODS पेक्षा खूप मोठा आहे.

BI आवश्यकता आणि त्यांचे निराकरण ओळखण्यासाठी समजून घेणे आणि अनुभव असणे हे वापरकर्त्याच्या गरजा योग्यरित्या औपचारिक करण्यासाठी आणि त्यांचे निराकरण डिझाइन आणि अंमलबजावणी करण्याच्या आपल्या क्षमतेसाठी आवश्यक आहे. तुमच्या वापरकर्ता समुदायाला आवश्यकतांचे वर्णन करण्यात अडचण येत असल्यास, ती समज प्रदान करणे हे वेअरहाऊस टीमचे काम आहे. पण जर गोदाम संघ

BI चे विशिष्ट ऍप्लिकेशन ओळखत नाही - उदाहरणार्थ, डेटा मायनिंग - मग ही सर्वोत्तम गोष्ट नाही की BI वातावरण बहुतेक वेळा निष्क्रिय भांडार असण्यापुरते मर्यादित असते. तथापि, या तंत्रज्ञानाकडे दुर्लक्ष केल्याने त्यांचे महत्त्व कमी होत नाही आणि तुमच्या संस्थेच्या व्यावसायिक बुद्धिमत्ता क्षमता, तसेच तुम्ही वाढवण्याची योजना करत असलेल्या माहितीच्या लँडस्केपवर त्यांचा प्रभाव कमी होत नाही.

नियोजनामध्ये रेखांकनाची कल्पना समाविष्ट असणे आवश्यक आहे आणि दोन्हीसाठी सक्षम व्यक्ती आवश्यक आहे. याव्यतिरिक्त, डिझायनिंगसाठी टीम वेअरहाऊस तत्त्वज्ञान आणि मानकांचे निरीक्षण आवश्यक आहे. उदाहरणार्थ, जर तुमच्या कंपनीने एक मानक प्लॅटफॉर्म स्थापित केला असेल किंवा तुम्ही प्लॅटफॉर्मवर प्रमाणित करू इच्छित असा विशिष्ट RDBMS ओळखला असेल, तर त्या मानकांचे पालन करण्याची जबाबदारी टीममधील प्रत्येकावर आहे. सामान्यत: संघ मानकीकरणाची गरज (वापरकर्ता समुदायांना) उघड करतो, परंतु संघ स्वतः कंपनीमधील इतर क्षेत्रांमध्ये किंवा कदाचित तत्सम कंपन्यांमध्ये देखील स्थापित केलेल्या मानकांचे पालन करण्यास तयार नाही. हे केवळ दांभिकच नाही तर हे स्थापित करते की कंपनी विद्यमान संसाधने आणि गुंतवणुकीचे शोषण करण्यास अक्षम आहे. याचा अर्थ असा नाही की अ-मानक प्लॅटफॉर्म किंवा तंत्रज्ञानाची हमी देणारी कोणतीही परिस्थिती नाही; तथापि, कोठार प्रयत्न

व्यवसायाच्या गरजा अन्यथा ठरवत नाही तोपर्यंत त्यांनी कंपनीच्या मानकांचे ईर्ष्याने संरक्षण केले पाहिजे.

BI संस्था तयार करण्यासाठी आवश्यक असलेला तिसरा महत्त्वाचा घटक म्हणजे शिस्त.
हे संपूर्णपणे, व्यक्ती आणि पर्यावरणावर तितकेच अवलंबून असते. प्रकल्प नियोजक, प्रायोजक, आर्किटेक्ट आणि वापरकर्त्यांनी कंपनीची माहिती संरचना तयार करण्यासाठी आवश्यक असलेल्या शिस्तीचे कौतुक केले पाहिजे. डिझायनरांनी त्यांच्या डिझाइन प्रयत्नांना समाजातील इतर आवश्यक प्रयत्नांना पूरक अशा प्रकारे निर्देशित केले पाहिजे.

उदाहरणार्थ, समजा तुमची कंपनी एक ईआरपी ऍप्लिकेशन तयार करते ज्यामध्ये वेअरहाऊस घटक आहे.
त्यामुळे आधीच सुरू झालेल्या कामाशी स्पर्धा होऊ नये किंवा डुप्लिकेट होऊ नये म्हणून वेअरहाऊस पर्यावरण संघाशी सहयोग करणे ERP डिझाइनर्सची जबाबदारी आहे.

शिस्त हा देखील एक विषय आहे ज्याला संपूर्ण संस्थेने संबोधित केले पाहिजे आणि सहसा स्थापित केले जाते आणि कार्यकारी स्तरावर सोपवले जाते.
व्यवस्थापक डिझाइन केलेल्या दृष्टिकोनाचे पालन करण्यास इच्छुक आहेत का? एक दृष्टीकोन जो माहिती सामग्री तयार करण्याचे वचन देतो जे शेवटी एंटरप्राइझच्या सर्व क्षेत्रांसाठी मूल्य आणेल, परंतु कदाचित वैयक्तिक किंवा विभागीय कार्यक्रमांशी तडजोड करेल? "फक्त एका गोष्टीबद्दल विचार करण्यापेक्षा प्रत्येक गोष्टीबद्दल विचार करणे अधिक महत्त्वाचे आहे" ही म्हण लक्षात ठेवा. ही म्हण BI संस्थांसाठी खरी आहे.

दुर्दैवाने, बर्‍याच गोदामांनी त्यांचे प्रयत्न एका विशिष्ट विभागाला किंवा विशिष्ट वापरकर्त्यांना लक्ष्य करण्याच्या आणि मूल्य आणण्याच्या प्रयत्नावर केंद्रित केले आहेत, मोठ्या प्रमाणावर संस्थेचा फारसा संबंध नाही. समजा कार्यकारिणीने वेअरहाऊस टीमकडून मदतीची विनंती केली आहे. कार्यसंघ 90-दिवसांच्या प्रयत्नांसह प्रतिसाद देतो ज्यामध्ये व्यवस्थापकाद्वारे परिभाषित केलेल्या सूचना आवश्यकता केवळ वितरित करणेच नाही तर सर्व dati प्रस्तावित क्यूब तंत्रज्ञानामध्ये आणण्यापूर्वी बेस अणू स्तरावर मिसळले जातात.
या अभियांत्रिकी जोडणीचा वेअरहाऊस एंटरप्राइझला फायदा होईल याची खात्री होते dati व्यवस्थापकासाठी आवश्यक.
तथापि, एक्झिक्युटिव्ह बाहेरील सल्लागार कंपन्यांशी बोलले ज्यांनी 4 आठवड्यांपेक्षा कमी कालावधीत डिलिव्हरीसह समान अर्ज प्रस्तावित केला.

अंतर्गत वेअरहाऊस टीम सक्षम आहे असे गृहीत धरून, कार्यकारिणीला पर्याय आहे. कोण माहिती मालमत्ता एंटरप्राइझ विकसित करण्यासाठी आवश्यक असलेल्या अतिरिक्त अभियांत्रिकी शाखेचे समर्थन करू शकते किंवा त्वरीत स्वतःचे समाधान तयार करणे निवडू शकते. शेवटचा एक बर्‍याच वेळा निवडलेला दिसतो आणि केवळ काही लोकांना किंवा व्यक्तींना फायदा होणारा माहितीचा कंटेनर तयार करतो.

अल्प आणि दीर्घकालीन उद्दिष्टे

वास्तुविशारद आणि प्रकल्प डिझायनर यांनी एकंदर आर्किटेक्चरची दीर्घकालीन दृष्टी आणि BI संस्थेतील वाढीसाठी योजनांची औपचारिकता करणे आवश्यक आहे. अल्पकालीन लाभ आणि दीर्घकालीन नियोजनाचे हे संयोजन BI प्रयत्नांच्या दोन बाजूंचे प्रतिनिधित्व करते. अल्पकालीन लाभ हा BI चा पैलू आहे जो तुमच्या वेअरहाऊसच्या पुनरावृत्तीशी संबंधित आहे.

येथेच नियोजक, आर्किटेक्ट आणि प्रायोजक विशिष्ट व्यावसायिक आवश्यकता पूर्ण करण्यावर लक्ष केंद्रित करतात. या स्तरावर भौतिक संरचना तयार केल्या जातात, तंत्रज्ञान खरेदी केले जाते आणि तंत्रे लागू केली जातात. विशिष्ट वापरकर्ता समुदायांद्वारे परिभाषित केलेल्या विशिष्ट आवश्यकतांचे निराकरण करण्यासाठी ते कोणत्याही प्रकारे तयार केलेले नाहीत. विशिष्ट समुदायाद्वारे परिभाषित केलेल्या विशिष्ट आवश्यकतांचे निराकरण करण्यासाठी सर्व काही केले जाते.
तथापि, दीर्घकालीन नियोजन हे BI चे दुसरे पैलू आहे. येथेच योजना आणि डिझाईन्स हे सुनिश्चित करतात की कोणतीही भौतिक रचना तयार केली गेली आहे, तंत्रज्ञानाची निवड केली गेली आहे आणि एंटरप्राइझकडे लक्ष देऊन अंमलबजावणी केली गेली आहे. हे दीर्घकालीन नियोजन आहे जे मिळालेल्या कोणत्याही अल्प-मुदतीच्या नफ्यातून व्यावसायिक फायदे उद्भवतील याची खात्री करण्यासाठी आवश्यक असलेली एकसंधता प्रदान करते.

तुमच्या BI प्रयत्नांचे समर्थन करा

Un डेटा वेअरहाऊस स्वतःच त्याचे कोणतेही मूळ मूल्य नाही. दुसऱ्या शब्दांत, वेअरहाऊस तंत्रज्ञान आणि अंमलबजावणी तंत्रांमध्ये कोणतेही मूळ मूल्य नाही.

कोणत्याही गोदामाच्या प्रयत्नांचे मूल्य वेअरहाऊसच्या वातावरणाचा परिणाम म्हणून केलेल्या कृतींमध्ये आढळते आणि कालांतराने तयार केलेली माहिती सामग्री. तुम्ही कोणत्याही व्हेअरहाऊस उपक्रमाच्या मूल्याचा अंदाज घेण्याचा प्रयत्न करण्यापूर्वी हा एक महत्त्वाचा मुद्दा आहे.

बर्‍याचदा, वास्तुविशारद आणि डिझाइनर वेअरहाऊसच्या भौतिक आणि तांत्रिक घटकांवर मूल्य लागू करण्याचा प्रयत्न करतात जेव्हा खरेतर मूल्य हे वेअरहाऊस आणि चांगल्या प्रकारे मिळवलेल्या माहितीद्वारे सकारात्मकरित्या प्रभावित झालेल्या व्यावसायिक प्रक्रियांवर आधारित असते.

येथे BI स्थापन करण्याचे आव्हान आहे: तुम्ही गुंतवणुकीचे समर्थन कसे करता? व्हेअरहाऊसचे स्वतःचे कोणतेही आंतरिक मूल्य नसल्यास, प्रकल्प डिझाइनरांनी त्या व्यक्तींनी प्राप्त केलेल्या फायद्यांची तपासणी करणे, परिभाषित करणे आणि औपचारिक करणे आवश्यक आहे जे विशिष्ट व्यवसाय प्रक्रिया किंवा संरक्षित माहितीचे मूल्य किंवा दोन्ही सुधारण्यासाठी वेअरहाऊसचा वापर करतील.

गुंतागुतीच्या बाबींसाठी, गोदामांच्या प्रयत्नांमुळे प्रभावित होणारी कोणतीही व्यावसायिक प्रक्रिया "बऱ्यापैकी" किंवा "थोडे" फायदे प्रदान करू शकते. लक्षणीय फायदे गुंतवणुकीवरील परतावा (ROI) मोजण्यासाठी एक मूर्त मेट्रिक प्रदान करतात - उदाहरणार्थ, विशिष्ट कालावधीत इन्व्हेंटरीमध्ये अतिरिक्त वेळ बदलणे किंवा प्रति शिपमेंट कमी वाहतूक खर्चासाठी. मूर्त मूल्याच्या दृष्टीने माहितीचा सुधारित प्रवेश यासारखे सूक्ष्म फायदे परिभाषित करणे कठीण आहे.

बद्दल जाणून घेण्यासाठी तुमचा प्रकल्प कनेक्ट करा व्यवसाय विनंत्या

बर्‍याचदा, प्रकल्प नियोजक गोदाम मूल्य अनाकार एंटरप्राइझ उद्दिष्टांशी जोडण्याचा प्रयत्न करतात. "वेअरहाऊसचे मूल्य हे धोरणात्मक विनंत्या पूर्ण करण्याच्या आमच्या क्षमतेवर आधारित आहे" असे घोषित करून आम्ही चर्चा आनंददायी पद्धतीने उघडतो. परंतु केवळ इन्व्हेंटरीमध्ये गुंतवणूक करणे अर्थपूर्ण आहे की नाही हे निर्धारित करणे पुरेसे नाही. विशिष्ट, ज्ञात व्यावसायिक मागण्यांसह वेअरहाऊस पुनरावृत्ती लिंक करणे सर्वोत्तम आहे.

ROI मोजत आहे

वेअरहाऊस सेटिंगमध्ये ROI ची गणना करणे विशेषतः कठीण असू शकते. फायदा असल्यास विशेषतः कठीण आहे

विशिष्ट पुनरावृत्तीची मुख्य गोष्ट म्हणजे मूर्त किंवा मोजण्यास सोपी नसलेली गोष्ट. एका अभ्यासात असे दिसून आले आहे की वापरकर्त्यांना BI उपक्रमांचे दोन मुख्य फायदे जाणवतात:

  • ▪  निर्णय घेण्याची क्षमता निर्माण करा
  • ▪  माहितीमध्ये प्रवेश तयार करा
    हे फायदे मऊ (किंवा सौम्य) फायदे आहेत. कमी झालेल्या वाहतूक खर्चासारख्या कठीण (किंवा मोठ्या) फायद्यावर आधारित आम्ही ROI कसे मोजू शकतो हे पाहणे सोपे आहे, परंतु आम्ही चांगले निर्णय घेण्याची क्षमता कशी मोजू?
    प्रकल्प नियोजकांसाठी हे निश्चितच एक आव्हान आहे जेव्हा ते कंपनीला विशिष्ट वेअरहाऊस प्रयत्नात गुंतवणूक करण्यास पटवून देण्याचा प्रयत्न करतात. वाढती विक्री किंवा कमी होणारा खर्च यापुढे BI वातावरणाला चालना देणारी केंद्रीय थीम राहिलेली नाही.
    त्याऐवजी, तुम्ही माहितीमध्ये अधिक चांगल्या प्रवेशासाठी व्यवसाय विनंत्या पाहत आहात जेणेकरुन विशिष्ट विभाग जलद निर्णय घेऊ शकेल. हे धोरणात्मक ड्रायव्हर्स आहेत जे एंटरप्राइझसाठी तितकेच महत्त्वाचे आहेत परंतु मूर्त मेट्रिकमध्ये ते अधिक अस्पष्ट आणि अधिक कठीण आहेत. या प्रकरणात, ROI ची गणना करणे अप्रासंगिक नसल्यास, दिशाभूल करणारे असू शकते.
    एखाद्या विशिष्ट पुनरावृत्तीमधील गुंतवणूक योग्य आहे की नाही हे ठरवण्यासाठी प्रकल्प डिझाइनर अधिका-यांसाठी मूर्त मूल्य प्रदर्शित करण्यास सक्षम असले पाहिजेत. तथापि, आम्ही ROI ची गणना करण्यासाठी नवीन पद्धत प्रस्तावित करणार नाही किंवा आम्ही त्याच्या बाजूने किंवा विरुद्ध कोणताही युक्तिवाद करणार नाही.
    ROI ची गणना करण्याच्या मूलभूत गोष्टींवर चर्चा करणारे अनेक लेख आणि पुस्तके उपलब्ध आहेत. गार्टनर सारख्या गटांद्वारे ऑफर केलेल्या गुंतवणुकीवर मूल्य (VOI) सारखे विशेष मूल्य प्रस्ताव आहेत, ज्यावर तुम्ही संशोधन करू शकता. त्याऐवजी, आम्ही कोणत्याही ROI किंवा इतर मूल्य प्रस्तावांच्या मुख्य पैलूंवर लक्ष केंद्रित करू ज्यांचा तुम्ही विचार करणे आवश्यक आहे. ROI लागू करत आहे BI प्रयत्नांशी संबंधित "हार्ड" फायदे विरुद्ध "सॉफ्ट" फायदे या वादाच्या पलीकडे ROI लागू करताना विचारात घेण्यासारखे इतर मुद्दे आहेत. उदाहरणार्थ:

तरीही येणार्‍या DW प्रयत्नांना बर्‍याच बचतीचे श्रेय द्या
समजा तुमची कंपनी मेनफ्रेम आर्किटेक्चरमधून वितरित UNIX वातावरणात गेली आहे. त्यामुळे त्या प्रयत्नातून होणारी (किंवा नसावी) कोणतीही बचत केवळ गोदामालाच (?) दिली जाऊ नये.

प्रत्येक गोष्टीचा हिशेब न ठेवणे महागात पडते. आणि खात्यात घेण्यासारख्या अनेक गोष्टी आहेत. खालील यादीचा विचार करा:

  • ▪  प्रारंभ खर्च, व्यवहार्यतेसह.
  • ▪  संबंधित स्टोरेज आणि संप्रेषणांसह समर्पित हार्डवेअरची किंमत
  • ▪  सॉफ्टवेअरची किंमत, च्या व्यवस्थापनासह dati आणि क्लायंट/सर्व्हर विस्तार, ईटीएल सॉफ्टवेअर, डीएसएस तंत्रज्ञान, व्हिज्युअलायझेशन टूल्स, शेड्यूलिंग आणि वर्कफ्लो अॅप्लिकेशन्स आणि मॉनिटरिंग सॉफ्टवेअर, .
  • ▪  संरचना डिझाइनची किंमत dati, च्या निर्मिती आणि ऑप्टिमायझेशनसह
  • ▪  सॉफ्टवेअर डेव्हलपमेंटचा खर्च थेट BI प्रयत्नाशी संबंधित आहे
  • ▪  परफॉर्मन्स ऑप्टिमायझेशनसह, सॉफ्टवेअर आवृत्ती नियंत्रण आणि मदत ऑपरेशन्ससह होम सपोर्टची किंमत "बिग-बँग" ROI लागू करा. वेअरहाऊस एक एकल, अवाढव्य प्रयत्न म्हणून तयार करणे अयशस्वी ठरेल, त्यामुळे मोठ्या-उद्योग उपक्रमासाठी ROI ची गणना देखील करा ही ऑफर आश्चर्यकारक आहे आणि नियोजक संपूर्ण प्रयत्नांच्या मूल्याचा अंदाज लावण्याचे कमकुवत प्रयत्न करत राहतात. विशिष्‍ट पुनरावृत्तीचा अंदाज लावणे कठिण आहे हे सर्वत्र ज्ञात आणि स्‍वीकारलेल्‍यास नियोजक व्‍यवसाय उपक्रमावर आर्थिक मुल्‍य ठेवण्‍याचा प्रयत्‍न का करतात? हे कसे शक्य आहे? काही अपवाद वगळता ते शक्य नाही. ते करू नका. आता आम्ही ROI ची गणना करताना काय करू नये हे स्थापित केले आहे, येथे काही मुद्दे आहेत जे आम्हाला तुमच्या BI प्रयत्नांच्या मूल्याचा अंदाज घेण्यासाठी एक विश्वासार्ह प्रक्रिया स्थापित करण्यात मदत करतील.

ROI एकमत प्राप्त करणे. तुमच्या BI प्रयत्नांच्या मूल्याचा अंदाज लावण्यासाठी तुम्ही निवडलेल्या तंत्राची पर्वा न करता, प्रकल्प डिझायनर, प्रायोजक आणि व्यावसायिक अधिकारी यांच्यासह सर्व पक्षांनी त्यावर सहमती दर्शविली पाहिजे.

ROI ओळखण्यायोग्य भागांमध्ये कमी करा. ROI ची वाजवी गणना करण्याच्या दिशेने एक आवश्यक पाऊल म्हणजे ती गणना एका विशिष्ट प्रकल्पावर केंद्रित करणे. हे तुम्हाला विशिष्ट व्यवसाय आवश्यकता पूर्ण केल्याच्या आधारावर मूल्याचा अंदाज लावू देते

खर्चाची व्याख्या करा. नमूद केल्याप्रमाणे, असंख्य खर्चांचा विचार करणे आवश्यक आहे. शिवाय, खर्चामध्ये केवळ एकल पुनरावृत्तीशी संबंधित नसून कंपनीच्या मानकांचे पालन सुनिश्चित करण्याशी संबंधित खर्च देखील समाविष्ट करणे आवश्यक आहे.

फायदे परिभाषित करा. विशिष्ट व्यवसाय आवश्यकतांशी ROI ला स्पष्टपणे जोडून, ​​आम्ही आवश्यकतेची पूर्तता करणारे फायदे ओळखण्यास सक्षम असले पाहिजे.

नजीकच्या नफ्यात खर्च आणि फायदे कमी करा. भविष्यातील कमाईमध्ये भविष्यातील मूल्याचा अंदाज लावण्याच्या विरोधात निव्वळ वर्तमान मूल्यावर (NPV) आपले मूल्यांकन आधारित करण्याचा हा सर्वोत्तम मार्ग आहे.

तुमचा ROI कमीत कमी विभाजित करण्याची वेळ ठेवा. हे आपल्या ROI मध्ये वापरल्या गेलेल्या दीर्घ कालावधीत चांगले दस्तऐवजीकरण केलेले आहे.

एकापेक्षा जास्त ROI सूत्र वापरा. ROI ची भविष्यवाणी करण्यासाठी अनेक पद्धती आहेत आणि निव्वळ वर्तमान मूल्य, अंतर्गत परताव्याचा दर (IRR) आणि परतावा यासह त्यापैकी एक किंवा अधिक वापरायचे की नाही याची योजना आखली पाहिजे.

पुनरावृत्ती करण्यायोग्य प्रक्रिया परिभाषित करा. कोणत्याही दीर्घकालीन मूल्याची गणना करण्यासाठी हे महत्त्वपूर्ण आहे. त्यानंतरच्या सर्व प्रकल्पांसाठी एकच पुनरावृत्ती करण्यायोग्य प्रक्रियेचे दस्तऐवजीकरण केले जावे.

वेअरहाऊस वातावरणातील तज्ञांनी परिभाषित केलेल्या समस्या सर्वात सामान्य आहेत. "बिग-बॅंग" ROI वितरीत करण्याचा व्यवस्थापनाचा आग्रह खूप अस्वस्थ करणारा आहे. तुम्ही तुमची सर्व ROI गणना ओळखण्यायोग्य, मूर्त तुकड्यांमध्ये मोडून सुरू केल्यास, तुमच्याकडे अचूक ROI रेटिंगचा अंदाज घेण्याची चांगली संधी आहे.

ROI लाभांबाबत प्रश्न

तुमचे फायदे कोणतेही असोत, मऊ किंवा कठिण, तुम्ही त्यांचे मूल्य निश्चित करण्यासाठी काही मूलभूत प्रश्न वापरू शकता. उदाहरणार्थ, 1 ते 10 पर्यंत साध्या स्केलिंग प्रणालीचा वापर करून, तुम्ही खालील प्रश्नांचा वापर करून कोणत्याही प्रयत्नाचा प्रभाव मोजू शकता:

  • आपण समजून घेणे कसे रेट कराल dati तुमच्या कंपनीच्या या प्रकल्पाचे अनुसरण करता?
  • या प्रकल्पाच्या परिणामी प्रक्रियेतील सुधारणांचा अंदाज कसा घ्याल?
  • आता या पुनरावृत्तीद्वारे उपलब्ध केलेल्या नवीन अंतर्दृष्टी आणि अनुमानांचा प्रभाव तुम्ही कसा मोजाल
  • जे शिकले होते त्याचा परिणाम म्हणून नवीन, उच्च-कार्यक्षमता संगणकीय वातावरणाचा काय परिणाम झाला? जर या प्रश्नांची उत्तरे कमी असतील, तर हे शक्य आहे की कंपनी केलेली गुंतवणूक योग्य नाही. उच्च-स्कोअरिंग प्रश्न महत्त्वपूर्ण मूल्य नफ्याकडे निर्देश करतात आणि पुढील तपासणीसाठी मार्गदर्शक म्हणून काम करतात. उदाहरणार्थ, प्रक्रिया सुधारण्यासाठी उच्च स्कोअर डिझायनर्सना प्रक्रिया कशा सुधारल्या गेल्या आहेत हे तपासण्यासाठी नेले पाहिजे. तुम्हाला असे आढळून येईल की काही किंवा सर्व नफा मूर्त आहेत आणि म्हणून एक आर्थिक मूल्य सहजपणे लागू केले जाऊ शकते. च्या पहिल्या पुनरावृत्तीमधून जास्तीत जास्त मिळवणे गोदाम तुमच्या एंटरप्राइझच्या प्रयत्नांचा सर्वात मोठा परिणाम बहुतेक वेळा पहिल्या काही पुनरावृत्तीमध्ये असतो. हे प्रारंभिक प्रयत्न पारंपारिकपणे लोकांसाठी सर्वात उपयुक्त माहिती सामग्री स्थापित करतात आणि त्यानंतरच्या BI अनुप्रयोगांसाठी तंत्रज्ञानाचा पाया स्थापित करण्यात मदत करतात. च्या सामान्यतः प्रत्येक त्यानंतरच्या पुढील dati गोदामांचे प्रकल्प सर्वसाधारणपणे कंपनीला कमी आणि कमी अतिरिक्त मूल्य आणतात. हे विशेषतः खरे आहे जर पुनरावृत्ती नवीन विषय जोडत नाही किंवा नवीन वापरकर्ता समुदायाच्या गरजा पूर्ण करत नाही.

हे स्टोरेज वैशिष्ट्य वाढत्या स्टॅकवर देखील लागू होते dati इतिहासकार त्यानंतरच्या प्रयत्नांना अधिक आवश्यक आहे dati आणि आणखी किती dati कालांतराने गोदामात ओतले जातात, बहुतेक dati वापरलेल्या विश्लेषणाशी कमी संबंधित होते. या dati त्यांना अनेकदा म्हणतात dati सुप्त असतात आणि त्यांना ठेवणे नेहमीच महाग असते कारण ते जवळजवळ कधीही वापरले जात नाहीत.

प्रकल्प प्रायोजकांसाठी याचा अर्थ काय आहे? मूलत:, सुरुवातीचे प्रायोजक गुंतवणुकीच्या खर्चापेक्षा जास्त शेअर करतात. हे प्राथमिक आहे कारण ते वेअरहाऊसचे विस्तृत तांत्रिक वातावरण आणि सेंद्रियसह संसाधन स्तर स्थापित करण्यासाठी प्रेरणा आहेत.

परंतु ही पहिली पायरी सर्वोच्च मूल्य आणते आणि म्हणून प्रकल्प डिझाइनरना अनेकदा गुंतवणुकीचे समर्थन करावे लागते.
तुमच्‍या BI पुढाकारानंतर केलेल्‍या प्रकल्‍पांची कमी (पहिल्‍याच्‍या तुलनेत) आणि थेट किंमत असू शकते, परंतु कंपनीला कमी किंमत मिळते.

आणि संस्थेच्या मालकांनी संचय फेकून देण्याचा विचार सुरू करणे आवश्यक आहे dati आणि कमी संबंधित तंत्रज्ञान.

डेटा खनन: निष्कर्षण Dati

असंख्य आर्किटेक्चरल घटकांना डेटा मायनिंग तंत्रज्ञान आणि तंत्रांमध्ये फरक आवश्यक असतो-
उदाहरणार्थ, विविध "एजंट" च्या स्वारस्याच्या मुद्यांचे परीक्षण करण्यासाठी ग्राहकांना, कंपनीची कार्यप्रणाली आणि स्वतः dw साठी. हे एजंट पीओटी ट्रेंडवर प्रशिक्षित प्रगत न्यूरल नेटवर्क असू शकतात, जसे की विक्रीच्या जाहिरातींवर आधारित भविष्यातील उत्पादनाची मागणी; सेटवर प्रतिक्रिया देण्यासाठी नियम-आधारित इंजिन डेटा परिस्थितीनुसार, उदाहरणार्थ, वैद्यकीय निदान आणि उपचार शिफारसी; किंवा अगदी साधे एजंट्स ज्यात उच्च अधिकाऱ्यांना अपवाद नोंदवण्याची भूमिका आहे. साधारणपणे या निष्कर्षण प्रक्रिया dati si

वास्तविक वेळेत सत्यापित करा; म्हणून, ते च्या चळवळीशी पूर्णपणे एकत्र असले पाहिजेत dati स्टेसी

ऑनलाइन विश्लेषणात्मक प्रक्रिया प्रक्रिया

ऑनलाइन विश्लेषण

स्लाइस, फासे, रोल, ड्रिल डाउन आणि विश्लेषण करण्याची क्षमता
काय-जर, कार्यक्षेत्रात आहे, IBM तंत्रज्ञान सूटचा फोकस. उदाहरणार्थ, DB2 साठी ऑनलाइन विश्लेषणात्मक प्रक्रिया (OLAP) कार्ये अस्तित्वात आहेत जी सॉफ्टवेअर इंजिनमध्ये आयामी विश्लेषण आणते. डेटाबेस त्याच .

DB2 चा नैसर्गिक भाग असण्याच्या सर्व फायद्यांचा फायदा घेत फंक्शन्स SQL ​​मध्ये आयामी उपयुक्तता जोडतात. OLAP एकत्रीकरणाचे आणखी एक उदाहरण म्हणजे एक्सट्रॅक्शन टूल, DB2 OLAP सर्व्हर विश्लेषक. हे तंत्रज्ञान DB2 OLAP सर्व्हर क्यूब्सचे द्रुतगतीने आणि स्वयंचलितपणे विश्लेषण करण्यास अनुमती देते आणि मूल्य मूल्ये शोधून त्यावर अहवाल देतात. dati व्यवसाय विश्‍लेषकासाठी संपूर्ण क्यूबमध्ये असामान्य किंवा अनपेक्षित. आणि शेवटी, DW केंद्र वैशिष्ट्ये आर्किटेक्ट्सना इतर गोष्टींबरोबरच, ETL प्रक्रियेचा नैसर्गिक भाग म्हणून DB2 OLAP सर्व्हर क्यूबचे प्रोफाइल नियंत्रित करण्यासाठी एक साधन प्रदान करतात.

अवकाशीय विश्लेषण अवकाशीय विश्लेषण

जागा पॅनोरामासाठी आवश्यक असलेल्या विश्लेषणात्मक अँकरच्या (लीड्स) अर्ध्या भागाचे प्रतिनिधित्व करते
विस्तृत विश्लेषणात्मक (वेळ इतर अर्ध्या भागाचे प्रतिनिधित्व करते). आकृती 1.1 मध्ये चित्रित केलेल्या वेअरहाऊसच्या अणु-स्तरामध्ये वेळ आणि स्थान दोन्ही मूलभूत गोष्टींचा समावेश आहे. टाइम स्टॅम्प अँकर वेळेनुसार विश्लेषण करते आणि पत्ता माहिती अँकर जागेनुसार विश्लेषण करते. टाइमस्टॅम्प वेळेनुसार विश्लेषण करतात आणि पत्त्याची माहिती जागेनुसार विश्लेषण करते. आकृती जिओकोडिंग दर्शवते - पत्ते नकाशामधील बिंदूंमध्ये किंवा अंतराळातील बिंदूंमध्ये रूपांतरित करण्याची प्रक्रिया जेणेकरून अंतर आणि आत/बाहेरच्या संकल्पना विश्लेषणामध्ये वापरल्या जाऊ शकतात - अणु स्तरावर आयोजित केले जाते आणि स्थानिक विश्लेषण जे उपलब्ध केले जाते विश्लेषक IBM पर्यावरणीय प्रणाली संशोधन संस्था (ESRI) सह विकसित केलेले अवकाशीय विस्तार प्रदान करते. डेटाबेस DB2 जेणेकरून स्पेस ऑब्जेक्ट्सचा एक सामान्य भाग म्हणून संग्रहित केला जाऊ शकतो डेटाबेस संबंधीत. DB2

अवकाशीय विस्तारक, अवकाशीय विश्लेषणाचे शोषण करण्यासाठी सर्व SQL विस्तार देखील प्रदान करतात. उदाहरणार्थ, विरुद्ध क्वेरी करण्यासाठी SQL विस्तार
पत्त्यांमधील अंतर किंवा एखादा बिंदू परिभाषित बहुभुज क्षेत्राच्या आत किंवा बाहेर आहे, हे अवकाशीय विस्तारक असलेले विश्लेषणात्मक मानक आहेत. अधिक माहितीसाठी धडा 16 पहा.

डेटाबेस-निवासी साधने साधने डेटाबेस-रहिवासी

DB2 मध्ये अनेक BI-निवासी SQL वैशिष्ट्ये आहेत जी विश्लेषण क्रियेत मदत करतात. यात समाविष्ट:

  • विश्लेषण करण्यासाठी पुनरावृत्ती कार्ये, जसे की " येथून सर्व संभाव्य उड्डाण मार्ग शोधणे सॅन फ्रान्सिस्को a न्यू यॉर्क".
  • रँकिंगसाठी विश्लेषणात्मक कार्ये, संचयी कार्ये, घन आणि रोलअप कार्ये सुलभ करण्यासाठी जी सामान्यत: केवळ OLAP तंत्रज्ञानाने होतात, आता इंजिनचा एक नैसर्गिक भाग आहे. डेटाबेस
  • परिणाम असलेली सारणी तयार करण्याची क्षमता
    च्या विक्रेते डेटाबेस नेते मध्ये अधिक BI क्षमता मिसळतात डेटाबेस त्याच.
    चे मुख्य पुरवठादार डेटा बेस ते मध्ये अधिक BI क्षमता मिसळत आहेत डेटाबेस त्याच.
    हे BI सोल्यूशन्ससाठी चांगले कार्यप्रदर्शन आणि अधिक अंमलबजावणी पर्याय प्रदान करते.
    DB2 V8 ची वैशिष्ट्ये आणि कार्ये खालील प्रकरणांमध्ये तपशीलवार चर्चा केली आहेत:
    तांत्रिक आर्किटेक्चर आणि डेटा मॅनेजमेंट फाउंडेशन्स (धडा 5)
  • DB2 BI मूलभूत तत्त्वे (धडा 6)
  • DB2 मटेरिअलाइज्ड क्वेरी टेबल (धडा 7)
  • DB2 OLAP फंक्शन्स (धडा 13)
  • DB2 वर्धित BI वैशिष्ट्ये आणि कार्ये (धडा 15) सरलीकृत डेटा वितरण प्रणाली ची वितरण प्रणाली dati सरलीकृत

आकृती 1.1 मध्ये चित्रित केलेल्या आर्किटेक्चरमध्ये असंख्य संरचनांचा समावेश आहे dati शारीरिक एक गोदाम आहे dati कार्यरत सामान्यतः, ODS ही विषयाभिमुख, एकात्मिक आणि वर्तमान वस्तू असते. तुम्ही समर्थन करण्यासाठी एक ODS तयार कराल, उदाहरणार्थ, विक्री कार्यालय. ODS विक्री पूरक होईल dati असंख्य भिन्न प्रणालींमधून परंतु केवळ टिकवून ठेवेल, उदाहरणार्थ, आजचे व्यवहार. ODS देखील दिवसातून अनेक वेळा अद्यतनित केले जाऊ शकते. त्याच वेळी, प्रक्रिया ढकलतात dati इतर अनुप्रयोगांमध्ये एकत्रित. ही रचना विशेषतः एकत्रित करण्यासाठी डिझाइन केलेली आहे dati वर्तमान आणि गतिमान आणि रिअल-टाइम विश्लेषणास समर्थन देण्यासाठी संभाव्य उमेदवार असेल, जसे की सेवा एजंटना प्रदान करणे ग्राहकांना वेअरहाऊसमधूनच विक्रीच्या ट्रेंडची माहिती काढून ग्राहकाची सध्याची विक्री माहिती. आकृती 1.1 मध्ये दर्शविलेली दुसरी रचना dw साठी एक औपचारिक अवस्था आहे. ची गुणवत्ता, आवश्यक एकात्मतेच्या अंमलबजावणीसाठी हे स्थान नाही dati, आणि च्या परिवर्तनाचे dati इनकमिंग वेअरहाऊसचे, परंतु ते एक विश्वासार्ह आणि तात्पुरते स्टोरेज क्षेत्र देखील आहे dati रिअल-टाइम विश्लेषणामध्ये वापरल्या जाऊ शकणार्‍या प्रतिकृती. आपण ODS किंवा स्टेजिंग क्षेत्र वापरण्याचे ठरविल्यास, या संरचनांना भरण्यासाठी सर्वोत्तम साधनांपैकी एक dati भिन्न परिचालन स्रोत वापरणे ही DB2 ची विषम वितरित क्वेरी आहे. ही क्षमता DB2 रिलेशनल कनेक्ट (केवळ क्वेरी) नावाच्या पर्यायी DB2 वैशिष्ट्याद्वारे आणि DB2 डेटाजॉइनरद्वारे (एक वेगळे उत्पादन जे विषम वितरित RDBMSs साठी क्वेरी, समाविष्ट, अद्यतन आणि हटविण्याची क्षमता प्रदान करते) द्वारे वितरित केले जाते.

हे तंत्रज्ञान वास्तुविशारदांना परवानगी देते dati बांधणे dati विश्लेषणात्मक प्रक्रियेसह उत्पादन. तंत्रज्ञान केवळ रिअल-टाइम अॅनालिटिक्ससह उद्भवू शकणार्‍या कोणत्याही प्रतिकृती मागण्यांशी जुळवून घेऊ शकत नाही, परंतु ते विविध प्रकारच्या बेसशी देखील जोडू शकते. dati DB2, Oracle, Sybase, SQL Server, Informix आणि इतरांसह सर्वात लोकप्रिय. DB2 DataJoiner रचना तयार करण्यासाठी वापरला जाऊ शकतो dati ओडीएस म्हणून औपचारिक किंवा तात्काळ अद्यतनांच्या द्रुत पुनर्प्राप्तीसाठी किंवा विक्रीसाठी डिझाइन केलेले वेअरहाऊसमध्ये प्रतिनिधित्व केलेले कायमचे टेबल. अर्थात, या समान संरचना dati वापरून लोकसंख्या केली जाऊ शकते

च्या प्रतिकृतीसाठी डिझाइन केलेले आणखी एक महत्त्वाचे तंत्रज्ञान dati, IBM डेटाप्रोपेगेटर रिलेशनल. (डेटाप्रोपगेटर हे केंद्रीय प्रणालींसाठी एक वेगळे उत्पादन आहे. DB2 UNIX, Linux, Windows आणि OS/2 मध्ये डेटा प्रतिकृती सेवा समाविष्ट आहे dati मानक वैशिष्ट्य म्हणून).
हलविण्यासाठी दुसरी पद्धत dati एंटरप्राइजच्या आसपास एक एंटरप्राइझ ऍप्लिकेशन इंटिग्रेटर आहे अन्यथा संदेश ब्रोकर म्हणून ओळखले जाते. हे अद्वितीय तंत्रज्ञान लक्ष्यीकरण आणि हलविण्यासाठी अतुलनीय नियंत्रणास अनुमती देते dati कंपनीच्या आसपास. IBM कडे सर्वात मोठ्या प्रमाणावर वापरले जाणारे संदेश ब्रोकर, MQSeries किंवा उत्पादनाची भिन्नता आहे ज्यात आवश्यकता समाविष्ट आहे ई-कॉमर्स, IBM WebSphere MQ.
Per più discussione su come sfruttare MQ per sostenere un magazzino e un ambiente BI, visitare संकेतस्थळ del libro. Per ora, è sufficiente dire che questa tecnologia è un mezzo eccellente per catturare e trasformare (utilizzando MQSeries Integrator) dati BI सोल्यूशन्ससाठी भरती केंद्रीत (लक्ष्यित) ऑपरेटर. MQ तंत्रज्ञान एकत्रित केले गेले आहे आणि UDB V8 मध्ये पॅकेज केले आहे, म्हणजे संदेश रांग आता DB2 टेबल्स असल्याप्रमाणे व्यवस्थापित केल्या जाऊ शकतात. वेल्डिंग रांगेत संदेश आणि च्या विश्वाची संकल्पना डेटाबेस च्या शक्तिशाली वितरण वातावरणाकडे रिलेशनल डोके dati.

शून्य-विलंब शून्य विलंब

IBM साठी अंतिम धोरणात्मक ध्येय शून्य-विलंबता विश्लेषण आहे. द्वारे परिभाषित केल्याप्रमाणे
गार्टनर, BI प्रणाली मागणीनुसार विश्लेषकांना माहिती काढण्यास, आत्मसात करण्यास आणि प्रदान करण्यास सक्षम असणे आवश्यक आहे. आव्हान, अर्थातच, कसे मिसळावे dati आवश्यक ऐतिहासिक माहितीसह वर्तमान आणि वास्तविक वेळ, जसे की i dati संबंधित पॅटर्न/ट्रेंड, किंवा काढलेली समज, जसे की ग्राहक प्रोफाइलिंग.

अशा माहितीमध्ये, उदाहरणार्थ, ची ओळख समाविष्ट आहे ग्राहकांना उच्च किंवा कमी धोका किंवा कोणती उत्पादने i ग्राहकांना त्यांच्या शॉपिंग कार्टमध्ये आधीच चीज असल्यास ते बहुधा खरेदी करतील.

शून्य विलंबता प्राप्त करणे प्रत्यक्षात दोन मूलभूत यंत्रणेवर अवलंबून आहे:

  • चे पूर्ण संघटन dati ज्याचे विश्लेषण BI द्वारे तयार केलेल्या प्रस्थापित तंत्र आणि साधनांसह केले जाते
  • ची वितरण प्रणाली dati रिअल-टाइम विश्लेषणे खरोखर उपलब्ध आहेत याची खात्री करण्यासाठी कार्यक्षम. शून्य विलंबतेसाठी या पूर्व-आवश्यकता IBM ने सेट केलेल्या आणि वर वर्णन केलेल्या दोन लक्ष्यांपेक्षा भिन्न नाहीत. च्या क्लोज कपलिंग dati हा IBM च्या सीमलेस इंटिग्रेशन प्रोग्रामचा एक भाग आहे. आणि ची वितरण प्रणाली तयार करा dati कार्यक्षम हे उपलब्ध तंत्रज्ञानावर पूर्णपणे अवलंबून आहे जे वितरण प्रक्रिया सुलभ करते dati. परिणामी, IBM च्या तीनपैकी दोन उद्दिष्टे तिसरे साध्य करण्यासाठी महत्त्वपूर्ण आहेत. गोदामाच्या प्रयत्नांसाठी शून्य लेटन्सी हे वास्तव आहे याची खात्री करण्यासाठी IBM जाणीवपूर्वक त्याचे तंत्रज्ञान विकसित करत आहे. सारांश / संश्लेषण BI संस्था तुमचे वातावरण तयार करण्यासाठी रोड मॅप प्रदान करते
    पुनरावृत्तीने. आपल्या व्यवसायाच्या, वर्तमान आणि भविष्यातील दोन्ही गरजा प्रतिबिंबित करण्यासाठी ते समायोजित केले जाणे आवश्यक आहे. विस्तृत वास्तुशास्त्रीय दृष्टीशिवाय, गोदामाची पुनरावृत्ती केंद्रीय वेअरहाऊसच्या अव्यवस्थित अंमलबजावणीपेक्षा थोडी अधिक आहे जी एक व्यापक, माहितीपूर्ण उपक्रम तयार करण्यासाठी फारसे काही करत नाही. BI संस्था विकसित करण्यासाठी आवश्यक असलेल्या गुंतवणुकीचे समर्थन कसे करावे हा प्रकल्प व्यवस्थापकांसाठी पहिला अडथळा आहे. ROI गणना हा वेअरहाऊस अंमलबजावणीचा मुख्य आधार राहिला आहे, परंतु अचूकपणे अंदाज लावणे अधिक कठीण होत आहे. यामुळे तुम्हाला तुमच्या पैशाची किंमत आहे की नाही हे ठरवण्यासाठी इतर पद्धती उपलब्ध झाल्या आहेत. गुंतवणूक 2 (VOI) वर मूल्य, उदाहरणार्थ, एक उपाय म्हणून प्रोत्साहन दिले जाते. च्या वास्तुविशारदांवर जबाबदारी आहे dati आणि प्रकल्प नियोजक जाणूनबुजून व्युत्पन्न करतात आणि वापरकर्ता संघटनांना माहिती देतात आणि त्यांना फक्त सेवा प्रदान करत नाहीत dati. दोघांमध्ये खूप फरक आहे. माहिती अशी गोष्ट आहे जी निर्णय प्रक्रियेत आणि परिणामकारकतेमध्ये फरक करते; तुलनेने, i dati ती माहिती मिळवण्यासाठी ते बिल्डिंग ब्लॉक्स बनवत आहेत.

जरी मी स्त्रोताची टीका करत असलो तरी dati व्यवसायाच्या विनंत्या संबोधित करण्यासाठी, BI वातावरणाने माहिती सामग्री तयार करण्यात मोठी भूमिका बजावली पाहिजे. वापरकर्ते कृती करू शकतील अशी माहिती सामग्री स्वच्छ, समाकलित, रूपांतरित करण्यासाठी किंवा अन्यथा तयार करण्यासाठी आम्ही अतिरिक्त पावले उचलली पाहिजेत आणि नंतर आम्ही हे सुनिश्चित केले पाहिजे की त्या कृती आणि निर्णय, जेथे वाजवी असतील, BI वातावरणात प्रतिबिंबित होतात. आम्ही फक्त वर सेवा करण्यासाठी गोदाम relegate तर dati, हे सुनिश्चित केले जाते की वापरकर्ता संघटना कारवाई करण्यासाठी आवश्यक असलेली माहिती सामग्री तयार करतील. हे सुनिश्चित करते की त्यांचा समुदाय अधिक चांगले निर्णय घेण्यास सक्षम असेल, परंतु कंपनीला त्यांनी वापरलेल्या ज्ञानाच्या कमतरतेचा त्रास होतो. तारीख वास्तुविशारद आणि प्रकल्प नियोजक BI वातावरणात विशिष्ट प्रकल्प सुरू करतात, ते संपूर्णपणे एंटरप्राइझला जबाबदार असतात. BI पुनरावृत्तीच्या या द्वि-बाजूच्या वैशिष्ट्याचे एक साधे उदाहरण स्त्रोतामध्ये आढळते dati. सर्व dati विशिष्‍ट व्‍यवसाय विनंत्‍यासाठी मिळालेल्‍या पहिल्या अणु लेयरमध्‍ये भरलेले असले पाहिजे. हे एंटरप्राइझ माहिती मालमत्तेचा विकास सुनिश्चित करते, तसेच पुनरावृत्तीमध्ये परिभाषित केलेल्या विशिष्ट वापरकर्त्याच्या विनंत्या व्यवस्थापित करते.

डेटा वेअरहाऊस काय आहे?

डेटा गोदाम हे 1990 पासून माहिती प्रणाली आर्किटेक्चरचे केंद्र आहे आणि एक ठोस एकात्मिक प्लॅटफॉर्म ऑफर करून माहिती प्रक्रियेस समर्थन देते dati त्यानंतरच्या विश्लेषणासाठी आधार म्हणून घेतलेला ऐतिहासिक डेटा. द डेटा वेअरहाऊस ते विसंगत ऍप्लिकेशन सिस्टीमच्या जगात सहजतेने एकत्रीकरण देतात. डेटा गोदाम तो एक ट्रेंड मध्ये विकसित झाला आहे. डेटा गोदाम संघटित आणि संग्रहित करा i dati दीर्घ ऐतिहासिक ऐहिक दृष्टीकोनावर आधारित माहिती आणि विश्लेषणात्मक प्रक्रियांसाठी आवश्यक. हे सर्व बांधकाम आणि देखभाल मध्ये एक सिंहाचा आणि सतत वचनबद्धता आवश्यक आहे डेटा वेअरहाऊस.

तर काय आहे ए डेटा वेअरहाऊस? ए डेटा वेअरहाऊस आणि:

  • ▪ विषयाभिमुख
  • ▪  एकात्मिक प्रणाली
  • ▪  वेरिएंट वेळ
  • ▪  अ-अस्थिर (मिटवत नाही)

चा संग्रह dati प्रक्रियांच्या अंमलबजावणीमध्ये व्यवस्थापकीय निर्णयांना समर्थन देण्यासाठी वापरले जाते.
I dati मध्ये घातले डेटा वेअरहाऊस बहुतेक प्रकरणांमध्ये ते ऑपरेशनल वातावरणातून प्राप्त होतात. द डेटा वेअरहाऊस हे एका स्टोरेज युनिटद्वारे तयार केले जाते, जे त्यात समाविष्ट असलेल्या उर्वरित सिस्टमपासून भौतिकरित्या वेगळे केले जाते dati ऑपरेटिंग वातावरणातून मिळविलेल्या माहितीवर कार्य करणार्‍या अनुप्रयोगांद्वारे पूर्वी बदललेले.

a ची शाब्दिक व्याख्या डेटा वेअरहाऊस एका सखोल स्पष्टीकरणास पात्र आहे कारण गोदामाच्या वैशिष्ट्यांचे वर्णन करणारे महत्त्वपूर्ण प्रेरणा आणि अंतर्निहित अर्थ आहेत.

विषय ओरिएंटेशन ओरिएंटेशन थीमॅटिक

चे पहिले वैशिष्ट्य डेटा वेअरहाऊस ते कंपनीतील प्रमुख खेळाडूंकडे केंद्रित आहे. च्या माध्यमातून चाचण्यांचे मार्गदर्शक dati हे अधिक क्लासिक पद्धतीच्या विरुद्ध आहे ज्यामध्ये प्रक्रिया आणि कार्ये यांच्याकडे ऍप्लिकेशनचे अभिमुखता समाविष्ट असते, ही पद्धत बहुतेक कमी अलीकडील व्यवस्थापन प्रणालींद्वारे सामायिक केली जाते.

कर्ज, बचत, बँककार्ड आणि वित्तीय संस्थेसाठी ट्रस्ट यांसारख्या ऍप्लिकेशन्स आणि फंक्शन्सच्या आसपास ऑपरेशनल जग तयार केले गेले आहे. dw चे जग ग्राहक, विक्रेता, उत्पादन आणि क्रियाकलाप यासारख्या मुख्य विषयांभोवती आयोजित केले जाते. विषयांभोवतीचे संरेखन डिझाइन आणि अंमलबजावणीवर परिणाम करते dati dw मध्ये आढळले. अधिक महत्त्वाचे म्हणजे, मुख्य विषय मुख्य संरचनेच्या सर्वात महत्वाच्या भागावर परिणाम करतो.

डेटाबेसची रचना आणि प्रक्रिया डिझाइन या दोहोंवर अनुप्रयोगाच्या जगाचा प्रभाव पडतो. dw चे जग केवळ मॉडेलिंगवर केंद्रित आहे dati आणि च्या डिझाइनवर डेटाबेस. प्रक्रिया डिझाइन (त्याच्या क्लासिक स्वरूपात) dw वातावरणाचा भाग नाही.

प्रक्रिया/फंक्शन ऍप्लिकेशनची निवड आणि विषयाची निवड यामधील फरक देखील सामग्रीमधील फरक म्हणून प्रकट होतो. dati तपशीलवार स्तरावर. द dati dw मध्ये i समाविष्ट नाही dati जे अर्ज करताना DSS प्रक्रियेसाठी वापरले जाणार नाही

ऑपरेशनल ओरिएंटेड dati i समाविष्टीत आहे dati DSS विश्लेषकासाठी उपयोग नसलेल्या किंवा नसलेल्या कार्यात्मक/प्रोसेसिंग आवश्यकता त्वरित पूर्ण करण्यासाठी.
आणखी एक महत्त्वाचा मार्ग ज्यामध्ये ऑपरेशनल-देणारं अनुप्रयोग dati पेक्षा वेगळे dati dw च्या dei अहवालात आहे dati. मी dati ऑपरेशन्स सक्रिय असलेल्या व्यवसाय नियमाच्या आधारावर दोन किंवा अधिक सारण्यांमध्ये सतत संबंध ठेवतात. द dati dw चा काळाचा स्पेक्ट्रम ओलांडला जातो आणि dw मध्ये आढळणारे संबंध बरेच आहेत. अनेक व्यापार नियम (आणि त्या अनुषंगाने, अनेक संबंध dati ) च्या वेअरहाऊसमध्ये दर्शविले जातात dati दोन किंवा अधिक टेबल्स दरम्यान.

(मधील संबंध कसे आहेत याच्या तपशीलवार स्पष्टीकरणासाठी dati DW मध्ये हाताळले जातात, आम्ही त्या विषयावरील टेक विषयाचा संदर्भ घेतो.)
फंक्शनल/प्रोसेस ऍप्लिकेशन निवड आणि विषय निवड यांच्यातील मूलभूत फरकापेक्षा इतर कोणत्याही दृष्टीकोनातून, ऑपरेटिंग सिस्टम आणि dati आणि DW.

एकत्रीकरण एकत्रीकरण

dw पर्यावरणाचा सर्वात महत्वाचा पैलू म्हणजे i dati dw मध्ये आढळणारे सहजपणे एकत्रित केले जातात. नेहमी. अपवादाशिवाय. dw पर्यावरणाचे सार हे आहे की i dati वेअरहाऊसच्या मर्यादेत समाविष्ट आहेत.

एकात्मता स्वतःला अनेक प्रकारे प्रकट करते - सुसंगत ओळखल्या जाणार्‍या परंपरांमध्ये, सुसंगत चल मापनात, सुसंगत कोडेड संरचनांमध्ये, भौतिक गुणधर्मांमध्ये dati सुसंगत, आणि असेच.

गेल्या काही वर्षांमध्ये, विविध अॅप्लिकेशन्सच्या डिझायनर्सनी अॅप्लिकेशन कसे विकसित करावे याबद्दल अनेक निर्णय घेतले आहेत. डिझायनर्सच्या ऍप्लिकेशन्सची शैली आणि वैयक्तिक डिझाइन निर्णय स्वतःला शंभर मार्गांनी प्रकट करतात: कोडिंगमधील फरक, मुख्य संरचना, भौतिक वैशिष्ट्ये, ओळख पटवणे इ. विसंगत अनुप्रयोग तयार करण्यासाठी अनेक अनुप्रयोग डिझाइनरची सामूहिक क्षमता पौराणिक आहे. आकृती 3 अनुप्रयोगांची रचना करण्याच्या पद्धतींमधले काही महत्त्वाचे फरक मांडते.

एन्कोडिंग: एन्कोडिंग:

ऍप्लिकेशन डिझायनर्सनी फील्डचे एन्कोडिंग - सेक्स - वेगवेगळ्या प्रकारे निवडले आहे. डिझायनर सेक्सला "m" आणि "f" म्हणून दर्शवतो. दुसरा डिझायनर "1" आणि "0" म्हणून लिंग दर्शवतो. दुसरा डिझायनर लिंग "x" आणि "y" म्हणून दर्शवतो. दुसरा डिझायनर लिंग "पुरुष" आणि "स्त्री" म्हणून प्रतिनिधित्व करतो. DW मध्ये लिंग कसे येते हे महत्त्वाचे नाही. "M" आणि "F" कदाचित संपूर्ण नाटकासारखेच चांगले आहेत.

महत्त्वाचे हे आहे की लैंगिक क्षेत्राच्या उत्पत्तीपासून ते क्षेत्र सुसंगत एकात्मिक अवस्थेत DW मध्ये येते. परिणामी, जेव्हा ते "M" आणि "F" फॉर्मेटमध्ये दर्शविल्या गेलेल्या ऍप्लिकेशनमधून DW मध्ये फील्ड लोड केले जाते, तेव्हा dati DW स्वरूपात रूपांतरित करणे आवश्यक आहे.

गुणधर्मांचे मोजमाप: चे मोजमाप विशेषता:

ॲप्लिकेशन डिझायनर्सनी गेल्या काही वर्षांत पाइपलाइनचे विविध प्रकारे मोजमाप करणे निवडले आहे. डिझायनर स्टोअर करतो dati पाइपलाइनचे सेंटीमीटरमध्ये. दुसरा अनुप्रयोग डिझायनर स्टोअर करतो dati इंच च्या दृष्टीने पाइपलाइन. दुसरा अॅप्लिकेशन डिझायनर स्टोअर करतो dati दशलक्ष घनफूट प्रति सेकंदात पाइपलाइन. आणि दुसरा डिझायनर यार्ड्सच्या दृष्टीने पाइपलाइन माहिती संग्रहित करतो. स्रोत काहीही असो, जेव्हा पाइपलाइन माहिती DW मध्ये येते तेव्हा ती त्याच प्रकारे मोजली जाणे आवश्यक आहे.

आकृती 3 मधील संकेतांनुसार, एकत्रीकरण समस्या प्रकल्पाच्या जवळजवळ प्रत्येक पैलूवर परिणाम करतात - ची भौतिक वैशिष्ट्ये dati, एकापेक्षा जास्त स्त्रोत असण्याची कोंडी dati, विसंगत ओळखल्या गेलेल्या नमुन्यांची समस्या, चे स्वरूप dati विसंगत, आणि असेच.

डिझाईन विषय कोणताही असो, परिणाम एकच असतो – i dati DW मध्ये एकवचनी आणि जागतिक स्तरावर स्वीकार्य रीतीने संग्रहित केले जाणे आवश्यक आहे जरी अंतर्निहित ऑपरेटिंग सिस्टम त्यांना वेगळ्या प्रकारे संग्रहित करतात dati.

जेव्हा DSS विश्लेषक DW कडे पाहतो तेव्हा विश्लेषकाचे उद्दिष्ट शोषण हे असले पाहिजे dati जे गोदामात आहेत,

ची विश्वासार्हता किंवा सातत्य याबद्दल आश्चर्य करण्याऐवजी dati.

वेळेची भिन्नता

सर्व dati DW मध्ये ते काही काळापर्यंत अचूक असतात. चे हे मूलभूत वैशिष्ट्य dati DW मध्ये ते त्यापेक्षा खूप वेगळे आहे dati ऑपरेटिंग वातावरणात आढळते. द dati ऑपरेटिंग वातावरण प्रवेशाच्या क्षणी तितकेच अचूक आहेत. दुसऱ्या शब्दांत, ऑपरेटिंग वातावरणात जेव्हा ड्राइव्हमध्ये प्रवेश केला जातो dati, हे अपेक्षित आहे की ते प्रवेशाच्या वेळी तंतोतंत मूल्ये दर्शवेल. कारण मी dati DW मध्ये काही वेळेस तंतोतंत आहेत (म्हणजे "आत्ता" नाही), असे म्हटले जाते की मी dati DW मध्ये आढळलेले "वेळ भिन्नता" आहेत.
च्या वेळेचा फरक dati DW द्वारे अनेक प्रकारे संदर्भित केले जाते.
सर्वात सोपा मार्ग म्हणजे i dati एक DW प्रतिनिधित्व dati दीर्घ काळ क्षितिज - पाच ते दहा वर्षे. ऑपरेटिंग वातावरणासाठी दर्शविलेले वेळ क्षितिज आजच्या वर्तमान मूल्यांपेक्षा साठ नव्वद पर्यंत खूपच लहान आहे
ज्या अनुप्रयोगांमध्ये चांगले कार्य करणे आवश्यक आहे आणि व्यवहार प्रक्रियेसाठी उपलब्ध असणे आवश्यक आहे त्यांची किमान रक्कम असणे आवश्यक आहे dati जर ते कोणत्याही प्रमाणात लवचिकतेस परवानगी देतात. त्यामुळे ऑपरेशनल अॅप्लिकेशन्समध्ये ऑडिओ अॅप्लिकेशन डिझाइन विषयाप्रमाणे कमी वेळ असतो.
DW मध्ये 'वेळ भिन्नता' दिसण्याचा दुसरा मार्ग म्हणजे मुख्य रचना. DW मधील प्रत्येक मुख्य संरचनेत, अव्यक्त किंवा स्पष्टपणे, एक वेळ घटक असतो, जसे की दिवस, आठवडा, महिना इ. वेळ घटक जवळजवळ नेहमीच DW मध्ये सापडलेल्या संकलित कीच्या तळाशी असतो. या प्रसंगी, वेळेचा घटक अस्पष्टपणे अस्तित्वात असेल, जसे की महिना किंवा तिमाहीच्या शेवटी संपूर्ण फाइल डुप्लिकेट केली जाते.
तिसरा मार्ग टाइम व्हेरियंस प्रदर्शित केला जातो तो म्हणजे i dati DW चे, एकदा योग्यरित्या नोंदणीकृत झाल्यानंतर, अद्यतनित केले जाऊ शकत नाही. द dati DW चे, सर्व व्यावहारिक हेतूंसाठी, स्नॅपशॉट्सची एक लांबलचक मालिका आहे. अर्थात स्नॅपशॉट्स चुकीचे घेतले असतील तर स्नॅपशॉट्समध्ये बदल करता येऊ शकतात. परंतु स्नॅपशॉट्स बरोबर घेतले आहेत असे गृहीत धरून, ते घेतल्याबरोबर ते बदलले जात नाहीत. काहींमध्ये

काही प्रकरणांमध्ये ते अनैतिक किंवा अवैध देखील असू शकते DW मधील स्नॅपशॉट्समध्ये बदल करणे. द dati कार्यान्वित, प्रवेशाच्या क्षणी तंतोतंत असल्याने, आवश्यकतेनुसार ते अद्यतनित केले जाऊ शकतात.

नॉन-व्हॉलाटाइल

DW चे चौथे महत्वाचे वैशिष्ट्य म्हणजे ते अस्थिर आहे.
रेकॉर्ड-बाय-रेकॉर्ड आधारावर ऑपरेशनल वातावरणात अद्यतने, समाविष्ट करणे, हटवणे आणि बदल नियमितपणे केले जातात. पण मूळ फेरफार dati जे DW मध्ये आवश्यक आहे ते बरेच सोपे आहे. DW मध्ये फक्त दोन प्रकारची ऑपरेशन्स आहेत - प्रारंभिक लोडिंग dati आणि प्रवेश dati. चे कोणतेही अपडेट नाही dati (अपडेट करण्याच्या सामान्य अर्थाने) सामान्य प्रक्रिया ऑपरेशन म्हणून DW मध्ये. ऑपरेशनल प्रोसेसिंग आणि डीडब्ल्यू प्रोसेसिंगमधील या मूलभूत फरकाचे काही अतिशय शक्तिशाली परिणाम आहेत. डिझाईन स्तरावर, विसंगत अद्ययावत करण्याबाबत सावध राहण्याची गरज DW मध्ये एक घटक नाही, कारण अपडेटिंग dati चालवले जात नाही. याचा अर्थ भौतिक डिझाइन स्तरावर, प्रवेशास अनुकूल करण्यासाठी स्वातंत्र्य घेतले जाऊ शकते dati, विशेषतः शारीरिक सामान्यीकरण आणि विकृतीकरण या विषयांवर व्यवहार करताना. DW ऑपरेशन्सच्या साधेपणाचा आणखी एक परिणाम DW पर्यावरण चालविण्यासाठी वापरल्या जाणार्‍या अंतर्निहित तंत्रज्ञानामध्ये आहे. इनलाइन रेकॉर्ड-बाय-रेकॉर्ड अद्यतनांचे समर्थन करणे (जसे की ऑपरेशनल प्रक्रियेच्या बाबतीत अनेकदा घडते) तंत्रज्ञानाला स्पष्ट साधेपणाच्या खाली एक अतिशय जटिल पाया असणे आवश्यक आहे.
बॅकअप आणि पुनर्प्राप्ती, व्यवहार आणि अखंडतेला समर्थन देणारे तंत्रज्ञान dati आणि डेडलॉक स्थिती शोधणे आणि त्यावर उपाय करणे हे खूपच गुंतागुंतीचे आहे आणि DW प्रक्रियेसाठी आवश्यक नाही. डीडब्ल्यूची वैशिष्ट्ये, डिझाइन अभिमुखता, एकत्रीकरण dati DW मध्ये, वेळेत फरक आणि व्यवस्थापनाची साधेपणा dati, प्रत्येक गोष्ट क्लासिक ऑपरेटिंग वातावरणापेक्षा खूप भिन्न असलेल्या वातावरणाकडे घेऊन जाते. जवळजवळ सर्व स्त्रोत dati DW चे ऑपरेटिंग वातावरण आहे. च्या मोठ्या प्रमाणावर रिडंडंसी आहे असा विचार करणे मोहक आहे dati दोन वातावरणात.
किंबहुना, बर्‍याच लोकांवर पहिली छाप पडते ती म्हणजे अतिरेक dati ऑपरेटिंग वातावरण आणि ऑपरेटिंग वातावरण दरम्यान

DW. अशी व्याख्या वरवरची आहे आणि DW मध्ये काय घडते हे समजून घेण्याची कमतरता दर्शवते.
किंबहुना कमीत कमी रिडंडंसी आहे dati ऑपरेटिंग वातावरण आणि i दरम्यान dati DW च्या. खालील गोष्टींचा विचार करा: I dati ते फिल्टर केले जातात डेटा जे ऑपरेटिंग वातावरणातून DW वातावरणात जाते. अनेक dati ते ऑपरेटिंग वातावरणाच्या बाहेर कधीही जात नाहीत. ते सोडून i dati जे डीएसएस प्रक्रियेसाठी आवश्यक आहेत ते वातावरणात त्यांची दिशा शोधतात

▪  चे वेळ क्षितिज dati ते एका वातावरणापासून दुसऱ्या वातावरणात खूप वेगळे आहे. द dati ऑपरेटिंग वातावरणात ते खूप थंड आहेत. द dati DW मध्ये ते खूप जुने आहेत. केवळ वेळ क्षितिजाच्या दृष्टीकोनातून, ऑपरेशनल वातावरण आणि DW मध्ये फारच कमी ओव्हरलॅप आहे.

▪  DW मध्ये समाविष्ट आहे dati सारांश जे वातावरणात कधीही आढळत नाही

▪  I dati आकृती 3 मध्ये संक्रमण करताना मूलभूत परिवर्तन घडते dati जर ते निवडले गेले आणि DW वर हलवले गेले तर लक्षणीयरीत्या सुधारित केले आहेत. दुसरा मार्ग ठेवा, बहुतेक dati ते DW मध्ये हलवल्यामुळे ते शारीरिक आणि आमूलाग्र बदलले आहे. एकीकरणाच्या दृष्टिकोनातून ते एकसारखे नाहीत dati जे ऑपरेटिंग वातावरणात राहतात. या घटकांच्या प्रकाशात, च्या रिडंडंसी dati दोन वातावरणांमधील एक दुर्मिळ घटना आहे, ज्यामुळे दोन वातावरणांमध्ये 1% पेक्षा कमी रिडंडंसी होते. गोदामाची रचना DW ची एक वेगळी रचना आहे. DW चे सीमांकन करणारे सारांश आणि तपशीलाचे विविध स्तर आहेत.
DW चे विविध घटक आहेत:

  • मेटाडेटा
  • Dati वर्तमान तपशील
  • Dati जुन्या तपशीलांचे
  • Dati थोडेसे सारांशित
  • Dati अत्यंत सारांशित

आतापर्यंत मुख्य चिंता साठी आहे dati वर्तमान तपशील. ही मुख्य चिंता आहे कारण:

  • I dati वर्तमान तपशील सर्वात अलीकडील घटना प्रतिबिंबित करतात, जे नेहमीच खूप स्वारस्यपूर्ण असतात आणि
  • i dati सध्याचा तपशील मोठा आहे कारण तो ग्रॅन्युलॅरिटीच्या सर्वात कमी स्तरावर संग्रहित केला जातो आणि
  • i dati वर्तमान तपशील जवळजवळ नेहमीच डिस्क मेमरीमध्ये संग्रहित केले जातात, जे ऍक्सेस करण्यासाठी द्रुत आहे, परंतु वापरण्यासाठी महाग आणि जटिल आहे dati तपशिलानुसार ते जुने आहेत dati जे काही मेमरीमध्ये साठवले जातात वस्तुमान. ते तुरळकपणे ऍक्सेस केले जाते आणि त्याच्याशी सुसंगत तपशीलाच्या स्तरावर संग्रहित केले जाते dati वर्तमान तपशील. च्या मोठ्या प्रमाणामुळे, पर्यायी स्टोरेज माध्यमावर संग्रहित करणे अनिवार्य नाही dati च्या तुरळक प्रवेशासह एकत्रित dati, साठी मेमरी समर्थन dati जुना तपशील डेटा सहसा डिस्कवर संग्रहित केला जात नाही. द dati थोडक्यात सारांश आहे dati जे तपशीलाच्या कमी पातळीपासून तपशीलाच्या वर्तमान स्तरापर्यंत डिस्टिल्ड केले जातात. डीडब्ल्यूचा हा स्तर जवळजवळ नेहमीच डिस्क स्टोरेजवर संग्रहित केला जातो. वास्तुविशारदासाठी डिझाइन समस्या उद्भवतात dati DW च्या या स्तराच्या बांधकामात आहेत:
  • वर दिलेला सारांश वेळेचे कोणते एकक आहे
  • कोणती सामग्री, विशेषता किंचित सामग्रीचा सारांश देईल dati ची पुढील पातळी dati DW मध्ये आढळले की आहे dati अत्यंत सारांशित. द dati अत्यंत संक्षिप्त आणि सहज उपलब्ध आहेत. द dati अत्यंत सारांशित काहीवेळा DW वातावरणात आढळतात आणि इतर प्रकरणांमध्ये i dati DW असलेल्या तंत्रज्ञानाच्या तात्काळ भिंतींच्या बाहेर अत्यंत सारांशित आढळतात. (कोणत्याही परिस्थितीत, i dati आय dati शारीरिकरित्या ठेवलेले आहेत). DW चा अंतिम घटक मेटाडेटा आहे. अनेक बाबतीत मेटाडेटा इतरांपेक्षा वेगळ्या परिमाणात बसतो dati DW चे, कारण मेटाडेटामध्ये कोणताही समावेश नाही डेटा थेट ऑपरेटिंग वातावरणातून घेतले. मेटाडेटा DW मध्ये एक विशेष आणि अतिशय महत्वाची भूमिका आहे. मेटाडेटा वापरला जातो:
  • DSS विश्लेषकाला DW ची सामग्री ओळखण्यात मदत करण्यासाठी निर्देशिका,
  • मॅपिंग करण्यासाठी मार्गदर्शक dati कसे मी dati ऑपरेशनल वातावरणातून डीडब्ल्यू वातावरणात बदलले गेले आहे,
  • दरम्यान सारांश करण्यासाठी वापरल्या जाणार्‍या अल्गोरिदमसाठी मार्गदर्शक dati वर्तमान तपशील आणि i dati थोडेसे सारांशित, i dati अत्यंत सारांशित, मेटाडेटा DW वातावरणात ऑपरेशनल वातावरणापेक्षा खूप मोठी भूमिका बजावते जुने तपशील स्टोरेज माध्यम चुंबकीय टेप अशा प्रकारची साठवण्यासाठी वापरली जाऊ शकते dati. खरं तर स्टोरेज मीडियाची विविधता आहे जी जुन्या स्टोरेजसाठी विचारात घेतली पाहिजे dati तपशीलवार. च्या व्हॉल्यूमवर अवलंबून dati, प्रवेशाची वारंवारता, साधनांची किंमत आणि प्रवेशाचा प्रकार, इतर साधनांना DW मधील जुन्या स्तरावरील तपशीलांची आवश्यकता असण्याची शक्यता आहे. डेटाचा प्रवाह चा एक सामान्य आणि अंदाजे प्रवाह आहे dati DW च्या आत.
    I dati ऑपरेटिंग वातावरणातून DW प्रविष्ट करा. (सूचना: या नियमात काही अतिशय मनोरंजक अपवाद आहेत. तथापि, जवळजवळ सर्व dati ऑपरेटिंग वातावरणातून DW प्रविष्ट करा). तारीख की मी dati ऑपरेटिंग वातावरणातून DW प्रविष्ट करा, ते आधी वर्णन केल्याप्रमाणे बदलले आहे. DW मध्ये प्रवेश करण्याच्या अटीवर, i dati दाखवल्याप्रमाणे तपशीलाची वर्तमान पातळी प्रविष्ट करा. ते तिथे राहते आणि तीनपैकी एक घटना घडेपर्यंत वापरले जाते:
  • शुद्ध आहे,
  • सारांशित आहे, आणि/किंवा ▪è DW मधील अप्रचलित प्रक्रिया i dati वर्तमान तपशील a dati जुने तपशील, वयाच्या आधारावर dati. प्रक्रिया

सारांश चा तपशील वापरते dati गणना करण्यासाठी i dati च्या किंचित सारांशित आणि अत्यंत सारांशित स्तर dati. दर्शविलेल्या प्रवाहात काही अपवाद आहेत (नंतर चर्चा केली जाईल). तथापि, सहसा, बहुसंख्य साठी dati एक DW मध्ये आढळले, च्या प्रवाह dati ते चित्रित केल्याप्रमाणे आहे.

डेटावेअरहाऊस वापरणे

च्या विविध स्तरांवर आश्चर्याची गोष्ट नाही dati DW मध्ये त्यांना वापराचे वेगवेगळे स्तर मिळत नाहीत. नियमानुसार, सारांशाची पातळी जितकी जास्त असेल तितकी i dati ते वापरले जातात.
मध्ये अनेक उपयोग होतात dati अत्यंत सारांशित, तर जुने dati तपशील जवळजवळ कधीच वापरले जात नाहीत. संस्थेला संसाधनाच्या वापराच्या उदाहरणाकडे नेण्याचे एक चांगले कारण आहे. अधिक सारांश i dati, वर जाणे जितके जलद आणि अधिक कार्यक्षम आहे dati. जर ए दुकान ते DW च्या तपशील स्तरावर अनेक प्रक्रिया करते असे आढळते, त्यानंतर मोठ्या प्रमाणात मशीन संसाधने वापरली जातात. शक्य तितक्या लवकर उच्च स्तरीय सारांश प्रक्रिया करणे प्रत्येकाच्या हिताचे आहे.

बर्याच दुकानांसाठी, पूर्व-डीडब्ल्यू वातावरणातील डीएसएस विश्लेषक वापरला आहे dati तपशील स्तरावर. येथे आगमन अनेक बाबतीत dati तपशीलवार सारांश सुरक्षा ब्लँकेट सारखा दिसतो, जरी सारांशाचे इतर स्तर उपलब्ध असले तरीही. आर्किटेक्टच्या क्रियाकलापांपैकी एक dati DSS वापरकर्त्याला सतत वापरण्यापासून मुक्त करणे आहे dati तपशीलाच्या सर्वात खालच्या स्तरावर. च्या आर्किटेक्टसाठी दोन प्रेरणा उपलब्ध आहेत dati:

  • चार्जबॅक सिस्टम स्थापित करून, जिथे अंतिम वापरकर्ता वापरलेल्या संसाधनांसाठी पैसे देतो e
  • जे सूचित करते की i सह वर्तन करताना खूप चांगला प्रतिसाद वेळ मिळू शकतो dati सारांशाच्या उच्च पातळीवर आहे, तर खराब प्रतिसाद वेळ च्या वर्तनातून येतो dati कमी पातळीवर इतर मंजूरी काही इतर DW बांधकाम आणि व्यवस्थापन विचार आहेत.
    पहिला विचार म्हणजे निर्देशांकांचा. द dati सारांशीकरणाच्या उच्च स्तरावर ते मुक्तपणे अनुक्रमित केले जाऊ शकतात, तर i dati

तपशिलांच्या खालच्या स्तरावर ते इतके अवजड आहेत की ते काटकसरीने अनुक्रमित केले जाऊ शकतात. त्याच टोकनवरून, आय dati तपशील उच्च स्तरावर तुलनेने सहज पुनर्रचना केली जाऊ शकते, तर खंड dati खालच्या स्तरावर ते इतके मोठे आहे की i dati ते सहजपणे नूतनीकरण केले जाऊ शकत नाहीत. परिणामी, चे मॉडेल dati आणि डिझाईनद्वारे केलेल्या औपचारिक कामाने DW चा पाया रचला जो सध्याच्या तपशीलाच्या पातळीवर जवळजवळ पूर्णपणे लागू केला गेला आहे. दुसऱ्या शब्दांत, च्या मॉडेलिंग क्रियाकलाप dati ते जवळजवळ प्रत्येक बाबतीत, सारांश स्तरांवर लागू होत नाहीत. आणखी एक संरचनात्मक विचार म्हणजे उपविभागाचा dati DW द्वारे.

विभाजन दोन स्तरांवर केले जाऊ शकते - च्या स्तरावर डीबीएमएस आणि अनुप्रयोग स्तरावर. स्तरावरील विभागामध्ये डीबीएमएसतो डीबीएमएस विभागांची माहिती दिली जाते आणि त्यानुसार त्यांचे नियंत्रण केले जाते. अनुप्रयोग स्तरावर विभाजनाच्या बाबतीत, केवळ प्रोग्रामरला विभागांची माहिती दिली जाते आणि त्यांच्या प्रशासनाची जबाबदारी त्याच्यावर सोडली जाते.

पातळी खाली डीबीएमएस, बरेच काम आपोआप होते. स्वयंचलित विभागीय प्रशासनाशी संबंधित बरीच लवचिकता आहे. च्या अर्ज स्तरावर विभाजनांच्या बाबतीत dati अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस, प्रोग्रामरवर खूप कामाचे वजन असते, परंतु अंतिम परिणाम म्हणजे प्रशासनातील लवचिकता dati नेल डेटा वेअरहाऊस

ALTRE विसंगती

च्या घटक असताना डेटा वेअरहाऊस ते जवळजवळ सर्वांसाठी वर्णन केल्याप्रमाणे कार्य करतात dati, काही उपयुक्त अपवाद आहेत ज्यांची चर्चा करणे आवश्यक आहे. याला अपवाद आहे dati सार्वजनिक सारांश डेटा. हे आहेत dati मधून मोजले गेलेले सारांश डेटा वेअरहाऊस पण ते समाज वापरतात. द dati मध्ये सार्वजनिक सारांश संग्रहित आणि व्यवस्थापित केले जातात डेटा वेअरहाऊस, जरी आधी नमूद केल्याप्रमाणे त्यांची गणना केली जाते. लेखापाल अशा त्रैमासिक निर्मितीचे काम करतात dati जसे की उत्पन्न, त्रैमासिक खर्च, त्रैमासिक नफा इ. लेखापालांनी केलेले काम हे बाह्य आहे डेटा वेअरहाऊस. तथापि, आय dati कंपनीमध्ये “अंतर्गत” वापरले जातात – पासून विपणन, विक्री इ. आणखी एक विसंगती, ज्याची चर्चा केली जाणार नाही, ती आहे dati बाह्य

Un altro eccezionale tipo di dati che si possono trovare in un डेटा वेअरहाऊस è quello dei permanent detail data. Questi provocano la necessità di memorizzare in modo permanente i dati ad un livello dettagliato per i motivi etici o legali. Se una società sta esponendo i relativi operai a sostanze pericolose c’ è un’esigenza di dati dettagliati e permanenti . Se una società produce un prodotto che coinvolge la sicurezza pubblica, quali parti di un aeroplano, c’è l’esigenza di dati dettagliati permanenti, così come se una società stipula contratti pericolosi.

La società non può permettersi di trascurare i particolari perché durante i prossimi anni, nel caso di una causa, di un richiamo, di un difetto di costruzione disputato, ecc. l’esposizione dell’azienda potrebbe essere grande. Di conseguenza c’è un tipo unico di dati conosciuti come permanent detail data.

सारांश

Un डेटा वेअरहाऊस è un oggetto orientato, integrato, variante di tempo, una raccolta di dati non volatile a sostegno dei bisogni di decisione dell’amministrazione. Ciascuna delle funzioni salienti di un डेटा वेअरहाऊस ha le relative implicazioni. In più ci sono quattro livelli di dati अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस:

  • Old detail
  • Current detail
  • Dati leggermente ricapitolati
  • Dati altamente ricapitolati I metadati sono inoltre una parte importante del डेटा वेअरहाऊस. ASTRATTO Il concetto dell’immagazzinamento di dati recentemente ha ricevuto molte attenzioni ed è diventato una tendenza degli anni 90. Ciò è dovuto alla capacità di un डेटा वेअरहाऊस di sormontare le limitazioni dei sistemi di supporto dell’amministrazione quali i sistemi di ausilio decisionale (DSS) ed i sistemi d’informazione esecutivi (EIS). Anche se il concetto del डेटा वेअरहाऊस sembra promettente, implementare i डेटा वेअरहाऊस può essere problematico a causa dei processi d’immagazzinamento su larga scala. Malgrado la complessità dei progetti d’immagazzinamento di dati, molti fornitori e consulenti che immagazzinano dati sostengono che l’immagazzinamento di dati attuali non comporta problemi. Tuttavia, all’inizio di questo progetto di ricerca, quasi nessuna ricerca indipendente, rigorosa e sistematica era stata effettuata. Di conseguenza è difficile dire, che cosa realmente accade nell’industria quando si costruiscono डेटा वेअरहाऊस. Questo studio ha esplorato la pratica d’immagazzinamento di dati contemporanei che punta a sviluppare una comprensione più ricca della pratica australiana. L’analisi della letteratura ha fornito il contesto ed il fondamento per lo studio empirico. Ci sono un certo numero di risultati da questa ricerca. In primo luogo, questo studio ha rivelato le attività che si sono presentate durante lo sviluppo del डेटा वेअरहाऊस. In molte zone, i dati riuniti hanno confermato la pratica segnalata nella letteratura. In secondo luogo, le edizioni ed i problemi che possono avere effetto sullo sviluppo del डेटा वेअरहाऊस sono stati identificati da questo studio. Infine, benefici tratti dalle organizzazioni australiane connesse con l’uso dei डेटा वेअरहाऊस sono stati rivelati.

अध्याय 1

Contesto di ricerca

Il concetto del data warehousing ha ricevuto una diffusa esposizione e si è trasformato in una tendenza emergente negli anni 90 (McFadden 1996, TDWI 1996, Shah e Milstein 1997, Shanks ed altri. 1997, Eckerson 1998, Adelman e Oates 2000). Ciò può essere visto dal numero crescente di articoli sul data warehousing nelle pubblicazioni commerciali (Little e Gibson 1999). Molti articoli (vedere, per esempio, Fisher 1995, Hackathorn 1995, Morris 1995a, Bramblett e re 1996, Graham ed altri. 1996, Sakaguchi e Frolick 1996, Alvarez 1997, Brousell 1997, Clarke 1997, McCarthy 1997, O’ Donnell 1997, Edwards 1998, TDWI 1999) hanno segnalato notevoli benefici tratti dalle organizzazioni che implementano i डेटा वेअरहाऊस. Hanno sostenuto la loro teoria con la prova aneddotale delle implementazioni riuscite, l’alto ritorno sulle figure di investimento (ROI) e, anche, fornendo la guida di riferimento o le metodologie per lo sviluppo dei डेटा वेअरहाऊस

(Shanks ed altri. 1997, Seddon e Benjamin 1998, poco e Gibson 1999). In un caso estremo, Graham ed altri. (1996) hanno segnalato un ritorno medio su un investimento triennale del 401%.

Gran parte della letteratura attuale, tuttavia, ha trascurato le complessità coinvolte nell’intraprendere tali progetti. I progetti di डेटा वेअरहाऊस sono normalmente complesso e su grande scala e quindi implicano un’alta probabilità di non riuscire se non sono controllati con attenzione (Shah e Milstein 1997, Eckerson 1997, Foley 1997b, Zimmer 1997, Bort 1998, Gibbs e Clymer 1998, Rao 1998). Essi richiedono i vasti importi sia di risorse umane che finanziarie e, tempo e sforzo per costruirli (Hill 1998, Crofts 1998). Il tempo tipico ed i mezzi finanziari necessari sono rispettivamente di circa due anni e di due o tre milioni di dollari (Braly 1995, Foley 1997b, Bort 1998, Humphries ed altri. 1999). Questi tempi e mezzi finanziari sono richiesti per controllare e consolidare molti aspetti differenti del data warehousing (Cafasso 1995, Hill 1998). A lato delle considerazioni hardware e software, altre funzioni, che variano dall’estrazione di dati ai processi di caricamento di dati, dalla capacità di memoria per gestire gli aggiornamenti e dai meta dati per la formazione degli utenti, devono essere considerati.

Ai tempi dell’inizio di questo progetto di ricerca, c’era pochissima ricerca accademica condotta nel campo del data warehousing, specialmente in Australia. Ciò era evidente dalla penuria di articoli pubblicati sul data warehousing da giornali o altre scritture accademiche del tempo. Molte delle scritture accademiche disponibili descrivevano l’esperienza statunitense. La mancanza di ricerca accademica nella zona sl data warehousing ha causato la richiesta di ricerca rigorosa e studi empirici (McFadden 1996, Shanks ed altri. 1997, Little e Gibson 1999). In particolare, gli studi di ricerca sul processo di implementazione dei डेटा वेअरहाऊस necessitano di essere effettuati per estendere la conoscenza generale riguardo l’implementazione dei डेटा वेअरहाऊस e serviranno come base per un futuro studio di ricerca (Shanks ed altri. 1997, Little e Gibson 1999).

Lo scopo di questo studio, quindi, è studiare che cosa realmente accade quando le organizzazioni effettuano ed usano i डेटा वेअरहाऊस in Australia. Specificamente, questo studio coinvolgerà un’analisi di un intero processo di sviluppo di un डेटा वेअरहाऊस, iniziando dall’iniziazione e progettazione attraverso il design e l’inplementazione e il successivo uso all’interno delle organizzazioni australiane. In più, lo studio inoltre contribuirà al la pratica attuale identificando le aree in cui la pratica può essere ulteriormente migliorata e le inefficienze e i rischi possono essere minimizzati o evitati. Inoltre, servirà da base per altri studi sui डेटा वेअरहाऊस in Australia e colmerà il gap attualmente esistente in letteratura.

Domande di ricerca

L’obiettivo di questa ricerca è studiare le attività coinvolte nell’implementazione dei डेटा वेअरहाऊस e il loro uso da parte delle organizzazioni australiane. In particolare, sono studiati gli elementi riguardo alla pianificazione di progetto, allo sviluppo, al funzionamento, all’uso ed ai rischi in questione. Quindi la domanda di questa ricerca è:

“Com’è la pratica attuale dei डेटा वेअरहाऊस in australia?”

Per rispondere efficacemente a questo problema, sono richieste un certo numero di domande sussidarie di ricerca. In particolare, tre sotto-domande sono state identificate dalla letteratura, che è presentata nel capitolo 2, per guidare questo progetto di ricerca: Come sono implementati i डेटा वेअरहाऊस dalle organizzazioni australiane? Quali sono i problemi incontrati?

Quali sono i benefici sperimentati?
Nel rispondere a queste domande, è stato usato un disegno esplorativo di ricerca che impiega un’indagine. Come studio esplorativo, le risposte alle suddette domande non sono complete (Shanks ed altri. 1993, Denscombe 1998). In questo caso, è richiesta una triangolazione per migliorare le risposte a queste domande. Tuttavia, l’indagine fornirà un solido fondamento per futuri lavori che esaminano queste domande. Una dettagliata discussione sulla giustificazione del metodo di ricerca e sul design è presentata nel capitolo 3.

Struttura del progetto di ricerca

Questo progetto di ricerca è diviso in due parti: lo studio contestuale del concetto di datawarehousing e la ricerca empirica (si veda figura 1.1), ciascuno dei quali è discusso qui di seguito.

Parte I: Studio contestuale

La prima parte della ricerca è consistita nella riesaminazione della letteratura attuale sui vari tipi di data warehousing compresi i sistemi di ausilio decisionale (DSS), i sistemi d’informazione esecutivi (EIS), i case study di डेटा वेअरहाऊस ed i concetti di डेटा वेअरहाऊस. Inoltre, i risultati dei foum sui डेटा वेअरहाऊस e dei gruppi di incontro per esperti e professionisti condotti dal gruppo di ricerca Monash DSS, hanno contribuito a questa fase dello studio che è stato inteso per ottenere le informazioni sulla pratica dei डेटा वेअरहाऊस e per identificare i rischi coinvolti nella loro adozione. Durante questo periodo di studio contestuale, la comprensione dell’area del problema è stata stabilita per fornire la conoscenza di base per le successive investigazioni empiriche. Tuttavia, questo era un processo continuo durante lo svolgimento dello studio di ricerca.

Parte II: Ricerca empirica

Il concetto relativamente nuovo del data warehousing, specialmente in Australia, ha creato la necessità di eseguire un’indagine per ottenere una vasta immagine dell’esperienza di utilizzo. Questa parte è stata effettuata una volta che il dominio del problema fosse stato stabilito attraverso vasta revisione della letteratura. Il concetto di data-warehousing formato durante la fase di studio contestuale è stato usato come input per il questionario iniziale di questo studio. Dopo questo, il questionario è stato esaminato. Sei esperti di डेटा वेअरहाऊस hanno partecipato al test. Lo scopo del test del questionario iniziale era controllare la completezza e la precisione delle domande. Sulla base dei risultati del test, il questionario è stato modificato e la versione modificata è stata spedita ai partecipanti all’indagine. I questionari restituiti allora sono stati analizzati per i dati nelle tabelle, negli schemi ed in altri formati. I

risultati di analisi di dati formano una fotografia istantanea della pratica del data warehousing in Australia.

PANORAMICA DEL DATA WAREHOUSING

Il concetto di data warehousing si è evoluto con i miglioramenti della tecnologia dei computer.
Esso è finalizzato a superare i problemi incontrati dai gruppi di supporto delle applicazioni come Decision Support System (DSS) e Executive Information System (EIS).

Nel passato il maggiore ostacolo di queste applicazioni è stata l’incapacità di queste applicazioni di fornire una डेटा बेस necessaria per l’analisi.
Questo è principalmente causato dalla natura del lavoro della dirigenza. Gli interessi della dirigenza di una società variano costantemente a seconda dell’area trattata. Perciò i dati fondamentali per queste applicazioni devono essere in grado di cambiare rapidamente a seconda della parte da trattare.
Questo significa che i dati devono essere disponibili nella forma adeguata per le analisi richieste. Infatti i gruppi di supporto delle applicazioni trovarono molte difficoltà in passato a raccogliere ed integrare dati da complesse e diverse sorgenti.

Il resto di questa sezione presenta una panoramica del concetto di data warehousing e tratta di come il डेटा वेअरहाऊस può superare i problemi dei gruppi di supporto delle applicazioni.
संज्ञा “डेटा वेअरहाउस” fu diffuso da William Inmon nel 1990. La sua spesso citata definizione vede il डेटा वेअरहाउस come collezione di dati orientati al soggetto,integrati,non volatili,e variabili col tempo,in supporto alle decisioni dirigenziali.

Usando questa definizione Inmon mette in rilievo che i dati residenti in un डेटा वेअरहाऊस devono possedere le seguenti 4 caratteristiche:

  • ▪  Orientati al soggetto
  • ▪  Integrati
  • ▪  Non volatili
  • ▪  Variabili col tempo Per Orientati al soggetto Inmon intende che i dati नेल डेटा वेअरहाऊस nelle più grandi aree organizzative che sono state

definite nel modello dati. Per esempio tutti i dati विषयी ग्राहकांना sono contenuti nell’area soggetto ग्राहक. Allo stesso modo tutti i dati relativi ai prodotti sono contenuti nell’area soggetto PRODOTTI.

Per Integrati Inmon intende che i dati provenienti da differenti piattaforme,sistemi e locazioni sono combinate e immagazzinate in unico posto. Di conseguenza dati similari devono essere trasformati in formati consistenti in modo da essere aggiunti e comparati facilmente.
Per esempio il genere maschile e femminile sono rappresentati dalle lettere M e F in un sistema,e con 1 e 0 in un altro. Per integrarli nella maniera giusta,uno o tutti e due i formati devono essere trasformati in modo che i due formati siano uguali. In questo caso potremmo cambiare M in 1 e F in 0 o viceversa. Orientati al soggetto e Integrati indicano che il डेटा वेअरहाऊस è progettato per fornire una funzionale e trasversale visione dei dati da parte dell’azienda.

Per Non volatile intende che i dati नेल डेटा वेअरहाऊस rimangono consistenti e l’aggiornamento dei dati non occorre. Invece,ogni cambiamento nei dati originali è aggiunto al डेटाबेस अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस. Questo significa che lo storico dei dati è contenuto nel डेटा वेअरहाऊस.

Per Variabili col tempo Inmon indica che i dati नेल डेटा वेअरहाऊस contengono sempre gli indicatori di tempo e i dati normalmente attraversano un certo orizzonte temporale. Per esempio un
डेटा वेअरहाऊस può contenere 5 anni di valori storici dei ग्राहकांना dal 1993 al 1997. La disponibilità dello storico e di una serie temporale dei dati permette di analizzare dei trend.

Un डेटा वेअरहाऊस può raccogliere i suoi dati da dei sistemi OLTP;da origini dati esterne all’organizzazione e/o da altri speciali progetti di sistema di cattura dati.
I dati estratti possono passare attraverso un processo di pulizia,in questo caso i dati vengono trasformati ed integrati prima di essere immagazzinati nel डेटाबेस अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस. Poi, i dati

residenti dentro il डेटाबेस अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस sono resi disponibili agli accessi degli utenti finali e agli strumenti di recupero. Usando questi strumenti l’utente finale può accedere alla vista integrata dell’organizzazione dei dati.

I dati residenti dentro il डेटाबेस अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस sono immagazzinati sia dettagliatamente che in formati riassuntivi.
Il livello di riassunto può dipendere dalla natura dei dati. मी dati dettagliati possono consistere in dati attuali e dati storici
I dati reali non sono inclusi nel डेटा वेअरहाऊस fino a quando i dati नेल डेटा वेअरहाऊस vengono riaggiornati.
Oltre ad immagazzinare i dati stessi, un डेटा वेअरहाऊस può anche immagazzinare un differente tipo di डेटा chiamato METADATI che descrivono i dati residenti nel suo डेटाबेस.
Ci sono due tipi di metadati: metadati di sviluppo e metadati di analisi.
I metadati di sviluppo sono utilizzati per gestire ed automatizzare i processi di estrazione,pulizia,mappatura e caricamento dei dati नेल डेटा वेअरहाऊस.
L’informazione contenuta nei metadati di sviluppo può contenere dettagli di sistemi operativi,dettagli degli elementi da estrarre,il modello dati अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस e le regole aziendali per la conversione dei dati.

Il secondo tipo di metadati,conosciuti come metadati di analisi rende in grado l’utente finale di esplorare il contenuto del डेटा वेअरहाऊस per trovare i dati disponibili e il loro significato in termini chiari e non tecnici.

Perciò i metadati di analisi funzionano come un ponte tra il डेटा वेअरहाऊस e le applicazioni degli utenti finali. Questo metadata può contenere il modello aziendale, le descrizioni dei dati corrispondenti al modello aziendale,interrogazioni (queries) pre-definite e report, informazioni per gli accessi degli utenti e l’indice.

विश्लेषण आणि डेव्हलपमेंट मेटाडेटा योग्यरितीने कार्य करण्‍यासाठी एकाच इंटिग्रेटेड कंटेन्मेंट मेटाडेटामध्ये एकत्र करणे आवश्यक आहे.

Sfortunatamente molti degli strumenti esistenti hanno il proprio metadata e attualmente non ci sono degli standard esistenti che

permettono agli strumenti di data warehousing di integrare questi metadati. Per rimediare a questa situazione molti commercianti dei principali strumenti di data warehousing hanno formato il Meta Data Council divenuto poi Meta Data Coalition.

Lo scopo di questa coalizione è di costruire un set di metadati standard che permette a differenti strumenti di data warehousing di convertire i metadati
I loro sforzi hanno avuto come esito quello della nascita del Meta Data Interchange Specification (MDIS) che permetterà lo scambio di informazioni tra gli archivi Microsoft e i relativi MDIS files.

L’esistenza di dati sia riassunti/indicizzati che dettagliati dà all’utente la possibilità di effettuare un DRILL DROWN (trapanamento) dai dati indicizzati a quelli dettagliati e viceversa. L’esistenza di dati storici dettagliati permette la realizzazione di analisi di trend nel tempo. In aggiunta i metadati di analisi possono essere usati come directory del डेटाबेस अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस per aiutare gli utenti finali a localizzare i dati आवश्यक

In confronto ai sistemi OLTP,con la loro capacità di supportare analisi di dati e reporting,il डेटा वेअरहाऊस è visto come un sistema più appropriato per processi di informazione come effettuare e rispondere a queries e produrre report. La prossima sezione evidenzierà le differenze dei due sistemi dettagliatamente.

DATA WAREHOUSE CONTRO SISTEMI OLTP

Molti dei sistemi di informazione all’interno delle organizzazioni hanno lo scopo di supportare le operazioni giornaliere. Questi sistemi conosciuti come SISTEMI OLTP, catturano le transazioni giornaliere continuamente aggiornate.

I dati all’interno di questi sistemi sono spesso modificati,aggiunti o cancellati. Per esempio un indirizzo di un cliente cambia appena egli si sposta da un luogo all’altro. In questo caso il nuovo indirizzo sarà registrato modificando il campo indirizzo del डेटाबेस. L’obiettivo principale di questi sistemi è quello di ridurre i costi delle transazioni e allo stesso tempo di ridurre in tempi di elaborazione. Esempi di Sistemi OLTP includono azioni critiche come scritture contabili di ordini,libri paga,fatture,fabbricazione,servizi ai ग्राहकांना.

A differenza dei sistemi OLTP,che sono stati creati per processi basati su transazioni ed eventi, i डेटा वेअरहाऊस sono stati creati per fornire supporto ai processi basati su analisi di dati e su processi di decisione.

Questo è normalmente ottenuto integrando i dati da vari sistemi OLTP ed esterni in un unico “contenitore” di dati,come discusso nella sezione precedente.

Monash Data Warehousing Process Model

Il process model per डेटा वेअरहाऊस Monashè stato sviluppato dai ricercatori del Monash DSS Research Group, è basato sulla letterature dei डेटा वेअरहाऊस, sull’esperienza nel supporto allo sviluppo di campi di sistemi, su discussioni con vendors di applicazioni per l’uso su डेटा वेअरहाऊस, su di un gruppo di esperti nell’uso di डेटा वेअरहाऊस.

Le fasi sono: Inizio, Pianificazione, Sviluppo, Operazioni e Spiegazioni. Il diagramma spiega la natura iterativa o evoluzionistica dello sviluppo di un डेटा वेअरहाऊस process usando frecce a doppio senso collocate tra le diverse fasi. In questo contesto “iterativo” e “evoluzionistico” significano che, ad ogni passo del processo, le attività di implementazione si possono sempre propagare all’indietro verso la fase precedente. Questo è dovuto alla natura del progetto di un डेटा वेअरहाऊस nel quale subentrano in ogni momento richieste addizionali da parte dell’utente finale. Per sempio, durante la fase di sviluppo di un processo di डेटा वेअरहाऊस, viene richiesta dall’utente finale una nuova dimensione o area di soggetto, che non faceva perte del piano originale, questa deve essere aggiunta al sistema. Questo causa un cambiamento nel progetto. Il risultato è che il team di progettazione deve cambiare i requisiti dei documenti creati finora durante la fase di progettazione. In molti casi, il corrente stato del progetto deve tornare indietro fino alla fase di progettazione dove deve essere aggiunta la nuova richiesta e documentarla. L’utente finale deve poter vedere la documentazione specifica revisionata e i cambiamenti che sono stati fatti nella fase di sviluppo. Alla fine di questo ciclo di sviluppo il progetto deve ottenere ottimi feedback da entrambi i team, quello di sviluppo e quello degli utilizzatori. I feedback sono poi riutilizzati per migliorare un progetto futuro.

Pianificazione della capacità
I dw tendono a essere molto grandi in dimensione e a crescere molto velocemente (Best 1995, Rudin 1997a) a seguito della quantità di dati storici che essi conservano dalla loro durata. La crescita può essere causata anche da dati aggiuntivi richiesti dagli utenti per aumentare il valore dei dati che essi hanno già. Di conseguenza, i requisiti di immagazzinamento per dati possono essere significativamente potenziati (Eckerson 1997). Così, è essenziale assicurare, conducendo una pianificazione della capacità, che il sistema per essere costruito può crescere con la crescita delle necessità(Best 1995, LaPlante 1996, Lang 1997, Eckerson 1997, Rudin 1997a, Foley 1997a).
Nella pianificazione per scalabilità del dw, uno deve conoscere la crescita attesa della dimensione del magazzino, i tipi di domande probabili da effettuare, e il numero di utenti finali sostenuti(Best 1995, Rudin 1997b, Foley 1997a). Costruire applicazioni scalabili richiede una combinazione di tecnologie server scalabili e tecniche di progettazione di applicazioni scalabili (Best 1995, Rudin 1997b. Entrambe sono necessarie nella creazione di un’applicazione estremamente scalabile. Le tecnologie server scalabili possono renderlo facile e vantaggioso per aggiungere deposito, memoria e CPU senza degradare le prestazioni (Lang 1997, Telephony 1997).

Ci sono due tecnologie server scalabili principali: elaborazione multipla simmetrica (SMP) ed elaborazione in maniera massiccia parallela (MPP) ) (IDC 1997, Humphries et al. 1999). Un server SMP normalmente ha più processori che condividono una memoria, sistema bus e altre risorse (IDC 1997, Humphries et al. 1999). Processori supplementari possono essere aggiunti per aumentare la sua पोटेंझा computazionale. Un altro metodo per aumentare la पोटेंझा computazionale del server SMP, è combinare numerose macchine SMP. Questa tecnica è nota come clustering (Humphries et al. 1999). Un server MPP, d’altra parte, ha più processori ognuno con una propria memoria, sistema bus e altre risorse (IDC 1997, Humphries et al. 1999). Ogni processore è chiamato nodo. Un aumento della पोटेंझा computazionale può essere ottenuto

aggiungendo nodi supplementari ai server MPP (Humphries et al. 1999).

Una debolezza dei server SMP è che troppe operazioni input-output (I/O) possono congestionare il sistema bus (IDC 1997). Questo problema non si verifica all’interno dei server MPP poiché ogni processore ha il proprio sistema di bus. Tuttavia, le interconnessioni fra ogni nodo generalmente sono molto più lente del sistema bus dei SMP. Inoltre, i server MPP possono aggiungere un livello supplementare di complessità agli sviluppatori di applicazioni (IDC 1997). Così, la scelta tra server SMP e MPP può essere influenzata da molti fattori, tra cui la complessità delle domande, il rapporto prezzo/prestazioni, la capacità di trattamento richiesta, le applicazioni dw prevenute e l’aumento in dimensione dei डेटाबेस di dw e nel numero di utenti finali.

Numerose tecniche di progettazione di applicazione scalabile possono essere impiegate nella pianificazione della capacità. Uno utilizza vari periodi di notifica come giorni, settimane, mesi e anni. Avendo vari periodi di notifica, il डेटाबेस può essere diviso in pezzi raggruppati maneggevolmente (Inmon et al. 1997). Un’altra tecnica è utilizzare tabelle riepilogative che sono costruite riassumendo dati da dati dettagliati. Così, i dati riassunti sono più compatti del dettagliato, il quale richiede meno spazio di memoria. Quindi i dati di dettaglio possono essere archiviati in un’unità di memorizzazione meno cara, la quale salva ancora più deposito. Benché utilizzare tabelle riepilogative possa salvare spazio di memoria, essi richiedono molto sforzo per mantenerli aggiornati e in linea con le necessità commerciali. Tuttavia, questa tecnica è ampiamente utilizzata e spesso utilizzata insieme alla tecnica precedente(Best 1995, Inmon 1996a, Chauduri and Dayal
1997).

व्याख्या करीत आहे डेटा वेअरहाउस Technical Architectures Definizione delle tecniche di architetture di dw

Iniziali adottanti di data warehousing concepivano principalmente un’implementazione centralizzata del dw in cui tutti i dati, compreso i dati esterni, erano integrati in uno singolo,
deposito fisico (Inmon 1996a, Bresnahan 1996, Peacock 1998).

Il vantaggio principale di questo approccio è che gli utenti finali sono in grado di accedere alla vista su scala imprenditoriale (enterprise-wide view) dei dati organizzativi (Ovum 1998). Un altro vantaggio è che offre standardizzazione di dati attraverso l’organizzazione, che significa che c’è solo una versione o definizione per ogni terminologia utilizzata nel dw deposito (reposity) metadata (Flanagan and Safdie 1997, Ovum 1998). Lo svantaggio di questo approccio, d’altra parte, è che è caro e difficile da costruire (Flanagan and Safdie 1997, Ovum 1998, Inmon et al. 1998). Non molto dopo che l’architettura d’immagazzinamento dati centralizzata divenne popolare, si evolse il concetto di estrazione dei sottoinsiemi più piccoli dei dati per sostenere i bisogni di applicazioni specifiche (Varney 1996, IDC 1997, Berson e Smith 1997, peacock 1998). Questi piccoli sistemi sono derivati dal più grande डेटा वेअरहाऊस centralizzato. Sono denominati डेटा वेअरहाऊस dipartimentali dipendenti o data marts dipendenti. L’architettura del data mart dipendente è conosciuta come architettura tre-tiered in cui la prima fila consiste del डेटा वेअरहाऊस centralizzato, la seconda consiste dei depositi di dati dipartimentali ed il terzo consiste dell’accesso ai dati e dai tools di analisi (Demarest 1994, Inmon ed altri. 1997).

I data marts sono costruiti normalmente dopo che il डेटा वेअरहाऊस centralizzato è stato costruito per rispondere alle esigenze delle specifiche unità(White 1995, Varney 1996).
I data marts memorizzano i dati molto rilevanti relativi a particolari unità (Inmon ed altri. 1997, Inmon ed altri. 1998, IA 1998).

Il vantaggio di questo metodo è che non ci sarà nessun डेटा non integrato e che i dati saranno meno ridondanti all’interno dei data marts poiché tutti i dati provengono da un deposito di dati integrato. Un altro vantaggio è che ci saranno pochi collegamenti fra ogni data mart e le relative fonti di dati perché ogni data mart ha soltanto una fonte di dati. In più con questa architettura sul posto, gli utenti finali possono ancora accedere alla panoramica dei dati

organizzativi aziendali. Questo metodo è conosciuto come il metodo top-down, in cui i data marts sono costruiti dopo il डेटा वेअरहाऊस (peacock 1998, Goff 1998).
Aumentando la necessità di mostrare presto i risultati, alcune organizzazioni hanno cominciato costruire data marts indipendenti (Flanagan e Safdie 1997, White 2000). In questo caso, i data marts prendono i loro dati direttamente dalle basi di dati OLTP e non dal deposito centralizzato e integrato, eliminando così l’esigenza di avere il deposito centrale sul posto.

Ogni data mart richiede almeno un collegamento alle relative fonti di dati. Uno svantaggio di avere collegamenti multipli per ogni data mart è che, confrontato alle due architetture precedenti, la sovrabbondanza di dati लक्षणीय वाढते.

Ogni data mart deve memorizzare tutti i dati richiesti localmente per non avere effetto sui sistemi di OLTP. Questo provoca che i dati sono immagazzinati in differenti data marts (Inmon ed altri. 1997). Un altro svantaggio di questa architettura è che conduce alla creazione di complesse interconnessioni fra i data marts e le loro fonti di dati che sono difficili da effettuare e controllare (Inmon ed altri. 1997).

Un altro svantaggio è che gli utenti finali non possono potere accedere alla panoramica delle informazioni aziendali poiché i dati dei differenti data marts non sono integrati (Ovum 1998).
Ancora un altro svantaggio è che potrebbe esistere più di una definizione per ogni terminologia usata nei data marts che genera inconsistenze di dati nell’organizzazione (Ovum 1998).
Malgrado gli svantaggi discussi sopra, i data marts indipendenti attraggono ancora l’interesse di molte organizzazioni (IDC 1997). Un fattore che li rende attraenti è che sono più rapidi da sviluppare e richiedono meno tempo e risorse (Bresnahan 1996, Berson e Smith 1997, Ovum 1998). Di conseguenza, servono principalmente come progetti-prova che possono essere usati per identificare rapidamente i benefici e/o le imperfezioni nel progetto (Parsaye 1995, Braly 1995, Newing 1996). In questo caso, la parte da implementare nel progetto pilota deve essere piccola ma importante per l’organizzazione (Newing 1996, Mansell-Lewis 1996).

Esaminando il prototipo, gli utenti finali e l’amministrazione possono decidere se continuare o fermare il progetto (Flanagan e Safdie 1997).
Se la decisione è di continuare, i data marts per altri settori dovrebbero essere costruiti una alla volta. Ci sono due opzioni per gli utenti finali basate sui loro bisogni nella costruzione dei data matrs indipendenti: integrated/federated ed unintegrated (Ovum 1998)

Nel primo metodo, ogni nuovo data mart dovrebbe essere costruito basandosi sui data marts attuali e sul modello dati utilizzato dall’impresa (Varney 1996, Berson e Smith 1997, Peacock 1998). La necessità di usare il modello dati dell’impresa fa si che bisogna accertarsi che esista soltanto una definizione per ogni terminologia usata attraverso i data marts, questo anche per accertarsi che data marts differenti possano essere uniti per dare una panoramica delle informazioni aziendali (Bresnahan 1996). Questo metodo è denominato il bottom-up ed è il migliore quando c’è un vincolo sui mezzi finanziari e sul tempo (Flanagan e Safdie 1997, Ovum 1998, peacock 1998, Goff 1998). Nel secondo metodo, i data marts costruiti possono soddisfare soltanto i bisogni di un’unità specifica. Una variante del federated data mart è il डेटा वेअरहाऊस distribuito in cui il डेटाबेस middleware hub server è utilizzato per unire molti data marts in un singolo deposito di dati distribuito (White 1995). In questo caso, i dati aziendali sono distribuiti in parecchi data marts. Le richieste dell’utente finale sono trasmesse al डेटाबेस middleware hub server , che estrae tutti i dati richiesti dai data marts e ritorna i risultati alle applicazioni dell’utente finale. Questo metodo fornisce le informazioni aziendali agli utenti finali. Tuttavia, ancora non vengono eliminati i problemi dei data marts indipendenti. C’è un’altra architettura che può essere usata che è chiamata il डेटा वेअरहाऊस virtuale (White 1995). Tuttavia, questa architettura, che è descritta nella figura 2.9, non è un’architettura d’immagazzinamento di dati reali poiché non sposta il caricamento dai sistemi OLTP al डेटा वेअरहाऊस (Demarest 1994).

Infatti, le richieste di dati dagli utenti finali sono passate sopra ai sistemi di OLTP che restituiscono i risultati dopo l’elaborazione delle richieste di utente. Anche se questa architettura permette agli utenti finali di generare i rapporti e formulare le richieste, non può fornire i

dati storici e la panoramica delle informazioni aziendali poiché i dati dai differenti sistemi di OLTP non sono integrati. Quindi, questa architettura non può soddisfare l’analisi di dati complessa quale ad esempio previsioni.

Selezione dell’applicativi di accesso e di recupero dei dati

Lo scopo della costruzione di un डेटा वेअरहाऊस è di trasmettere informazioni agli utenti finali (Inmon ed altri 1997, Poe 1996, McFadden 1996, Shanks ed altri 1997, Hammergren 1998); uno o più applicativi di accesso e recupero dati devono essere forniti. Ad oggi, esiste un’ampia varietà di questi applicativi tra cui l’utente può scegliere (Hammergren 1998, Humphries ed altri 1999). Gli applicativi selezionati determinano il successo dello sforzo d’immagazzinamento di dati in un’organizzazione perché gli applicativi sono la parte più visibile del डेटा वेअरहाऊस all’utente finale (Inmon ed altri 1997, Poe 1996). Per aver successo un डेटा वेअरहाऊस, deve potere sostenere le attività di analisi dei dati dell’utente finale (Poe 1996, Seddon e Benjamin 1998, Eckerson 1999). Quindi il “livello” di ciò che l’utente finale vuole deve essere identificato (Poe 1996, Mattison 1996, Inmon ed altri 1997, Humphries ed altri 1999).

In generale, gli utenti finali possono essere raggruppati in tre categorie: executive users, business analysts e power user (Poe 1996, Humphries ed altri 1999). Gli executive users necessitano di un facile accesso ad insiemi predefiniti di rapporti (Humphries ed altri 1999). Questi rapporti possono essere raggiunti facilmente con la navigazione dei menu (Poe 1996). In più, i rapporti dovrebbero presentare le informazioni usando la rappresentazione grafica come le tabelle ed i modelli per trasportare rapidamente le informazioni (Humphries ed altri 1999). I business analyst, che non possono avere le possibilità tecniche per sviluppare i rapporti da zero da soli, necessitano di potere modificare i rapporti attuali per soddisfare i loro bisogni specifici (Poe 1996, Humphries ed altri 1999). I power user, d’altra parte, sono il tipo di utilizzatori finali che hanno la capacità di generare e scrivere le richieste ed i rapporti da zero (Poe 1996, Humphries ed altri 1999). Sono quelli che

sviluppano i rapporti per gli altri tipi di utenti (Poe 1996, Humphries ed altri 1999).

Una volta determinati i requisiti dell’utente finale deve essere fatta una selezione degli applicativi di accesso e recupero dati tra tutti quelli disponibili (Poe 1996, Inmon ed altri 1997).
L’accesso ai dati e gli strumenti di retrieval possono essere classificati in 4 tipi: OLAP tool, EIS/DSS tool, tool di query e reporting e tool di data mining.

I tool OLAP permettono agli utenti di creare query ad hoc così come quelle fatte sul डेटाबेस अगोदर निर्देश केलेल्या बाबीसंबंधी बोलताना डेटा वेअरहाऊस. Inoltre questi prodotti consentono agli utenti di fare drill-down dai dati generali a quelli dettagliati.

I tool EIS/DSS forniscono reporting esecutivi come analisi “what if” e accessi ai reports organizzati a menu. I report devono essere predefiniti e uniti ai menu per una navigazione più facile.
I tool di query e reporting permettono agli utenti di produrre report predefiniti e specifici.

I tool di data mining sono usati per identificare relazioni che potrebbero fare nuova luce sulle operazioni dimenticate nei dati del datawarehouse.

Accanto all’ottimizzazione dei requisiti di ogni tipologia di utenti, i tool selezionati devono essere intuitivi, efficienti e di facile utilizzo. Inoltre devono essere compatibili con le altre parti dell’architettura e in grado di lavorare con i sistemi esistenti. È inoltre suggerito di scegliere data access e tool di retrieval con prezzi e performance ragionevoli. Altri criteri da considerare includono l’impegno del venditore del tool nel sostenere il loro prodotto e gli sviluppi che lo stesso avrà nelle future release. Per garantire l’impegno degli utenti nell’utilizzo del datawarehouse, il team di sviluppo coinvolge gli utenti nel processo della selezione del tool. In questo caso dovrebbe essere effettuata una valutazione pratica dell’utente.

Per migliorare il valore del datawarehouse il team di sviluppo può fornire anche un accesso web ai loro datawarehouse. Un datawarehouse web-enabled permette agli utenti di accedere ai dati da posti remoti o mentre si viaggia. Inoltre le informazioni possono

essere fornite a costi più bassi mediante una diminuzione dei costi di training.

2.4.3 डेटा वेअरहाउस Operation Phase

Questa fase consiste di tre attività: definizione di strategie di data refresh, controllo delle attività del datawarehouse e gestione della sicurezza del datawarehouse.

Definizione di strategie di data refresh

Dopo il caricamento iniziale, i dati नेल डेटाबेस del datawarehouse devono essere refreshati periodicamente per riprodurre i cambiamenti effettuati sui dati originali. Bisogna quindi decidere quando fare il refresh, ogni quanto tempo deve essere schedulato il refresh e come eseguire il refresh dei dati. Viene suggerito di fare il refresh dei dati quando il sistema può essere messo off- line. La frequenza del refresh è determinata dal team di sviluppo basandosi sui requisiti degli utenti. Ci sono due approcci per fare il refresh del datawarehouse: il refresh completo e il caricamento continuo dei cambiamenti.

Il primo approccio, il refresh completo, richiede il ricaricamento di tutti i dati da zero. Ciò vuol dire che tutti i dati richiesti devono essere estratti, puliti, trasformati ed integrati in ogni refresh. Questo approccio dovrebbe essere, per quanto possibile, evitato perché richiede molto tempo e risorse.

Un approccio alternativo è quello di caricare continuamente i cambiamenti. Questo aggiunge i dati che sono stati cambiati dall’ultimo ciclo di refresh del datawarehouse. L’identificazione di records nuovi o modificati riduce significativamente la quantità di dati che devono essere propagati al datawarehouse in ogni aggiornamento poiché solo questi dati saranno aggiunti al डेटाबेस del datawarehouse.

Ci sono almeno 5 approcci che possono essere usati per prelevare i dati nuovi o modificati. Per ottenere un’efficiente strategia di refresh dei dati può essere utile un misto di questi approcci che preleva tutti i cambiamenti nel sistema.

Il primo approccio, che usa i timestamp, suppone che viene assegnato a tutti i dati modificati e aggiornati un timestamp in modo da potere identificare facilmente tutti i dati modificati e nuovi. Questo approccio, però, non è stato molto usato nella maggior parte degli odierni sistemi operativi.
Il secondo approccio è quello di usare un delta file generato da un’applicazione che contiene soltanto i cambiamenti fatti ai dati. L’uso di questo file inoltre amplifica il ciclo di aggiornamento. Tuttavia, anche questo metodo, non è stato usato in molte applicazioni.
Il terzo approccio è quello di fare uno scan su un file di log, che fondamentalmente contiene informazioni simili al delta file. L’unica differenza è che un log file è creato per il processo di recovery e può essere difficile da capire.
Il quarto approccio è quello di modificare il codice dell’applicazione. Tuttavia la maggior parte del codice delle applicazioni è vecchio e fragile; perciò questa tecnica dovrebbe essere evitata.
L’ultimo approccio è quello di confrontare i dati sorgenti con il file principale dei dati.

Controllo delle attività del datawarehouse

Una volta che il datawarehouse è stato rilasciato agli utenti, è necessario monitorarlo nel tempo. In questo caso, l’amministratore del datawarehouse può impiegare uno o più tool di gestione e controllo per monitorare l’uso del datawarehouse. In particolare possono essere raccolte informazioni sulle persone e sul tempo in cui accedono al datawarehouse. Dai dati raccolti può essere creato un profilo del lavoro effettuato che può essere usato come input nell’implementazione del chargeback dell’utente. Il Chargeback permette agli utenti di essere informati sul costo di elaborazione del datawarehouse.

Inoltre, il controllo del datawarehouse può anche essere usato per identificare i tipi di query, la loro grandezza, il numero di query al giorno, i tempi di reazione alla query, i settori raggiunti e la quantità di dati processati. Un altro scopo di fare il controllo del datawarehouse è identificare i dati che non sono in uso. Questi dati possono essere rimossi dal datawarehouse per migliorare il tempo

di risposta di esecuzione delle query e controllare la crescita dei dati che risiedono all’interno della डेटा बेस del datawarehouse.

Gestione della sicurezza del datawarehouse

Un datawarehouse contiene dati integrati, critici, sensibili che possono essere raggiunti facilmente. Per questo motivo dovrebbe essere protetto dagli utenti non autorizzati. Un modo per implementare la sicurezza è quello di usare la funzione del डीबीएमएस per assegnare i diversi privilegi ai diversi tipi di utenti. In questo modo, deve essere mantenuto per ogni tipo di utenti un profilo di accesso. Un altro modo per assicurare il datawarehouse è cifrarlo come è scritto nella डेटा बेस del datawarehouse. L’accesso ai dati e i tool di retrieval devono decriptare i dati prima di presentare i risultati agli utenti.

2.4.4 डेटा वेअरहाउस Deployment Phase

È l’ultima fase nel ciclo di implementazione del datawarehouse. Le attività da effettuare in questa fase includono l’addestramento degli utenti per utilizzare il datawarehouse e la realizzazione di reviews del datawarehouse.

Addestramento degli utenti

L’addestramento degli utenti dovrebbe essere fatto prima dell’accesso ai dati del datawarehouse e dell’uso dei tool di retrieval. Generalmente, le sessioni dovrebbero iniziare con l’introduzione al concetto dell’immagazzinamento di dati, al contenuto del datawarehouse, ai meta dati ed alle features di base dei tool. Poi, gli utenti più avanzati potrebbero inoltre studiare le tabelle fisiche e le features degli utenti dei data access e dei tool di retrieval.

Ci sono molti approcci per fare l’addestramento degli utenti. Uno di questi prevede una selezione di molti utenti o analisti scelti da un insieme di utenti, basandosi sulla loro leadership e abilità di comunicazione. Questi vengono addestrati a titolo personale su tutto quello che devono sapere per prendere confidenza con il sistema. Finito l’addestramento, questi ritornano al loro lavoro e iniziano a insegnare agli altri utenti come utilizzare il sistema. Sulla

base di quanto hanno imparato, gli altri utenti possono iniziare ad esplorare il datawarehouse.
Un altro approccio è quello di addestrare molti utenti nello stesso tempo, come se si stesse facendo un corso in aula. Questo metodo è adatto quando ci sono molti utenti che devono essere addestrati allo stesso tempo. Un altro metodo ancora è quello di addestrare individualmente ogni utente, ad uno ad uno. Questo metodo è adatto quando ci sono pochi utenti.

Lo scopo dell’addestramento degli utenti è quello di familiarizzare con l’accesso ai dati e i tool di retrieval così come i contenuti del datawarehouse. Tuttavia, alcuni utenti possono essere sopraffatti dalla quantità di informazioni fornita durante la sessione di addestramento. Quindi devono essere fatte un certo numero di sessioni di aggiornamento l’assistenza continua e per rispondere alle domande specifiche. In alcuni casi viene formato un gruppo di utenti per fornire questo tipo di supporto.

Gathering feedback

Una volta che il datawarehouse è stato rolled out, gli utenti possono usare i dati che risiedono nel datawarehouse per vari scopi. Principalmente, gli analisti o gli utenti utilizzano i dati nel datawarehouse per:

  1. 1  Identificare le tendenze dell’azienda
  2. 2  Analizzare i profili d’acquisto dei ग्राहकांना
  3. 3  Suddividere i ग्राहकांना एड मी
  4. 4  Fornire i servizi migliori ai ग्राहकांना – customizzare i servizi
  5. 5  Formulare strategie di विपणन
  6. 6  Effettuare preventivi competitivi per cost analyses e help control
  7. 7  Supportare decision-making strategiche
  8. 8  Identificare occasioni per emergere
  9. 9  Migliorare la qualità degli attuali business process
  10. 10  Controllare il profitto

Seguendo la direzione di sviluppo del datawarehouse, si potrebbero condurre una serie di revisioni al sistema per ottenere dei feddback

sia da parte del team di sviluppo che da parte della comunità degli utenti finali.
I risultati ottenuti possono essere presi in considerazione per il prossimo ciclo di sviluppo.

डेटा वेअरहाऊसमध्ये वाढीव दृष्टीकोन असल्याने, मागील घडामोडींच्या यश आणि चुकांमधून शिकणे महत्त्वाचे आहे.

2.5 Riassunto

In questo capitolo sono stati discussi gli approcci presenti in letteratura. Nella sezione 1 è stato discusso il concetto di datawarehouse e il suo ruolo nella scienza delle decisioni. Nella sezione 2 sono state descritte le principali differenze tra datawarehouse e sistemi OLTP. Nella sezione 3 si è discusso il modello di datawarehouse secondo Monash che è stato utilizzato nella sezione 4 per descrivere le attività coinvolte nel processo di sviluppo di un datawarehouse, queste tesi non sono state basate su una ricerca rigorosa. Quello che succede nella realtà può essere molto diverso da quello che riporta la letteratura, tuttavia questi risultati possono essere utilizzati per creare un bagaglio di base che sottolinei il concetto di datawarehouse per questa ricerca.

अध्याय 3

Metodi di ricerca e progettazione

Questo capitolo si occupa dei metodi di ricerca e progettazione per questo studio. La prima parte mostra una vista generica dei metodi di ricerca disponibili per il reperimento dell’informazione, inoltre vengono discussi i criteri per selezionare il miglior metodo per uno studio particolare. Nella sezione 2 vengono poi discussi due metodi selezionati con i criteri appena esposti; di questi ne verrà scelto ed adottato uno con le motivazioni esposte nella sezione 3 dove sono anche esposte le motivazioni per l’esclusione dell’altro criterio. La sezione 4 presenta il progetto della ricerca e la sezione 5 le conclusioni.

3.1 Ricerca nei sistemi informativi

La ricerca nei sistemi informativi non si limita semplicemente all’ambito tecnologico ma deve essere anche estesa per includere fini riguardanti il comportamento e l’organizzazione.
Questo lo dobbiamo alle tesi di varie discipline che vanno dalle scienze sociali a quelle naturali; questo porta alla necessità di un certo spettro di metodi di ricerca che coinvolgono metodi quantitativi e qualitativi da utilizzare per i sistemi informativi.
Tutti i metodi di ricerca disponibili sono importanti, infatti svariati ricercatori come Jenkins (1985), Nunamaker et al. (1991), e Galliers (1992) sostengono che non esista un metodo specifico universale per condurre ricerche nei vari campi dei sistemi informativi; infatti un metodo può essere adatto per una particolare ricerca ma non per altre. Questo ci porta la necessità di selezionare un metodo che sia adatto alla nostro particolare progetto di ricerca: per questa scelta Benbasat et al. (1987) affermano che si debbano considerare la natura e il fine della ricerca.

3.1.1 Natura della ricerca

I vari metodi basati sulla natura della ricerca possono essere classificati in tre tradizioni ampiamente conosciuti nella scienza dell’informazione: positivista, interpretativa e ricerca critica.

3.1.1.1 Ricerca positivista

La ricerca positivista è anche conosciuta come studio scientifico o empirico. Essa cerca di: “spiegare e prevedere cosa succederà nel mondo sociale guardando alle regolarità e alle relazioni causa- effetto tra gli elementi che lo costituiscono” (Shanks et al 1993).

La ricerca positivista è inoltre caratterizzata da ripetibilità , semplificazioni e confutazioni. Inoltre la ricerca positivista ammette l’esistenza di relazioni a priori tra i fenomeni studiati.
Secondo Galliers(1992) la tassonomia è un metodo di ricerca incluso nel paradigma positivista, che però non è limitato a questa, infatti sussistono esperimenti di laboratorio, esperimenti sul campo, casi di studio, dimostrazioni di teoremi, previsioni e simulazioni. Utilizzando questi metodi i ricercatori ammettono che i fenomeni studiati possano essere osservati oggettivamente e rigorosamente.

3.1.1.2 Ricerca interpretativa

La ricerca interpretativa, che è spesso chiamata fenomenologia o anti-positivismo viene descritta da Neuman (1994) come “l’analisi sistematica del significato sociale dell’azione attraverso la diretta e dettagliata osservazione delle persone in situazioni naturali, al fine di arrivare alla comprensione e all’interpretazione di come le persone creano e mantengono il loro mondo sociale”. Gli studi interpretative rifiutano l’assunzione che i fenomeni osservati possano essere osservati oggettivamente. Infatti essi sono basati su interpretazioni soggettive. Inoltre i ricercatori interpretativi non impongono significati a priori ai fenomeni che studiano.

Questo metodo comprende studi soggettivo/argomentativi, azioni di ricerca, studi descrittivo/interpretativi, ricerche future e giochi di ruolo. In aggiunta a questi indagini e casi di studio possono essere inclusi in questo approccio in quanto essi concernono gli studi degli individui o delle organizzazioni all’interno di complesse situazioni del mondo reale.

3.1.1.3 Ricerca critica

La ricerca critica è l’approccio meno conosciuto nelle scienze sociali ma di recente ha ricevuto l’attenzione dei ricercatori nell’ambito dei sistemi informativi. L’assunzione filosofica che la realtà sociale è storicamente prodotta e riprodotta dalle persone, così come i sistemi sociali con le loro azioni ed interazioni. La loro abilità, comunque, è mediata da un certo numero di considerazione sociali, culturali e politiche.

Cosi come la ricerca interpretativa, quella critica sostiene che la ricerca positivista non c’entra con il contesto sociale ed ignora la sua influenza sulle azioni umane.
La ricerca critica, d’altra parte, critica la ricerca interpretativa per essere troppo soggettiva e perché non si propone di aiutare le persone a migliorare le proprie vite. La più grossa differenza tra la ricerca critica e gli altri due approcci è la sua dimensione valutativa. Mentre l’oggettività delle tradizioni positivista ed interpretativa, è per predire o spiegare lo status quo o la realtà sociale, la ricerca critica punta a valutare criticamente e trasformare la realtà sociale sotto studio.

I ricercatori critici solitamente si oppongono allo status quo al fine di rimuovere le differenze sociali e migliorare le condizioni sociali. La ricerca critica ha un impegno ad una vista processuale dei fenomeni di interesse e, pertanto, è normalmente longitudinale. Esempi di metodi di ricerca sono gli studi storici a lungo termine e gli studi etnografici. La ricerca critica, tuttavia, non è stata ampiamente usata nella ricerca dei sistemi d’informazione

3.1.2 Scopo della ricerca

Assieme alla natura della ricerca, il suo scopo può essere utilizzato per guidare il ricercatore nella selezione di un particolare metodo di ricerca. Lo scopo di un progetto di ricerca è strettamente correlato alla posizione della ricerca rispetto al ciclo di ricerca che consiste di tre fasi: costruzione della teoria, test della teoria e affinamento della teoria. Così, basandosi sul momento rispetto al ciclo di ricerca, un progetto di ricerca può avere un fine di spiegazione, descrittivo, di esplorazione oppure predittivo.

3.1.2.1 Ricerca esplorativa

La ricerca esplorativa è finalizzata nell’investigare un argomento totalmente nuovo e formulare domande e ipotesi per la ricerca futura. Questo tipo di ricerca è utilizzato nella costruzione della teoria per ottenere dei riferimenti iniziali in una nuova area. Normalmente si utilizzano metodi di ricerca qualitativa, come i casi di studio o gli studi fenomenonologici.

तथापि, शोध सर्वेक्षण किंवा प्रयोगांसारख्या परिमाणात्मक तंत्रांचा वापर करणे देखील शक्य आहे.

3.1.3.3 Ricerca descrittiva

La ricerca descrittiva è finalizzata ad analizzare e descrivere in gran dettaglio una particolare situazione o pratica organizzativa. Questa è appropriata per costruire teorie e può essere anche usata per confermare o contestare ipotesi. La ricerca descrittiva solitamente comprende l’uso di misure e campioni. I metodi di ricerca più adatti comprendono indagini e analisi di antecedenti.

3.1.2.3 Ricerca esplicativa

La ricerca esplicativa cerca di spiegare perché succedono le cose. Essa è costruita su fatti che sono già stati studiati e cerca di trovare i perché di tali fatti.
Quindi la ricerca esplicativa è normalmente costruita sulla ricerca esplorativa o descrittiva ed è accessoria al fine di testare ed affinare le teorie. La ricerca esplicativa normalmente impiega casi di studio o metodi di ricerca basati sulle indagini.

3.1.2.4 Ricerca preventiva

La ricerca preventiva punta a predire gli eventi e i comportamenti sotto osservazione che si stanno studiando (Marshall and Rossman 1995). La previsione è il test scientifico standard della verità. Questo tipo di ricerca generalmente impiega indagini o analisi dei dati storici. (Yin 1989)

La suddetta discussione dimostra che c’è un certo numero di possibili metodi di ricerca che possono essere usati in uno studio particolare. Tuttavia, ci deve essere un metodo specifico più adatto degli altri per un tipo particolare di progetto di ricerca. (Galliers 1987, Yin 1989, De Vaus 1991). Ogni ricercatore, quindi, ha bisogno di valutare con attenzione i punti di forza e le debolezze di vari metodi, per arrivare ad adottare il metodo di ricerca più adatto e compatibile col progetto di ricerca. (Jenkins 1985, Pervan e Klass 1992, Bonomia 1985, Yin 1989, Himilton and Ives 1992).

3.2. Possibili metodi di ricerca

L’obiettivo di questo progetto era studiare l’esperienza nelle organizzazioni australiane con i dati immagazzinati con uno sviluppo di डेटा वेअरहाऊस. तारीख che, attualmente, c’è una mancanza di ricerca nell’area di data warehousing in Australia, questo progetto di ricerca è ancora nella fase teorica del ciclo di ricerca ed ha uno scopo esplorativo. Esplorando l’esperienza nelle organizzazioni australiane che adottano il data warehousing richiede l’interpretazione della società reale. Di conseguenza, il l’assunzione filosofica alla base del progetto di ricerca segue l’interpretazione tradizionale.

Dopo un rigoroso esame dei metodi disponibili, sono stati identificati due possibili metodi di ricerca: indagini (surveys) e casi di studio (case studies), che possono essere usati per una ricerca esplorativa (Shanks et al. 1993). Galliers (1992) sostiene che l’idoneità di questi due metodi per questo particolare studio nella sua tassonomia rivisitata dicendo che sono adatti per la costruzione teorica. Le seguenti due sottosezioni discutono ogni metodo in dettaglio.

3.2.1 Metodo di ricerca di indagine

Il metodo di ricerca d’indagine proviene dall’antico metodo del censimento. Un censimento consta nel collezionare informazioni da un’intera popolazione. Questo metodo è costoso e poco pratico, in particolare se la popolazione è elevata. Quindi, rispetto al censimento, una indagine normalmente è concentrata sul collezionare informazioni per un piccolo numero, o campione, dei rappresentanti della popolazione (Fowler 1988, Neuman 1994). Un campione riflette la popolazione da cui è disegnato, con differenti livelli di accuratezza, secondo la struttura del campione, la dimensione e il metodo di selezione utilizzato (Fowler 1988, Babbie 1982, Neuman 1994).

Il metodo d’indagine è definito come “snapshots of practices, situations or views at a particular point in time, undertaken using questionnaires or interviews, from which inferences may be
made” (Galliers 1992:153) [fotografia istentanea delle pratiche, situazioni o viste in particolare punto temporale, intrapreso usando questionari o interviste, da cui possono essere fatte inferenze]. Le indagini si occupano della raccolta di informazioni su alcuni aspetti dello studio, da un certo numero di partecipanti, facendo delle domande (Fowler 1988). Anche questi questionari e interviste, che includono le interviste faccia a faccia al telefono e quelle strutturate, sono le tecniche di collezione di dati più comuni impiegate nelle indagini (Blalock 1970, Nachmias and Nachmias 1976, Fowler 1988), possono essere utilizzate osservazioni ed analisi (Gable 1994). Di tutti questi metodi di collezione dei dati, l’uso del questionario è la tecnica più popolare, poiché assicura che i dati

collezionati siano strutturati e formattati, e quindi facilita la classificazione delle informazioni (Hwang 1987, de Vaus 1991).

Nell’analizzare i dati, una strategia d’indagine impiega spesso le tecniche quantitative, come l’analisi statistica, ma possono essere impiegate anche tecniche qualitative (Galliers 1992, Pervan

and Klass 1992, Gable 1994). Normalmente, i dati raccolti sono usati per analizzare le distribuzioni e i modelli delle associazioni (Fowler 1988).

Anche se le indagini sono generalmente appropriate per ricerche che si occupano della domanda ‘che cosa?’ (what) o da essa derivanti, quali ‘quanto’(how much) e ‘quant’è’ (how many), esse possono essere poste tramite la domanda ‘perché’ (Sonquist and Dunkelberg 1977, Yin 1989). Secondo Sonquist e Dunkelberg (1977), l’indagine di ricerca punta ad ipotesi difficili, programme di valutazione, descrivendo la popolazione e sviluppando modelli del comportamento umano. Inoltre, le indagini possono essere usate per studiare un’opinione certa della popolazione, condizioni, opinioni, caratteristiche, aspettative e anche comportamenti passati o presenti(Neuman 1994).

Le indagini permettono al ricercatore di scoprire i rapporti tra la popolazione ed i risultato sono normalmente più generici rispetto ad altri metodi (Sonquist and Dunkelberg 1977, Gable 1994). Le indagini permettono ai ricercatori di riguardare una zona geografica più larga e di raggiungere tantissimi dichiaranti (Blalock 1970, Sonquist and Dunkelberg 1977, Hwang and Lin 1987, Gable 1994, Neuman 1994). Infine, le indagini possono fornire le informazioni che non sono disponibili altrove o nella forma richiesta per le analisi (Fowler 1988).

Ci sono, tuttavia, alcune limitazioni nell’eseguire un’indagine. Uno svantaggio è che il ricercatore non può ottenere molte informazioni a riguardo dell’oggetto studiato. Questo è dovuto al fatto che le indagini sono eseguite soltanto in un momento particolare e, quindi, c’è un numero limitato di variabili e di persone che il ricercatore può

studiare (Yin 1989, de Vaus 1991, Gable 1994, Denscombe 1998). Un altro svantaggio è quello che esegue un’indagine può essere molto costoso in termini di tempo e risorse, particolarmente se coinvolge le interviste faccia a faccia (Fowler 1988).

3.2.2. Metodo Di Ricerca Di Inchiesta

Il metodo di ricerca di inchiesta coinvolge lo studio approfondito su una particolare situazione all’interno del relativo contesto reale in un periodo di tempo definito, senza alcun intervento da parte del ricercatore (Shanks & C. 1993, Eisenhardt 1989, Jenkins 1985). Principalmente questo metodo è usato per descrivere i rapporti fra le variabili che si stanno studiando in una situazione particolare (Galliers 1992). Le inchieste possono coinvolgere singoli casi o multipli, a seconda del fenomeno analizzato (Franz e Robey 1987, Eisenhardt 1989, Yin 1989).

Il metodo di ricerca di inchiesta è definito come “un’inchiesta empirica che studia un fenomeno contemporaneo all’interno del relativo contesto reale, usando le fonti multiple raccolte da una o più entità quali la gente, i gruppi, o le organizzazioni” (Yin 1989). Non c’è netta separazione fra il fenomeno ed il relativo contesto e non c’è controllo o manipolazione sperimentale delle variabili (Yin 1989, Benbasat ed altri 1987).

C’è una varietà di tecniche per la collezione dei dati che possono essere impiegate nel metodo di inchiesta, che includono le osservazioni dirette, revisioni di record di archivi, questionari, revisione della documentazione ed interviste strutturate. Avendo una gamma varia di tecniche della raccolta di dati, le inchieste permettono ai ricercatori di occuparsi sia dei dati qualitativi che quantitativi allo stesso tempo (Bonoma 1985, Eisenhardt 1989, Yin 1989, Gable 1994). Com’è il caso con il metodo di indagine, un ricercatore di inchiesta funge da osservatore o ricercatore e non come partecipante attivo all’organizzazione allo studio.

Benbasat ed altri (1987) asseriscono che il metodo di inchiesta è particolarmente adatto per la costruzione della teoria di ricerca, che comincia con una domanda di ricerca e continua con la formazione

di una teoria durante il processo della raccolta di dati. Essendo adatto anche per la fase

della costruzione di teoria, Franz e Robey (1987) suggeriscono che il metodo di inchiesta può anche essere utilizzato per la complessa fase di teoria. In questo caso, basandosi sulle prove raccolte, una data teoria o ipotesi viene verificata o confutata. In più, l’inchiesta è anche adatta per ricerca che si occupa delle domande ‘come’ o ‘perché’ (Yin 1989).

Rispetto ad altri metodi, le inchieste permettono al ricercatore di catturare le informazioni essenziali più nel particolare (Galliers 1992, Shanks ed altri 1993). Inoltre, le inchieste permettono al ricercatore di capire la natura e la complessità dei processi studiati (Benbasat ed altri 1987).

Ci sono quattro svantaggi principali connessi con il metodo di inchiesta. Il primo è la mancanza di deduzioni controllate. La soggettività del ricercatore può alterare i risultati e le conclusioni dello studio (Yin 1989). Il secondo svantaggio è la mancanza di osservazione controllata. A differenza dei metodi sperimentali, il ricercatore di inchiesta non può controllare i fenomeni studiati poiché sono esaminati nel loro contesto naturale (Gable 1994). Il terzo svantaggio è la mancanza di replicabilità. Ciò è dovuto al fatto che il ricercatore ha poca probabilità di osservare gli stessi eventi, e non può verificare i risultati di un particolare studio (Lee 1989). Infine, come conseguenza della non replicabilità, è difficile generalizzare i risultati ottenuti da una o più inchieste (Galliers 1992, Shanks ed altri 1993). Tutti questi problemi, tuttavia, non sono insormontabili e possono, infatti, essere minimizzati dal ricercatore applicando azioni appropriate (Lee 1989).

3.3. Giustificare la metodologia di ricerca दत्तक

Dai due metodi di ricerca possibili per questo studio, il metodo di indagine è considerato come il più adatto. Quello di inchiesta è stato scartato in seguito ad un attenta considerazione dei relativi

meriti e debolezze. La convenienza o l’inappropriatezza di ogni metodo per questo studio è discussa in seguito.

3.3.1. Inappropriatezza del metodo di ricerca di inchiesta

Il metodo di inchiesta richiede lo studio approfondito circa una situazione particolare all’interno di una o più organizzazioni per un periodo di tempo (Eisenhardt 1989). In questo caso, il periodo può eccedere la struttura di tempo data per questo studio. Un altro motivo per non adottare il metodo di inchiesta è che i risultati possono soffrire da mancanza di rigore (Yin 1989). La soggettività del ricercatore può influenzare i risultati e le conclusioni. Un altro motivo è che questo metodo è più adatto a ricerche su domande del tipo ‘come’ o ‘perché’ (Yin 1989), mentre la domanda di ricerca per questo studio è del tipo ‘che cosa’. Infine, ma non meno importante, è difficile generalizzare i risultati da appena una o poche inchieste (Galliers 1992, Shanks ed altri 1993). Sulla base di questa spiegazione razionale, il metodo di ricerca di inchiesta non è stato scelto poiché inadatto per questo studio.

3.3.2. Convenienza del metodo di ricerca di तपास

Quando questa ricerca è stata condotta, la pratica di data- warehousing non era stata ampiamente adottata dalle organizzazioni australiane. Quindi, non c’erano molte informazioni per quanto riguarda la loro implementazione all’interno delle organizzazioni australiane. Le informazioni disponibili provenivano dalle organizzazioni che avevano implementato o utilizzato un डेटा वेअरहाऊस. In questo caso, il metodo di ricerca di indagine è il più adatto poiché permette di ottenere le informazioni che non sono disponibili altrove o nella forma richiesta per analisi (Fowler 1988). In più, il metodo di ricerca di indagine permette al ricercatore di ottenere una buona visione delle pratiche, delle situazioni, o delle viste in un determinato momento (Galliers 1992, Denscombe 1998). Una veduta d’insieme era stata richiesta per aumentare la conoscenza circa l’esperienza australiana di data warehousing.

शिवाय, Sonquist and Dunkelberg (1977) असे सांगतात की सर्वेक्षण संशोधनाचे परिणाम इतर पद्धतींपेक्षा अधिक सामान्य आहेत.

3.4. Disegno Di Ricerca Di Indagine

L’indagine circa la pratica di data warehousing è stata eseguita nel 1999. La popolazione obiettivo era formata da organizzazioni australiane interessate agli studi di data warehousing, poiché erano probabilmente già informati circa i dati che immagazzinano e, pertanto, potrebbe fornire le informazioni utili per questo studio. La popolazione obiettivo è stata identificata con un’indagine iniziale di tutti i membri australiani del ‘The Data Warehousing Institute’ (Tdwi- aap). Questa sezione discute il disegno della fase di ricerca empirica di questo studio.

3.4.1. Tecnica di raccolta dei dati

Dalle tre tecniche usate comunemente nella ricerca di indagine (cioè questionario via posta, intervista del telefono ed intervista personale) (Nachmias 1976, Fowler 1988, de Vaus 1991), per questo studio è stato adottato il questionario via posta. Il primo motivo per l’adozione di quest’ultimo è che può raggiungere una popolazione sparsa geograficamente (Blalock 1970, Nachmias e Nachmias 1976, Hwang e Lin 1987, de Vaus 1991, Gable 1994). Secondariamente, il questionario via posta è adatto a partecipanti altamente istruiti (Fowler 1988). Il questionario via posta per questo studio è stato indirizzato ai project sponsors del data warehousing, direttori e/o responsabili di progetto. In terzo luogo, i questionari via posta sono adatti quando si ha a disposizione una lista sicura di indirizzi (Salant e Dilman 1994). TDWI, in questo caso, una associazione fidata di data warehousing ha fornito la lista di indirizzi dei relativi membri australiani. Un altro vantaggio del questionario via posta rispetto al questionario via telefono o alle interviste personali è che permette ai dichiaranti di rispondere con maggior esattezza, particolarmente quando i dichiaranti devono consultare le annotazioni o discutere le domande con altra gente (Fowler 1988).

Uno svantaggio potenziale può essere il tempo richiesto per condurre i questionari via posta. Normalmente, un questionario via posta è condotto in questa sequenza: spedire le lettere, aspettare le risposte e mandare la conferma(Fowler 1988, Bainbridge 1989). Quindi, il tempo totale può essere più lungo del tempo richiesto per le interviste personali o per le interviste al telefono. Tuttavia, il tempo totale può essere conosciuto in anticipo (Fowler 1988, Denscombe 1998). Il tempo speso per condurre le interviste personali non può essere conosciuto in anticipo poiché varia da un’intervista all’altra (Fowler 1988). Le interviste telefoniche possono essere più rapide dei questionari via posta e delle interviste personali ma possono avere un alto tasso di mancanza di risposta dovuto all’indisponibilità di alcune persone (Fowler 1988). In più, le interviste telefoniche sono limitate generalmente a liste di domande relativamente corte (Bainbridge 1989).

Un’altra debolezza di un questionario via posta è l’alto tasso di mancanza di risposta (Fowler 1988, Bainbridge 1989, Neuman 1994). Tuttavia, sono state prese delle contromisure, associando questo studio con un’istituzione fidata nel campo del data warehousing (cioè TDWI) (Bainbridge 1989, Neuman 1994), la quale trasmette due lettere di sollecito ai chi non ha risposto (Fowler 1988, Neuman 1994) ed include inoltre una lettera aggiuntiva che spiega lo scopo dello studio (Neuman 1994).

3.4.2. Unità di analisi

Lo scopo di questo studio è ottenere le informazioni circa l’implementazione del data warehousing e l’utilizzo dello stesso all’interno delle organizzazioni australiane. La popolazione obiettivo è costituita da tutte le organizzazioni australiane che hanno implementato, o stanno implementando, i डेटा वेअरहाऊस. In seguito vengono intestate le singole organizzazioni. Il questionario via posta è stato spedito alle organizzazioni interessate all’adozione di डेटा वेअरहाऊस. Questo metodo garantisce che le informazioni raccolte provengano dalle risorse più adatte di ogni organizzazione partecipante.

3.4.3. Campione di indagine

La “mailing list” dei partecipanti all’indagine è stata ottenuta da TDWI. A partire da questa lista, 3000 organizzazioni australiane sono state selezionate come base per il campionamento. Una lettera di aggiuntiva spiegava il progetto e lo scopo dell’indagine, insieme ad una scheda per le risposte e una busta prepagata per rinviare il questionario compilato sono state inviate al campione. Delle 3000 organizzazioni, 198 hanno accettato di partecipare allo studio. Era previsto un così piccolo numero di risposte डेटा il grande numero di organizzazioni australiane che allora avevano abbracciato o stavano abbracciando la strategia di data warehousing all’interno delle loro organizzazioni. Quindi, la popolazione obiettivo per questo studio consiste di sole 198 organizzazioni.

3.4.4. Contenuti del questionario

La struttura del questionario è stata basata sul modello di data warehousing Monash (discusso precedentemente nella parte 2.3). Il contenuto del questionario è stato basato sull’analisi della letteratura presentata nel capitolo 2. Una copia del questionario spedito ai partecipanti all’indagine può essere trovata nell’appendice B. Il questionario è composto da sei sezioni, che seguono le fasi del modello trattato. I seguenti sei paragrafi brevemente ricapitolano il contenuto di ogni sezione.

Sezione A: Informazioni di base sull’organizzazione
Questa sezione contiene le domande relative al profilo delle organizzazioni partecipanti. In più, alcune delle domande sono relative alla condizione del progetto di data warehousing del partecipante. Le informazioni confidenziali quale il nome dell’organizzazione non sono state rivelate nell’analisi di indagine.

Sezione B: Inizio
Le domande in questa sezione sono relative all’attività di inizio di data warehousing. Le domande sono state fatte per quanto riguarda gli iniziatori di progetto, garanti, abilità e conoscenza richieste, gli obiettivi dello sviluppo di data warehousing e le aspettative degli utilizzatori finali.

Sezione C: Progettazione
Questa sezione contiene le domande relative alle attività di pianificazione del डेटा वेअरहाऊस. In particolare, le domande sono state circa la portata di esecuzione, la durata del progetto, il costo del progetto e l’analisi di costi/benefici.

Sezione D: Sviluppo
Nella sezione di sviluppo ci sono le domande relative alle attività di sviluppo del डेटा वेअरहाऊस: raccolta di requisiti dell’utilizzatore finale, le fonti di dati, il modello logico dei dati, prototipi, la pianificazione di capienza, architetture tecniche e selezione dei tools di sviluppo del data warehousing.

Sezione E: Funzionamento
Domande di funzionamento relative al funzionamento ed all’estensibilità del डेटा वेअरहाऊस, come si evolve nella successiva fase di sviluppo. La डेटा गुणवत्ता, le strategie di refresh dei dati, la granularità dei dati, scalabilità del डेटा वेअरहाऊस ed i problemi di sicurezza del डेटा वेअरहाऊस erano fra le tipologie di domande fatte.

Sezione F: Sviluppo
Questa sezione contiene le domande relative all’utilizzo del डेटा वेअरहाऊस da parte degli utenti finali. Il ricercatore era interessato allo scopo e all’utilità del डेटा वेअरहाऊस, la revisione e le strategie di addestramento adottati e la strategia di controllo del डेटा वेअरहाऊस adottata.

3.4.5. Tasso di risposta

Anche se le indagini via posta sono criticate per avere un tasso di risposta basso, sono state adottate delle misure per aumentare il tasso di rendimento (come discusso precedentemente nella parte 3.4.1). Il termine ‘tasso di risposta’ si riferisce alla percentuale di persone in un campione particolare di indagine che risponde al questionario (Denscombe 1998). E’ stata utilizzata la seguente formula per calcolare il tasso di risposta per questo studio:

Numero di persone che hanno risposto
Tasso di risposta = ——————————————————————————– X 100 Numero totale di questionari spediti

3.4.6. Prova Pilota

Prima che il questionario sia spedito al campione, le domande sono state esaminate effettuando le prove pilota, come suggerito da Luck e Rubin (1987), Jackson (1988) e de Vaus (1991). Lo scopo delle prove pilota è di rivelare tutte le espressioni scomode, ambigue e domande di difficile interpretazione, per chiarire qualunque definizioni e termini usati e per identificare il tempo approssimativo richiesto per compilare il questionario (Warwick e Lininger 1975, Jackson 1988, Salant e Dilman 1994). Le prove pilota sono state effettuate selezionando soggetti con caratteristiche simili a quelle dei soggetti finali, come suggerito Davis e कोसेंजा (1993). In questo studio, sei professionisti di data warehousing sono stati selezionati come i soggetti pilota. Dopo ogni prova pilota, sono state fatte le correzioni necessarie. Dalle prove pilota effettuate, i partecipanti hanno contribuito a rimodellare e reimpostar la versione definitiva del questionario.

3.4.7. Metodi di Analisi Di Dati

I dati di indagine raccolti dai questionari a domanda chiusa sono stati analizzati usando un pacchetto di programmi statistico denominato SPSS. Molte delle risposte sono state analizzate usando le statistiche descrittive. Un certo numero di questionari sono ritornati incompleti. Questi sono stati trattati con maggiore attenzione per accertarsi che i dati mancanti non fossero una conseguenza degli errori di data entry, ma perché le domande non erano adatte per il dichiarante, o il dichiarante ha deciso non rispondere ad una o più domande specifiche. Queste risposte mancanti sono state ignorate durante l’analisi dei dati e sono state codificate come ‘- 9’ per accertare la loro esclusione dal processo di analisi.

Nel preparare il questionario, le domande chiuse sono state precodificate assegnando un numero ad ogni opzione. Il numero allora è stato usato per preparare i dati durante l’analisi (Denscombe 1998, Sapsford e Jupp 1996). Per esempio, c’erano sei opzioni elencate nella domanda 1 della sezione B: consiglio d’amministrazione, esecutivo ad alto livello, dipartimento IT , unità di affari, i consulenti ed altro. Nello schedario di dati di SPSS, è stata generata una variabile per indicare ‘l’iniziatore di progetto’, con sei etichette di valore: ‘1’ per il ‘consiglio d’amministrazione’, ‘2’ per ‘l’esecutivo ad alto livello’ e così via. L’uso della scala di Likertin in alcune delle domande chiuse inoltre ha permesso un’identificazione che non richiede sforzo visto l’utilizzo dei valori numerici corrispondenti inseriti in SPSS. Per le domande con le risposte non esaustive, che non erano reciprocamente esclusive, ogni opzione è stata trattata come una singola variabile con due etichette di valore: ‘1 ‘ per ‘segnata’ e ‘2 ‘ per ‘non segnata’.

Le domande aperte sono state trattate diversamente dalle domande chiuse. Le risposte a queste domande non sono state inserite in SPSS. Al contrario, sono state analizzate a mano. L’uso di questo tipo di domande permette di acquisire informazioni circa le idee liberamente espresse e le esperienze personali nei dichiaranti (Bainbridge 1989, Denscombe 1998). Dove possibile, è stata fatta una categorizzazione delle risposte.

Per l’analisi dei dati, sono usati metodi di semplice analisi statistica, come la frequenza delle risposte, la media, la scarto quadratico medio e la mediana (Argyrous 1996, Denscombe 1998).
Il Gamma test era performante per ottenere misure quantitative delle associazioni tra dati ordinali (Norusis 1983, Argyrous 1996). Questi test erano appropriati perché le scale ordinali usate non avevano molte categorie e potevano essere mostrate in una tabella (Norusis 1983).

3.5 Sommario

In questo capitolo, sono stati discussi la metodologia di ricerca e il design adottati per questo studio.

La selezione del più appropriato metodo di ricerca per un particolare studio prende in
considerazione un certo numero di regole, inclusa la natura e il tipo della ricerca, così come i meriti e le debolezze di ogni possibile metodo(Jenkins 1985, Benbasat et al. 1097,Galliers e Land 1987, yin 1989, Hamilton e ives 1992, Galliers 1992, neuman 1994). Vista la mancanza di conoscenza e teoria esistenti a proposito dell’adozione di data warehousing in Australia, questo studio di ricerca richiede un metodo di ricerca interpretativo con una abilità esplorativa per esplorare le esperienze delle organizzazioni australiane. Il metodo di ricerca prescelto è stato selezionato per raccogliere informazioni riguardanti l’adozione del concetto di data ware-housing da parte delle organizzazioni australiane. Un questionario postale è stato scelto come tecnica di raccolta dati. Le giustificazioni per il metodo di ricerca e la tecnica di raccolta dati selezionati saranno fornite in questo capitolo. Inoltre è stata presentata una discussione sull’unità di analisi,il campione utilizzato, le percentuali di risposte, il contenuto del questionario, il pre test del questionario e il metdo di analisi dei dati.

रचना डेटा वेअरहाउस:

Combining Entity Relationship and Dimensional Modelling

सार
Immagazzinare i dati è un problema attuale importante per molte organizzazioni. Un problema chiave nello sviluppo dell’immagazzinamento dei dati è il suo disegno.
Il disegno deve sostenere il rilevamento di concetti nel डेटा वेअरहाऊस a legacy system e le altre fonti di dati ed anche una facile comprensione ed efficienza nell’implementazione di डेटा वेअरहाऊस.
Molta della letteratura di immagazzinamento dei dati raccomanda l’uso di entity relationship modelling or dimensional modelling per rappresentare il disegno di डेटा वेअरहाऊस.
In questo giornale noi mostriamo come entrambe le rappresentazioni possono essere combinate in un approccio per il disegno di डेटा वेअरहाऊस. L’approccio usato è sistematicamente

esaminato in un caso di studio ed è identificato in un numero di importanti implicazioni con professionisti.

DATA WAREHOUSING

Un डेटा वेअरहाऊस di solito è definito come un “subject-oriented, integrated, time-variant, and nonvolatile collection of data in support of management’s decisions” (Inmon and Hackathorn, 1994). Subject-oriented and integrated indica che il डेटा वेअरहाऊस è progettato per attraversare i confini funzionali dei legaci system per offrire una prospettiva integrata dei dati.
Time-variant interessa lo storico o la natura time-series dei dati आत मधॆ डेटा वेअरहाऊस, la quale abilita trend per essere analizzati. Non-volatile indica che il डेटा वेअरहाऊस non è continuamente aggiornato come un डेटाबेस di OLTP. Piuttosto è aggiornato periodicamente, con dati provenienti da fonti interne ed esterne. Il डेटा वेअरहाऊस specificatamente è disegnato per la ricerca piuttosto che per l’integrità degli aggiornamenti e le prestazioni delle operazioni.
L’idea di immagazzinare i dati non è nuova, è stato uno degli scopi di gestione dei dati fin dagli anni sessanta (Il Martin, 1982).
I डेटा वेअरहाऊस offrono l’infrastruttura dati per management support systems. Management support systems includono decision support systems (DSS) and executive information systems (EIS). Un DSS è un sistema di informazioni computer-based che è progettato per migliorare il processo e di conseguenza la presa di decisione umana. Un EIS è tipicamente un sistema di consegna di dati che abilita dirigenti d’azienda ad accedere facilmente alla vista dei dati.
L’architettura generale di un डेटा वेअरहाऊस evidenzia il ruolo del डेटा वेअरहाऊस nel supporto alla gestione. Oltre ad offrire l’infrastruttura dati per EIS e DSS, al डेटा वेअरहाऊस è possibile accedervi direttamente attraverso le query. I dati inclusi in un डेटा वेअरहाऊस si basano su un’analisi dei requisiti di informazioni di gestione e sono ottenuti da tre fonti: internal legacy systems, special purpose data capture systems and external data sources. I dati negli internal legacy systems sono frequentemente ridondanti, inconsistenti, di bassa qualità, e immagazzinati in diversi formati quindi devono essere riconciliati e puliti prima di poterli caricare nel

डेटा वेअरहाऊस (Inmon, 1992; McFadden, 1996). I dati provenienti da sistemi di immagazzinamento dati ad hoc e da sorgenti dati esterne sono speso usati per aumentare (aggiornare, sostituire) i dati da sistemi legacy.

Ci sono molte ragioni irresistibili per sviluppare un डेटा वेअरहाऊस, che includono una migliore presa di decisione attraverso l’uso effettivo di più informazioni (Ives 1995), il supporto per un focus sugli affari completi (Graham 1996), e la riduzione in costi di provvedimento di dati per EIS e DSS (Graham 1996, McFadden 1996).

Un recente studio empirico ha scoperto, in media, un ritorno degli investimenti per i डेटा वेअरहाऊस del 401% dopo tre anni (Graham, 1996). Comunque, gli altri studi empirici di डेटा वेअरहाऊस hanno trovato significanti problemi incluso la difficoltà nel misurare ed assegnare benefici, mancanza di un scopo chiaro, sottovalutando lo scopo e la complessità del processo di immagazzinare i dati, in particolare quanto riguarda le fonti e la pulizia dei dati. Immagazzinare i dati può essere considerato come una soluzione al problema di gestione dei dati fra le organizzazioni. La manipolazione dei dati come risorsa sociale è rimasto uno dei problemi chiave nella gestione di sistemi di informazioni in tutto il mondo per molti anni (Brancheau et al. 1996, Galliers et al. 1994, Niederman et al. 1990, Pervan 1993).

Un approccio popolare alla gestione dei dati negli anni ottanta era lo sviluppo di un modello dati sociale. Il modello dati sociale fu pensato per offrire una base stabile per lo sviluppo di nuovi sistemi applicativi e डेटाबेस e la ricostruzione e l’integrazione di legacy systems (Brancheau et al.

1989, Goodhue et al. 1988:1992, Kim and Everest 1994). Comunque, ci sono molti problemi con questo approccio, in particolare, la complessità e il costo di ogni task, ed il lungo tempo richiesto per avere risultati tangibili (Beynon-Davies 1994, Earl 1993, Goodhue et al. 1992, Periasamy 1994, Shanks 1997).

Il डेटा वेअरहाऊस è un databse separato che co-esiste coi legacy databases piuttosto che sostituirli. Esso perciò consente di indirizzare la gestione dei dati ed evitare la costosa ricostruzione dei legacy systems.

APPROCCI ESISTENTI AL DISEGNO DI DATA

सावधान

Il processo di costruzione e perfezionamento di un डेटा वेअरहाऊस va compreso più come un processo evolutivo piuttosto che un lifecycle di sviluppo di sistemi tradizionali (देसिओ, 1995, Shanks, O’Donnell and Arnott 1997a ). Ci sono molti processi coinvolti in un progetto di डेटा वेअरहाऊस come inizializzazione, pianificazione; informazioni acquisite dai requisiti chieste ai dirigenti d’azienda; fonti, trasformazioni, pulizia dei dati e di sincronizzazione da legacy systems e le altre fonti di dati; sistemi di consegna in sviluppo; monitoraggio dei डेटा वेअरहाऊस; e insensatezza del processo evolutivo e di costruzione di un डेटा वेअरहाऊस (Stinchi, O’Donnell ed Arnott 1997b). In questo giornale, noi focalizziamo su come disegnare i dati immagazzinati nel contesto di questi altri processi. Ci sono un numero di approcci proposti per l’architettura dei डेटा वेअरहाऊस nella letteratura (Inmon 1994, Ives 1995, Kimball 1994 McFadden 1996). Ognuna di queste metodologie ha una breve rassegna con un’analisi dei loro punti di forza e non.

Inmon’s (1994) Approach for डेटा वेअरहाउस डिझाईन

Inmon (1994) propose quattro passi iterativi per disegnare un डेटा वेअरहाऊस (veda Figura 2). Il primo passo è progettare un modello dati sociale per capire come i dati possono essere integrati attraverso aree funzionali all’interno di un’organizzazione suddividendo i dati immagazzini in aree. Il modello dati è fatto per immagazzinare dati attinenti a prese di decisione, incluso dati storici, ed incluso dati dedotti ed aggregati. Il secondo passo è identificare aree soggette per la realizzazione. Questi sono basati su priorità determinate da una particolare organizzazione. Il terzo passo comporta il disegno di un डेटाबेस per l’area soggetta, pone particolare attenzione a includere appropriati livelli di granularità. Inmon raccomanda di usare il modello entità e relazioni. Il quarto passo è identificare sistemi di fonti dati richiesti e sviluppare processi di trasformazione per acquisire, pulire e formattare i dati.

Le forze dell’approccio di Inmon sono che il modello dati sociale offre la base per l’integrazione di dati all’interno dell’organizzazione e pianificazione di supporti per lo sviluppo iterativo di डेटा वेअरहाऊस. Le sue pecche sono la difficoltà e il costo nel disegnare il modello dati sociale, la difficoltà nel capire modelli di entità e relazioni usati in ambo i modelli, quello dati sociale e quello di dati immagazzinati per area soggetto, e l’appropriatezza dei dati del disegno di डेटा वेअरहाऊस per la realizzazione di डेटाबेस relazionali ma non per डेटाबेस multi-dimensionali.

Ives’ (1995) Approach to डेटा वेअरहाउस डिझाईन

Ives (1995) propone un approccio di quattro passi per disegnare un sistema informativo che lui ritiene applicabile al disegno di un डेटा वेअरहाऊस (veda Figura 3). L’approccio è molto basato sull’ Information Engineering per lo sviluppo di sistemi di informazioni (Martin 1990). Il primo passo è determinare gli obiettivi, i fattori critici e di successo e gli indicatori chiave delle prestazioni. I processi chiave di business e le informazioni necessarie sono modellate per condurci ad un modello dati sociale. Il secondo passo comporta lo sviluppo di un architettura che definisce dati immagazzinati per aree, डेटाबेस di डेटा वेअरहाऊस, i componenti di tecnologia che sono richiesti, l’insieme di supporto organizzativo richiesto per implementare ed operare con डेटा वेअरहाऊस. Il terzo passo include la selezione di pacchetti software e attrezzi richiesti. Il quarto passo è il disegno particolareggiato e la costruzione del डेटा वेअरहाऊस. Ives nota che immagazzinare dati è un vincolato processo iterativo.

La forza dell’approccio di Ives sono l’uso di specifiche tecniche per determinare i requisiti d’informazione, l’uso di uno strutturato processo per sostenere l’integrazione dei डेटा वेअरहाऊस, l’opportuna selezione hardware e software, e l’uso di molteplici tecniche di rappresentazione per il डेटा वेअरहाऊस. Le sue pecche sono inerenti alla complessità. Altre includono la difficoltà nello sviluppare molti livelli di डेटाबेस च्या आत डेटा वेअरहाऊस in tempi e costi ragionevoli.

Kimball’s (1994) Approach to डेटा वेअरहाउस डिझाईन

Kimball (1994) propose cinque passi iterativi per disegnare un डेटा वेअरहाऊस (vedi Figuri 4). Il suo approccio è particolarmente dedicato sul disegno di un solo डेटा वेअरहाऊस e sull’uso di modelli dimensionali in preferenza a modelli di entità e relazioni. Kimball analizza quei modelli dimensionali perché è più facile capire per i dirigenti d’azienda gli affari, è più efficiente quando si trattano consultazioni complesse, e il disegno di डेटाबेस fisico è più efficiente (Kimball 1994). Kimball riconosce che lo sviluppo di un डेटा वेअरहाऊस è iterativo, e che डेटा वेअरहाऊस separati possono essere integrati attraverso la ripartizione in tavole di dimensioni comuni.

Il primo passo è identificare la particolare area soggetto per essere perfezionato. Il secondo e terzo passo concernono modellatura dimensionale. Nel secondo passo le misure identificano cose di interesse nell’area soggetto e raggruppate in una tabella dei fatti. Per esempio, in un’area di soggetto di vendite le misure di interesse potrebbero includere l’ammontare di articoli venduto ed il dollaro come valuta di vendite. Il terzo passo comporta l’identificazione di dimensioni che sono i modi nei quali possono essere raggruppati i fatti. In un’area di soggetto di vendite, dimensioni attinenti potrebbero includere articolo, ubicazione e tempo periodo. La tabella dei fatti ha una chiave multi- part per collegarla ad ognuna delle tabelle di dimensione e tipicamente contiene un numero molto grande di fatti. In contrasto, tavole di dimensione contengono descrittive informazioni sulle dimensioni e gli altri attributi che possono essere usati per raggruppare i fatti. La tabella dei fatti e dimensioni associata proposta forma quello che è chiamato uno schema a stella a causa della sua forma. Il quarto passo comporta la costruzione di un डेटाबेस multidimensionale per perfezionare lo schema della stella. Il passo finale è identificare sistemi di fonti dati richiesti e sviluppare processi di trasformazione per acquisire, pulire e formattare i dati.

Le forze dell’approccio di Kimball includono l’uso di modelli dimensionali per rappresentare i dati immagazzinati che lo rendono facile da capire e conduce ad un disegno fisico efficiente. Un modello dimensionale che usa prontamente anche entrambi i sistemi di डेटाबेस relazionali può essere perfezionato o sistemi di डेटाबेस multidimensionali. Le sue pecche includono la mancanza di alcune tecniche per facilitare la pianificazione o l’integrazione di molti schemi della stella all’interno di un डेटा वेअरहाऊस e la difficoltà di progettare dall’estrema struttura denormalizzata in un modello dimensionale a dati in legacy system.

McFadden’s (1996) Approach to Data Warehouse Design

McFadden (1996) propone un approccio di cinque passi per disegnare un डेटा वेअरहाऊस (vedi Figura 5).
Il suo approccio è basato su una sintesi delle idee dalla letteratura ed è focalizzato sul disegno di un solo डेटा वेअरहाऊस. Il primo passo comporta un’analisi dei requisiti. Anche se le specifiche tecniche non sono prescritte, le note di McFadden identificano le entità dati specifiche ed i loro attributi, e si riferisce ai lettori Watson e Frolick (1993) per l’acquisizione dei requisiti.
Nel secondo passo viene disegnato un modello entità relazioni per डेटा वेअरहाऊस e poi convalidato dai dirigenti d’azienda. Il terzo passo comprende la determinazione del mapping da legacy system e fonti esterne di डेटा वेअरहाऊस. Il quarto passo comporta processi in sviluppo, la distribuzione e sincronizzazione di dati नेल डेटा वेअरहाऊस. Nel passo finale, la consegna del sistema è sviluppata con particolare enfasi su un’interfaccia utente. McFadden fa notare che il processo di disegno è generalmente iterativo.

Le forze dell’approccio di McFadden puntano sulla partecipazione da parte dei dirigenti d’azienda nel determinare i requisiti ed anche l’importanza delle risorse dati, la loro pulizia e raccolta. Le sue pecche riguardano la mancanza di un processo per suddividere un grande progetto di डेटा वेअरहाऊस in molti stages integrati, ed la

difficoltà nel capire i modelli di entità e relazione usati nel disegno di डेटा वेअरहाऊस.

आम्ही केवळ आपल्या जवळच्या लोकांद्वारेच निवडले जात नाही.

    0/5 (0 पुनरावलोकने)
    0/5 (0 पुनरावलोकने)
    0/5 (0 पुनरावलोकने)

    ऑनलाइन वेब एजन्सीकडून अधिक शोधा

    ईमेलद्वारे नवीनतम लेख प्राप्त करण्यासाठी सदस्यता घ्या.

    लेखक अवतार
    प्रशासन मुख्य कार्यकारी अधिकारी
    👍ऑनलाइन वेब एजन्सी | डिजिटल मार्केटिंग आणि SEO मधील वेब एजन्सी तज्ञ. वेब एजन्सी ऑनलाइन ही वेब एजन्सी आहे. Agenzia वेब ऑनलाइनसाठी डिजिटल परिवर्तनातील यश आयर्न एसइओ आवृत्ती 3 च्या पायावर आधारित आहे. वैशिष्ट्ये: सिस्टम इंटिग्रेशन, एंटरप्राइझ ऍप्लिकेशन इंटिग्रेशन, सर्व्हिस ओरिएंटेड आर्किटेक्चर, क्लाउड कॉम्प्युटिंग, डेटा वेअरहाऊस, व्यवसाय बुद्धिमत्ता, बिग डेटा, पोर्टल्स, इंट्रानेट, वेब ऍप्लिकेशन रिलेशनल आणि बहुआयामी डेटाबेसचे डिझाइन आणि व्यवस्थापन डिजिटल मीडियासाठी इंटरफेस डिझाइन करणे: उपयोगिता आणि ग्राफिक्स. ऑनलाइन वेब एजन्सी कंपन्यांना खालील सेवा देतात: -Google, Amazon, Bing, Yandex वर एसईओ; -वेब विश्लेषण: Google Analytics, Google Tag Manager, Yandex Metrica; -वापरकर्ता रूपांतरणे: Google Analytics, Microsoft स्पष्टता, Yandex Metrica; - Google, Bing, Amazon जाहिरातींवर SEM; -सोशल मीडिया मार्केटिंग (फेसबुक, लिंक्डइन, यूट्यूब, इंस्टाग्राम).
    माझी चपळ गोपनीयता
    ही साइट तांत्रिक आणि प्रोफाइलिंग कुकीज वापरते. स्वीकार वर क्लिक करून तुम्ही सर्व प्रोफाइलिंग कुकीज अधिकृत करता. नकार किंवा X वर क्लिक करून, सर्व प्रोफाइलिंग कुकीज नाकारल्या जातात. सानुकूलित वर क्लिक करून कोणती प्रोफाइलिंग कुकीज सक्रिय करायची ते निवडणे शक्य आहे.
    ही साइट डेटा संरक्षण कायदा (LPD), 25 सप्टेंबर 2020 चा स्विस फेडरल कायदा आणि GDPR, EU रेग्युलेशन 2016/679 चे पालन करते, वैयक्तिक डेटाचे संरक्षण तसेच अशा डेटाच्या मुक्त हालचालीशी संबंधित.