Sie sind hier
E-Book

Agile Business Intelligence. Begriffe, Methoden, Analysen

AutorNelli Weiß
VerlagIgel Verlag
Erscheinungsjahr2018
Seitenanzahl113 Seiten
ISBN9783954858668
FormatPDF
Kopierschutzkein Kopierschutz/DRM
GerätePC/MAC/eReader/Tablet
Preis34,99 EUR
Das aktuelle Zeitalter ist stark von Veränderungen geprägt. Veränderungen in der IT haben eine bisher noch nie dagewesene Geschwindigkeit erreicht. Ein Unternehmen ist nur dann wettbewerbsfähig, wenn dieses auf eintretende Veränderungen schnell reagieren kann. Diese Fähigkeit wird auch mit dem Begriff 'Agilität' beschrieben. Auch im Bereich der Business Intelligence spielt die Agilität eine entscheidende Rolle. Aus diesem Anlass prägten einige Mitglieder des TDWI (The Data Warehouse Institute) den Begriff 'Agile Business Intelligence'. In diesem Buch wird analysiert, was sich hinter der 'agilen Business Intelligence' verbirgt. Zu Beginn der Analyse werden im ersten Kapitel der Hintergrund und die Motivation zur Thematik, die Zielsetzung der Arbeit und die Herangehensweise beschrieben. Zur Schaffung des richtigen Rahmens und zur Einführung des Lesers in die Thematik, findet in Kapitel zwei eine Erläuterung der Begriffsarten, der Business Intelligence, der BI-Projekte und der Agilität statt. Im dritten Kapitel erfolgt die Darstellung der 'agilen Business Intelligence' überwiegend aus Sicht der TDWI. Aber auch die Sichtweise außerhalb der TDWI, z.B. aus der Sicht des Marktforschungsunternehmens Forrester, wird aufgezeigt. Kapitel vier dient der Beschreibung agiler Vorgehensmodelle, Methoden, Architekturen und Techniken losgelöst von der Thematik Business Intelligence. Dabei soll die Darstellung der bereits in Kapitel drei vorgestellten Vorgehensmodelle und Methoden vertieft und weitere agile Vorgehensmodelle und Methoden vorgestellt werden, die eventuell im Rahmen der 'agilen Business Intelligence' eingesetzt werden könnten. Nachfolgend werden in Kapitel fünf einige Praxisbeispiele zu agilen BI-Projekten vorgestellt. Abschließend erfolgt in Kapitel sechs eine Synthese der zuvor analysierten und dargestellten Aspekte und die Beantwortung der Frage 'Was ist 'Agile Business Intelligence'?'

Nelli Weiß, B.Sc. M.A., wurde 1987 in Karaganda in Kasachstan geboren. Ihr duales Studium der Wirtschaftsinformatik an der Dualen Hochschule Baden-Württemberg in Ravensburg schloss die Autorin im Jahre 2010 mit dem akademischen Grad Bachelor of Science erfolgreich ab. Den akademischen Grad Master of Art in der Fachrichtung Business Process Management erlangte die Autorin im Jahre 2017 im Rahmen eines nebenberuflichen Masterstudiums an der Fachhochschule Vorarlberg in Dornbirn.

Kaufen Sie hier:

Horizontale Tabs

Leseprobe
Textprobe: Kapitel 3.5.3 Engines: Durch den Engine-Ansatz können Beladeprozesse auf Basis standardisierter, übergeordneter und revisionssicherer Strukturen durch den Fachbereich oder die IT-Abteilung verändert werden. Die Änderungen erfolgen dabei über revisionssicher abgelegte Steuerungsschnittstellen. Um den zentralen Entwicklungsprozess nicht zu beeinflussen, werden keine Änderungen am eigentlichen ETL-Code oder am Prozesssteuerungssystem vorgenommen. Wenn für die Entwicklung der Engine produktive Daten benötigt werden, dann erfolgt die Entwicklung innerhalb einer Sandbox. Andernfalls kann die Entwicklung der Engine auch in einer normalen Testumgebung erfolgen. Sandbox, Engine und Bypass sind zentrale Architekturkomponenten, die von der IT oder dem BICC bereitgestellt werden, wodurch ein Einsatz dieser Komponenten in einem dezentralen Ansatz nicht umsetzbar ist. 3.5.4 Bypässe In der Medizin werden operative Überbrückungen von Passage-Hindernissen als Bypass bezeichnet. Im Bereich der BI wird darunter eine 'kurzfristige Behebung eines Engpasses bei der Datenbereitstellung unter Überbrückung einer oder mehrerer Datenhaltungsebenen verstanden.' Bypässe werden im Bereich der BI eingesetzt, um Daten zeitnah über einen modularen ETL-Prozess in das vollständig integrierte DWH zur Verfügung zu stellen, ohne dabei die bestehenden Infrastruktur zu beachten. Die Integration der Daten in die bestehende Infrastruktur kann dann rückwirkend in dem nächsten Release erfolgen. 3.5.5 In-Memory Nicht nur die Menge an Daten steigt, sondern auch die Anzahl der Nutzer, die auf diese Daten zugreifen. Somit steigen die Anzahl und die Dauer von Zugriffen auf die benötigten Daten. Die relationalen Datenbanken können die Anforderungen der Nutzer ab einer bestimmten Datenmenge nicht mehr zufriedenstellend erfüllen. Die In-Memory Datenbanken (IMDB) stellen eine Alternative zu den weit verbreiteten relationalen Datenbanken dar. Somit soll durch In-Memory-Technologien eine schnelle Verarbeitung von großen Datenmengen ermöglicht werden. Bisher gängige Lösungen bezüglich der Architektur und Herangehensweise erreichen allmählich ab einer bestimmten Menge von Daten ihre Grenzen, da es innerhalb dieser immer schwieriger wird, einen performanten Zugriff auf die Daten zu ermöglichen. Dieser Herausforderung, die durch In-Memory Computing gelöst werden sollen, kommen die sinkenden Preise für Hauptspeicher und die wachsende Anzahl an CPU-Kernen pro CPU sehr entgegen. Denn durch die sinkenden Preise für RAM werden diese Speicherbereiche immer größer. Bei den In-Memory Datenbanken werden die operativen Daten über Skripte direkt in den Hauptspeicher und nicht in ein zentrales DWH repliziert. Durch diese Art der Datenspeicherung sollen, auf Grund der höheren Zugriffsgeschwindigkeit und den effizienteren Zugriffsalgorithmen, schnellere Zugriffszeiten auf die Daten ermöglicht werden. Die Abfragewerte liegen bei RAM im Nanosekunden-Bereich, während diese bei herkömmlichen festplattenbasierten Datenbanken im Millisekunden-Bereich liegen. Durch die In-Memory-Technologie könnten somit die aufwändigen Modellierungen von Daten in Star- und Snowflake-Schemata überflüssig gemacht werden. Außerdem soll durch die performante Speicherung, Verarbeitung und Abfrage von großen Datenmengen durch den Einsatz von der In-Memory-Technologie viel Zeit und Aufwand eingespart werden, welche für die physikalische Modellierung der Daten benötigt werden würde. Durch diesen Zeitgewinn könnten sich die Anwender wieder fokussierter dem Business zuwenden. Grundsätzlich ist die effektive Nutzung der wachsenden Datenflut im gesellschaftlichen und wirtschaftlichen Umfeld wettbewerbsentscheidend. Die In-Memory-Technologie soll einen Ansatz zur Integration der Daten für die Beherrschung der großen Datenflut im Sinne von analytischen Möglichkeiten bieten. Die Einsatzmöglichkeiten von In-Memory-Computing sind sehr umfangreich. Im Bereich der Business Intelligence bringen diese vor allem einen Mehrwert bei den Ad-hoc-Abfragen mit sich. Sie müssen hoch performant sein, da ansonsten keine ausreichende Akzeptanz der BI-Anwender zu erwarten ist. Des Weiteren werden erst durch den Einsatz von In-Memory-Computing Echtzeitanalysen möglich, da der klassische Beladungsprozess (ETL-Prozess) für diese Anforderungen nicht ausreicht. In-Memory-Computing ist aber nicht nur eine Maßnahme zur Performance-Steigerung. Durch Verschlankung der Strukturen, d.h. durch die Weglassung von Maßnahmen wie Aggregattabellen, Zwischenschichten oder performanceorientierte Modifikationen am Star-Schema, die nur der Performance-Steigerung dienen, erfolgt eine Vereinfachung und dadurch in der Regel auch eine Beschleunigung bei Änderungen an den bestehenden Lösungen. Durch diese Vereinfachung wird auch die Datenhaltung für Anwender zugänglicher und somit auch die Verlagerung von Gestaltungsaufgaben zu den Fachbereichen leichter. Zusammenfassend wird somit durch den Einsatz von In-Memory-Technologien die inhaltliche Agilität über alle Schichten der Datenhaltung hinweg gefördert. Die Datenspeicherung im Hauptspeicher bei In-Memory Datenbanken hat allerdings auch Nachteile. Bei einem Systemausfall gehen die Daten im Hauptspeicher verloren. Um den Verlust der Daten im Falle eines Systemausfalls zu minimieren, erfolgen Erfassungen von den Zuständen der Daten und Speicherung dieser auf persistenten Speichermedien in vordefinierten Zeitintervallen. Somit kann es zu einem Verlust von Daten bei einem Systemausfall nur noch zwischen den Zeitintervallen kommen. Eine weitere Absicherung vor Datenverlust kann durch den Einsatz von NVRAM erfolgen. Bei Non-Volatile Random-Access Memory handelt es sich dabei um Hauptspeicher mit einer eigenen Stromversorgung. Bei diesen kann der letzte Datenzustand vor dem Systemausfall im Falle eines solchen wieder hergestellt werden. Außerdem muss die benötigte Datenqualität bereits vor der Speicherung der Daten ausreichend vorliegen, da hier der ETL-Prozess nicht mehr enthalten ist, wodurch die Daten vor der Ablage nicht mehr aufbereitet werden. Laut Bachmann und Kemper 'ist [es] insofern mehr als fraglich, ob für tiefergehende Analysen tatsächlich auf eine entsprechend angepasste Datenstruktur verzichtet werden kann.' Und selbst bei In-Memory-Lösungen ist der adressierbare Speicherraum nicht ohne weiteres unbegrenzt nutzbar. Sollen durch diese Lösung Datenmengen bis zu einigen Terabyte, wie es aktuell in DWHs möglich ist, verarbeitet und zu Analysezwecken repliziert werden, so wird auch hier Programmierungsaufwand notwendig. Ein Lösungsansatz für diese Herausforderung ist der Einsatz von Komprimierungsalgorithmen, durch die die Daten vor dem Laden in den Arbeitsspeicher komprimiert werden.
Blick ins Buch
Inhaltsverzeichnis
Agile Business Intelligence. Begriffe, Methoden, Analysen1
Kurzreferat3
Vorwort4
Inhaltsverzeichnis5
Abkürzungsverzeichnis8
Abbildungsverzeichnis9
Tabellenverzeichnis10
1. Einleitendes Kapitel11
1.1 Hintergrund zur Thematik und Motivation11
1.1.1 Ausgangslage11
1.1.2 Problemstellung12
1.1.3 Motivation12
1.1.4 Bezug zu BPM13
1.2 Zielsetzung, Forschungsfrage und Hypothesen13
1.2.1 Theoretische und praktische Zielsetzung14
1.2.2 Forschungsfrage15
1.2.3 Hypothesen15
1.3 Adressaten15
1.3.1 Zielgruppe15
1.3.2 Vorausgesetzter Kenntnisstand16
1.4 Methodik und Aufbau der Arbeit16
1.4.1 Methodik16
1.4.2 Aktueller Stand der Literatur18
1.4.3 Die MoSCoW-Methode19
2. Begriffsdefinitionen21
2.1 Begriffsarten21
2.1.1 Buzzword21
2.1.2 Sammelbegriff22
2.1.3 Ober- und Unterbegriff22
2.2 Business Intelligence23
2.2.1 Datenaufbereitung (ETL)25
2.2.2 Datensammlung (Data Warehouse)26
2.2.3 Verteilung der Daten (Data Marts)28
2.2.4 Analyse der Daten (OLAP)28
2.2.5 Analyse der Daten (Data Mining)30
2.2.6 Informationsdarstellung (Reporting)31
2.3 BI-Projekte32
2.3.1 Anforderungsmanagement33
2.3.2 Datenqualität34
2.3.3 Datenmenge34
2.4 Agilität35
2.4.1 Agiles Manifest35
2.4.2 Agilität in der Informatik36
2.4.3 Agile Manufacturing37
2.4.4 Agilität in Organisationen37
3. Analyse der „agilen Business Intelligence“38
3.1 BI-Agilität39
3.1.1 Grad der BI-Agilität40
3.1.2 Typen der BI-Agilität41
3.2 Werte und Prinzipien für die agile BI42
3.2.1 Werte42
3.2.2 Prinzipien43
3.3 Anforderungen an eine agile BI-Ablauforganisation44
3.3.1 ABIMM - Reifegradmodell für agile BI44
3.3.2 Vorgehensmodelle in einer agilen BI-Ablauforganisation46
3.3.3 Methoden49
3.4 Anforderungen an eine agile BI-Aufbauorganisation51
3.4.1 BICC51
3.5 Anforderung an eine agile BI-Technik bzw. Architektur53
3.5.1 Sandboxes53
3.5.2 Data Vault54
3.5.3 Engines56
3.5.4 Bypässe56
3.5.5 In-Memory57
3.5.6 Cloud-BI59
3.6 Anforderung an eine agile BI-Fachlichkeit59
3.6.1 Selbstorganisierte Teams60
3.7 Agile BI aus Sicht außerhalb des TDWI60
3.7.1 Verständnis von agiler BI von Collier, Cachee und Oswald61
3.7.2 Forresters Verständnis von agiler BI62
3.7.3 Verständnis vom agilen Data Warehouse64
4. Analyse agiler Methoden und Vorgehensmodelle66
4.1 Agile Vorgehensmodelle66
4.1.1 Scrum66
4.1.2eXtreme Programming69
4.1.3 Kanban71
4.1.4Feature Driven Development72
4.2 Agile Methoden72
4.2.1 DevOps73
4.2.2 Burndown Charts74
4.2.3 Stand-Up Meetings75
4.3 Agile Architekturen und Techniken75
4.3.1 Cloud Computing76
4.3.2 NoSQL-Datenbanken77
4.3.3 Hybrid-Datenbank79
4.3.4 Automatisierte Tests80
4.4 Agile Management-Methoden81
4.4.1 SCARF-Modell81
4.4.2 Open-Space-Technologie82
4.4.3 Appreciative Inquiry83
5. Analyse agiler BI-Projekte84
5.1 Agile BI bei einer Bank84
5.2 Agile BI bei einer Versorgungskasse85
5.3 Agile BI bei einer Körperschaft des öffentlichen Rechts87
5.4 Zusammenfassende Analyse der agilen BI-Projekte89
6. Abschließendes Kapitel91
6.1 Synthese91
6.2 Beantwortung der Forschungsfrage94
6.3 Ausblick95
Literaturverzeichnis96
Anhang104

Weitere E-Books zum Thema: Management - Wirtschaft - Coaching

Zeitmanagement im Projekt

E-Book Zeitmanagement im Projekt
Format: PDF

Von Projektleitern und ihren Mitarbeitern wird grundsätzlich eine exakte Punktlandung erwartet: Sie sollen das Projekt zum vereinbarten Termin beenden, selbstverständlich die Budgetvorgaben einhalten…

Zeitmanagement im Projekt

E-Book Zeitmanagement im Projekt
Format: PDF

Von Projektleitern und ihren Mitarbeitern wird grundsätzlich eine exakte Punktlandung erwartet: Sie sollen das Projekt zum vereinbarten Termin beenden, selbstverständlich die Budgetvorgaben einhalten…

Basiswissen Beschaffung.

E-Book Basiswissen Beschaffung.
Format: PDF

Anhand vieler Beispiele für die relevanten Aufgaben und Methoden der Beschaffung bietet der Band Grundwissen für den Quereinsteiger sowie ein Repetitorium für den Praktiker. Das Buch gibt eine kurze…

Basiswissen Beschaffung.

E-Book Basiswissen Beschaffung.
Format: PDF

Anhand vieler Beispiele für die relevanten Aufgaben und Methoden der Beschaffung bietet der Band Grundwissen für den Quereinsteiger sowie ein Repetitorium für den Praktiker. Das Buch gibt eine kurze…

Weitere Zeitschriften

Ärzte Zeitung

Ärzte Zeitung

Zielgruppe:  Niedergelassene Allgemeinmediziner, Praktiker und Internisten. Charakteristik:  Die Ärzte Zeitung liefert 3 x pro Woche bundesweit an niedergelassene Mediziner ...

DER PRAKTIKER

DER PRAKTIKER

Technische Fachzeitschrift aus der Praxis für die Praxis in allen Bereichen des Handwerks und der Industrie. “der praktiker“ ist die Fachzeitschrift für alle Bereiche der fügetechnischen ...

die horen

die horen

Zeitschrift für Literatur, Kunst und Kritik."...weil sie mit großer Aufmerksamkeit die internationale Literatur beobachtet und vorstellt; weil sie in der deutschen Literatur nicht nur das Neueste ...

dima

dima

Bau und Einsatz von Werkzeugmaschinen für spangebende und spanlose sowie abtragende und umformende Fertigungsverfahren. dima - die maschine - bietet als Fachzeitschrift die Kommunikationsplattform ...

DSD Der Sicherheitsdienst

DSD Der Sicherheitsdienst

Der "DSD – Der Sicherheitsdienst" ist das Magazin der Sicherheitswirtschaft. Es erscheint viermal jährlich und mit einer Auflage von 11.000 Exemplaren. Der DSD informiert über aktuelle Themen ...

EineWelt

EineWelt

Lebendige Reportagen, spannende Interviews, interessante Meldungen, informative Hintergrundberichte. Lesen Sie in der Zeitschrift „EineWelt“, was Menschen in Mission und Kirche bewegt Man kann ...

building & automation

building & automation

Das Fachmagazin building & automation bietet dem Elektrohandwerker und Elektroplaner eine umfassende Übersicht über alle Produktneuheiten aus der Gebäudeautomation, der Installationstechnik, dem ...

VideoMarkt

VideoMarkt

VideoMarkt – besser unterhalten. VideoMarkt deckt die gesamte Videobranche ab: Videoverkauf, Videoverleih und digitale Distribution. Das komplette Serviceangebot von VideoMarkt unterstützt die ...

Euphorion

Euphorion

EUPHORION wurde 1894 gegründet und widmet sich als „Zeitschrift für Literaturgeschichte“ dem gesamten Fachgebiet der deutschen Philologie. Mindestens ein Heft pro Jahrgang ist für die ...