"We are entering the analytical age, a window in time where competitive advantages will be gained from companies making increasingly more advanced use of information." (Tonchia und Quagini 2010, S.xxi)
In Zeiten, in denen die Geschwindigkeit und Reife des technischen Fortschritts die rasante Produktion und Vervielfachung von Daten aller Art ermöglichen, gewinnt diese Aussage zunehmend an Bedeutung. Unternehmen finden sich in immer stärker umkämpften und wettbewerbsintensiveren Märkten wieder und müssen nach neuen Wegen suchen, sich von ihrer Konkurrenz abzuheben. Eine Möglichkeit dieser Differenzierung besteht für sie darin, sich der „Informationsrevolution“ im analytischen Zeitalter zu stellen und ihre Position im Wettbewerb durch die Transformation der vorhandenen Daten in entscheidungsrelevante Informationen zu stärken.
Aktuell werden jeden Tag etwa 15 Petabyte an neuen Daten kreiert – eine Zahl, die der achtfachen Menge an Büchern in allen US-amerikanischen Bibliotheken zusammen entspricht (vgl. IBM Corporation 2010a). Darüber hinaus steigt nicht nur die Menge der oftmals unstrukturiert auftretenden Datenflut, sondern auch die Leistungsfähigkeit und Rechenkapazität moderner Informationssysteme, mit Hilfe derer die riesigen Datenmengen verarbeitet werden können. Etwa vierzig Jahre nach der ersten menschlichen Mondlandung überragt die Rechenleistung der meisten Mobiltelefone die des damals für die Raumfahrtmission verantwortlichen Kontrollzentrums um ein Vielfaches (vgl. May 2009, S.xii).
Im Zuge dieser Entwicklung eröffnen sich für Unternehmen nun neue Chancen und Möglichkeiten, aus diesen unstrukturierten Rohdaten wertvolle Informationen zu generieren, die als Grundlage strategischer und operativer Entscheidung dienen und letztendlich das mitunter wertvollste Kapital eines Unternehmens darstellen – sein erfolgskritisches Wissen um Kunden, Märkte und interne Prozesse. Dieser Wandel vom alleinigen Vertrauen auf die Intuition und Expertise einzelner Entscheidungsträger hin zur softwareunterstützten und faktenbasierten Entscheidungsfindung wird unter dem Sammelbegriff Business Intelligence (BI) zusammengefasst und von einer steigenden Anzahl an Unternehmen adaptiert (vgl. Ayres 2008, S.11). Für Unternehmen ist es schlichtweg eine Frage der Konkurrenzfähigkeit geworden, Entscheidungen auf Basis verlässlicher Kennzahlen zu treffen. Dies belegen auch Analysten des Würzburger Business Application Research Centers, die für das Jahr 2011 erstmalig eine Durchbrechung der 1-Mrd.-Euro-Umsatz-Grenze im hiesigen BI-Markt prognostizierten (vgl. Born 2012, S.90).
„Many organizations don’t even know what they know.“
(May 2009, S.2)
Trotz der fortschreitenden Verbreitung und Beliebtheit des Themas haben viele Unternehmen das Potenzial, das sich hinter der zielgerichteten Analyse vorhandener Daten verbirgt, noch nicht erkannt und sind sich der Bedeutung dieses Wissens noch nicht bewusst. So zeigt eine Studie der IBM Corporation, dass erfolgreiche Unternehmen 22-mal häufiger dazu bereit sind, den Status Quo ihrer Organisation in Frage zu stellen sowie gegenwärtige Strategien und Geschäftsprozesse zu überprüfen und dafür neue Erkenntnisse aus ihren Datenanalysen direkt in ihre Entscheidungen einfließen zu lassen (vgl. is report 2010a, S.7). Um sich erfolgreich im Wettbewerb zu behaupten, können diese unter dem Thema Business Intelligence gebündelten Erfolgsfaktoren dementsprechend eine kritische Rolle spielen – und die Entwicklung geht weiter.
Denn innerhalb dieses Bereichs lässt sich zunehmend eine Verlagerung des Schwerpunkts von der ehemals dominierenden Analyse historischer Daten hin zur Generation von Vorhersagen auf Basis mathematischer Algorithmen und fortgeschrittener Statistik beobachten (vgl. is report 2010b, S. 22). Predictive Analytics heißt dieser eigentlich nicht neue Trend und wurde auch von IBM aufgegriffen, die mit dem Zukauf des Predictive Analytics-Spezialanbieters SPSS im Jahr 2009 nicht nur ihre Prognosefähigkeit erhöht haben, sondern damit auch ihr eigenes BI-Portfolio, das bis dato überwiegend aus verschiedenen Cognos-Komponenten bestand, abgerundet haben. Statt Fragen wie „Wo stehen wir und warum ist das so?“ zu beantworten, erweitert SPSS den bisher prädominanten rückwärtsgewandten Fokus um die Möglichkeit einer zukunftsorientierten Vorausschau und schließt so den Informationskreis, aus dem Unternehmen letztendlich erfolgskritisches Wissen generieren können und sich so den Herausforderungen dieser neuer analytischen Ära stellen.
Obwohl der Bereich Predictive Analytics, die Disziplin der prädiktiven Analyse, im Geschäftsumfeld vermehrt an Bedeutung gewinnt und sich Begriffe wie Data Mining, Datenmustererkennung und statistische Vorhersagen zunehmender Aufmerksamkeit erfreuen, handelt es sich immer noch um ein Wachstumsfeld, das als Teildisziplin von Business Intelligence aktuell etwa 8 bis 10% des Gesamtmarkts für BI ausmacht – und damit sicherlich noch Wachstumspotenziale in diversen Branchen und Einsatzgebieten aufweist (vgl. is report 2011, S.12).
Deswegen wird sich diese Bachelorarbeit mit dem Themenbereich Predictive Analytics unter der Zielsetzung, dessen Einsatzgebiete und Nutzenpotenziale zu evaluieren, beschäftigen. Dabei wird zunächst in Kapitel 2 unter Betrachtung der theoretischen Grundlagen der Wandel von rückwärtsgewandten Analyse- und Reporting-Methoden hin zu einem weiterführenden analytischen Ansatz als Antwort auf eine veränderte Marktumgebung und neuartige technische Voraussetzungen erläutert. Zudem wird dieses Kapitel eine mögliche konzeptionelle Architektur einer Predictive Analytics-Lösung und die Kapazitäten zur Umsetzung dieser durch das IBM SPSS Softwareportfolio erleuchten. In Kapitel 3 werden anschließend der Nutzen und die Einsatzmöglichkeiten von Predictive Analytics in ausgewählten Industrien beschrieben, wobei sowohl Möglichkeiten zur Werterfassung einer solchen Anwendung als auch typische Anwendungsszenarien aus der Literatur anhand einer Metaanalyse diskutiert werden. Aus den dort evaluierten Anwendungsgebieten und Industrien werden im nächsten Kapitel die Achsen einer Matrix abgeleitet, die zur Kategorisierung aller innerhalb von IBM auftretenden Predictive Analytics-Anwendungsfälle dienen soll und einen Vergleich der dort auftretenden Häufigkeiten und Fokusgebiete mit den in der Literatur ausgemachten Einsatzmöglichkeiten zulässt. Unter Beachtung von Einschränkungen hinsichtlich der wissenschaftlichen Interpretierbarkeit des Datenmaterials erlaubt diese Kategorisierung letztendlich die Feststellung gewisser Trends im Bereich Predictive Analytics, die im Résumé abschließend diskutiert werden sollen.
Um sowohl die Relevanz der soeben beschriebenen Fragestellung für Wissenschaft und Praxis als auch einen Rahmen bezüglich der wissenschaftlichen Herangehensweise aufzuzeigen, soll in diesem Kapitel das Forschungsdesign dieser Arbeit, veranschaulicht durch Abbildung 1, vorgestellt werden.
Abbildung 1: Forschungsdesign (Quelle: eigene Darstellung, 2012)
Die Problemstellung der Arbeit, die auf einer Evaluierung von Nutzen und Einsatzmöglichkeiten von Predictive Analytics in ausgewählten Industrien basiert, kann gemäß des Schaubildes in einzelne Teilfragestellungen untergliedert werden. So soll zunächst untersucht werden, welche Anwendungen der Disziplin Predictive Analytics im Geschäftsumfeld existieren, um diese Anwendungsfälle dann konkreten Industrien und Anwendungsgebieten zuzuordnen. Anhand dieser aus der Literatur hervorgehenden Dimensionen sollen anschließend die Anwendungsfälle, die innerhalb des IBM Kundenportfolio existieren, kategorisiert werden und so der Bezug zur Praxis hergestellt werden.
Durch die Evaluierung von Nutzenpotenzialen anhand einer publikationsbasierten Meta-Analyse der vorhandenen Literatur zu diesem Themengebiet werden zunächst möglich umfassend die in der Literatur vorzufindenden empirischen Ergebnisse zu dieser Problemstellung konsolidiert. Nach einer systematischen Literaturrecherche und Überprüfung der Homogenität der verwendeten Studien kann die entstandene Nutzenkonsolidierung als Beitrag zum aktuellen Forschungsstand in diesem Gebiet gesehen werden und dient gleichzeitig als Grundlage der praxisbezogenen Analyse der IBM SPSS Anwendungsfälle.
Diese wurden zunächst aus einer Reihe verschiedener IBM-interner Quellen extrahiert, worunter sich interne Datenbanken, Präsentationsmaterial oder das Expertenwissen der verantwortlichen Vertriebsbeauftragten befinden. Einschränkungen hinsichtlich der wissenschaftlichen Interpretierbarkeit dieser Datenbasis werden in Kapitel 4.1 näher erörtert. Nach Sammlung und Aufbereitung der identifizierten Anwendungsfälle wurden diese innerhalb der durch die Metaanalyse vorgegebenen Dimensionen kategorisiert und bilden somit die Grundlage für eine Analyse von auftretenden Häufigkeitsverteilungen und Fokusgebieten innerhalb der Matrix. Anhand tiefergehender Fallstudien zu einzelnen Anwendungsfällen aus diesen Fokusgebieten soll ein tieferes...