Daten sind das neue Öl. Diese Metapher beschreibt sehr treffend den Wert von Daten und verdeutlicht ebenso, wo die Schwierigkeiten bei deren Nutzung liegen.
Daten können sehr wertvoll sein. Ein Beispiel: Gemessen am Börsenwert hat Google inzwischen Platzhirsche wie den Ölkonzern Exxon Mobile von der Spitzenposition der teuersten Unternehmen verdrängen können. Jedoch tritt ihr Wert von Daten erst zutage nachdem sie erschlossen und raffiniert wurden. Um die Bedeutung von Daten für ein Unternehmen generell zu erkennen, muss man nicht gleich an Branchenriesen wie Google denken. Das Spektrum der Unternehmen, die profitieren können, ist breit und reicht von weltumspannenden IT-Konzernen, über Retailer bis hin zum regional produzierenden Gewerbe. Etwa in der Fertigungsindustrie: Hier lassen sich mit Mitteln wie prädiktiver Instandhaltung Ausfallzeiten von Maschinen optimieren und die Vorhersage von Absatzmengen kann helfen, Über- und Unterproduktionen in den Griff zu bekommen. Die Prognostizierung des Lieferdatums zählt laut der PAC-Studie „Predictive Analytics in der Fertigungsindustrie" in jedem dritten Unternehmen zu den schwierigsten Aufgaben. Die Menge der möglichen Anwendungen ist groß und die Analysten von PAC kommen darüber hinaus zu dem Schluss, dass prädiktive Analysen eine Schlüsselrolle spielen, um Unternehmen effizienter und innovativer zu gestalten.
Systematisch Erkenntnisse aus Daten zu ziehen, benötigt einen selbständigen Prozess. Dabei werden ausgehend von einem spezifischen Anwendungsfall zuerst die benötigten Daten erhoben, gesammelt und zusammen mit Informationen aus anderen Datenquellen analysiert. Schließlich werden die gewonnen Einsichten in bereits bestehende Geschäftsprozesse integriert, um beispielweise Kosten zu senken, Zeit einzusparen oder effizienter zu produzieren. Auf dem Weg zur Implementierung eines solchen Prozesses müssen sich Unternehmen Fragenstellungen aus unterschiedlichen Bereichen und über deren Grenzen hinweg stellen. Rechtliche Aspekte, etwa welche Daten in welcher Form gesammelt und verarbeitet werden dürfen, spielen dann eine Rolle. Infrastrukturelle Themen, wie die Wahl der Plattform oder verwendete Tools sind naheliegende Aspekte, aber auch Fragen zu den Skills der Mitarbeiter oder zur Integration in bestehende Prozesse zählen dazu.
Welche Sensordaten benötigt man, um den Ausfall einer Maschine vorherzusagen? Und, in welcher Form und Granularität werden diese benötigt? Wie erkennt man im Gegensatz dazu, ob ein Gerät „gesund“ ist? Fragen wie diese sind in der Regel der Ausgangspunkt, um ein entsprechendes Modell abzuleiten, das beispielsweise für prädiktive Wartung eingesetzt werden soll.
Die Analyse selbst ist dabei der Schritt, der dem Raffinieren von Rohöl gleichzusetzen ist. Hier werden aus Rohmaterial, nämlich der erhobenen Datengrundlage, nutzbare Produkte in Form von Erkenntnissen. Die Krux besteht insbesondere darin, Beziehungen und Strukturen in den Daten zu identifizieren, die auf einem kausalen Zusammenhang beruhen und damit eine Prognose ermöglichen. Beispielsweise könnte man sich einen Vibrationssensor vorstellen, der im Voraus einen Defekt an einem Lager ankündigt. Die Mittel der Wahl sind hierbei statistische und mathematische Methoden und Modelle, gepaart mit soliden Programmierkenntnissen.
Diese Kombination ist für viele Unternehmen Segen und Fluch zugleich: Auf der einen Seite ermöglichen diese Werkzeuge die nötige Abstraktion, um jene für das menschliche Auge vorerst verborgenen Information auch in großen Datenmengen freizulegen. Anderseits birgt genau diese interdisziplinäre Spielwiese die Hürde, die es zu bewältigen gilt, denn nur selten sind diese Schlüsselfähigkeiten in einer Person vereinigt anzutreffen.