09.07.2015

Die Big Data Kluft überwinden

Der Wettbewerb, Marktgegebenheiten und Innovationen verlangen von Unternehmen, dass sie die Personen, Prozesse und Technologien evaluieren, die für die Entwicklung von Produkten und Dienstleistungen eingesetzt werden. Für Unternehmen aus dem Bereich der Mess- und Prüftechnik steckt hinter dieser Evaluierung die aufkommende Problematik von Big Analog Data, zu der das Erfassen und Analysieren der gewonnenen Rohdaten gehört.

Autor: Stephanie Amrite, National Instruments Germany GmbH.


Bild: Die Softwarelösung InsightCM Enterprise bietet Firmen Einblicke in den Zustand ihrer Anlagen im Rahmen von Maschinenwartung und -bedienung, und bewältigt so die Herausforderungen von Big Analog Data.
Bild: National Instruments Germany GmbH

Im Gegensatz zur Datenflut, die gewöhnlich mit klassischen IT-Datenquellen assoziiert wird, wie etwa Social-Media- und unternehmensweite Anwendungen, stellen Lösungen zu Big Analog Data eine größtenteils ungenutzte Quelle von Informationen und Erkenntnissen dar, mit denen Mess- und Prüftechnikfirmen in datenzentrierten Anwendungen Wettbewerbsvorteile identifizieren und schaffen können. Dieses Unterfangen ist nicht zu unterschätzen, wenn man bedenkt, dass die International Data Corporation davon ausgeht, dass nur 5% der heute erfassten Daten auch analysiert werden. Im Rahmen der Anstrengung, Lösungen zu Big Analog Data besser zu erfassen, zu speichern und zu nutzen, müssen Ingenieure zunächst die Rolle der IT erkennen, die diese bei der Verwaltung der Daten spielt. Derzeit bewirkt allein die schiere Datenmenge, die in technischen Abteilungen erzeugt wird, dass sich eine Kluft zwischen IT und Engineering auftut. Wenn diese Gruppen nicht gemeinsam an der Entwicklung von Werkzeugen und Methoden zur besseren Nutzung dieser Daten arbeiten, wird sich diese Kluft weiter vertiefen. Der erste Schritt hin zu einem Zusammenwirken sind Kenntnisse darüber, wie diese Datenfluten (= Big Data) klassifiziert werden: strukturiert, unstrukturiert oder teilstrukturiert. Bislang haben sich die meisten Big-Data-Lösungen auf strukturierte Daten konzentriert. Die vom Nutzer definierten strukturierten Daten verkörpern ein bestimmtes Verhältnis zum Nutzer, der zahlreiche Werte (Name, Geburtsdatum, Adresse) als Rohdaten eingibt. Unstrukturierte Daten enthalten keine Metadaten, folgen keinem Schema und richten sich nicht nach anderen zuvor festgelegten Regeln. Die dritte Kategorie, teilstrukturiert, wird vom dramatischen Anstieg der Menge an erfassten Testdaten beeinflusst. Da immer mehr Prüfsysteme rund um die Uhr für die Erfassung von Testdaten eingesetzt werden, wird deren Volumen schon bald das der von Menschen erzeugten Daten übertreffen. Weil Testdaten so viele Informationen beinhalten, ist es schwierig, jedem einzelnen Byte einen strukturierten Wert zuzuweisen. Das Erstellen von Datenhierarchien sorgt für Struktur und erleichtert das Auswerten der Daten nach ihrer Erfassung. Teilstrukturierte Testdaten sind in der Regel mit einem Zeitstempel gekennzeichnet und werden dann über einen festgelegten Zeitraum oder auf ein festgesetztes Stimulus-Antwort-Muster hin analysiert.

Kombination Datenanalyse und IT-Werkzeuge

Die meisten Unternehmen implementieren ihre Lösungen für Testdaten suboptimal, da sie nicht damit gerechnet haben, wie wertvoll die Korrelation der aus diesen Stimulus-Antwort-Daten gewonnenen Informationen zum Zeitpunkt der Implementierung sein kann. Bei den effektivsten Methoden zur Bewältigung dieser Herausforderung werden Testdatenanalysen mit klassischen IT-Werkzeugen kombiniert. Allerdings erfordert diese Architektur einen neuen Ansatz bei der Datenintegration und -verwaltung. Dazu gehören neue Infrastrukturen und Fähigkeiten für das Speichern, Auswerten und Analysieren der aussagekräftigen Daten. Diese Lösungen müssen so ausgelegt werden, dass neue Datenquellen analysiert und in vorhandene Datenbestände integriert werden. Obwohl IT-Abteilungen nicht immer Testdaten von Ingenieuren und Wissenschaftlern in ihre Gesamtzielsetzungen eingebunden haben, erkennen sie jetzt den attraktiven Wert für das Unternehmen, der darin besteht, dass Analysen und Algorithmen nicht zur Auswertung dieses Datenbergs, sondern auch zur Eröffnung neuer geschäftlicher Möglichkeiten herangezogen werden. In der Phase des Übergangs stellen sich Anwendern folgende Fragen: -Werden über die Hälfte der Analysen manuell durchgeführt?, -Verbringt ein Team über fünf Stunden pro Woche mit der Suche nach Datentrends?, -Welche Datenmenge wird letztlich analysiert? Liegt sie bei unter 80% der erfassten Daten?, -Existiert ein optimierter, abteilungsübergreifender Prozess? Oder verwenden verschiedene Teams unterschiedliche Werkzeuge?

Bereichsübergreifendes Datenverwaltungsteam

Damit der Wandel hin zu einer testdatenzentrierten Organisation effizient erfolgen kann, sollte ein bereichsübergreifendes Team Lösungen gemeinsam prüfen und Kompatibilität sicherstellen. Zum Team sollte ein Vertreter der IT, ein für die Datenerfassung zuständiger Ingenieur oder Techniker, ein Datenexperte sowie eine Führungskraft mit einem guten Blick dafür gehören, wie neue Lösungen in anderen Abteilungen umgesetzt werden können. Darüber hinaus sollte ein leitender Angestellter ein besonderes Interesse daran haben, welches Ergebnis durch das Einbinden von Testdatenanalysen erzielt wird, sodass sich wichtige Mitglieder des bereichsübergreifenden Teams für Fortschritte verantwortlich fühlen.

Ergebnisse nicht sofort erwarten

Viele Unternehmen machen den Fehler, eine vollständige Lösung zur Datenanalyse innerhalb eines unangemessenen Zeitraums zu erwarten. Werden die Bemühungen unterschätzt, die bei der Abstimmung mehrerer Teams und gleichzeitiger Revision bestehender Arbeitsabläufe notwendig sind, werden die Teams gewöhnlich Lösungen ohne passendes Verständnis für die wahren Bedürfnisse vorschlagen. Daraus ergibt sich eine unbrauchbare Lösung, die von den Endnutzern nicht übernommen wird. Eine vollständige Analyselösung für Testdaten beinhaltet kleinere, stufenweise Schritte und gewinnt im Verlauf an Dynamik für Endnutzer, IT-Experten, Unternehmensleiter usw. In ihrem Bereich führende Unternehmen setzen häufig ein internes Pilotprojekt in einer einzelnen Abteilung um, bevor die Anforderungen an die Datenanalyse dokumentiert werden. Dieses Pilotprojekt beinhaltet das Integrieren eines Datenspeichermechanismus speziell für Testdaten in bestehende IT-Infrastruktur, das Testen mehrerer Analysesoftwarepakete und das Definieren eines durchgängigen Analyseprozesses. So können wichtige Akteure den Fluss der erfassten Daten verstehen und Engpässe identifizieren. Die IT-Abteilung hat so zudem Zeit, die Unterschiede zwischen klassischen Big Data und Testdaten herauszufinden und Strategien zum Einsatz der verschiedenen Werkzeuge für die erfolgreiche Umsetzung von Testdatenlösungen festzulegen. Das Beseitigen von Engpässen schlägt sich in Gewinn, Qualität und Marktreife nieder und verhindert das Veröffentlichen inadäquater Produkte, da mehr Fehler und Testergebnisse außerhalb der Spezifikation erkannt werden. Diese Vorteile werden den Gesamtgewinn des Unternehmens steigern.

Empfehlungen der Redaktion

Auf Erweiterung ausgelegt

Unternehmen sollten den Gesamtzusammenhang vor Augen haben, wenn sie Pilotprogramme zur Testautomatisierung starten. Lösungen, die für bestimmte Gruppen erstellt wurden, lassen sich nicht skalieren, wenn Analyselösungen für Testdaten in anderen Abteilungen eingeführt werden. Unternehmen können ihren Engineering- und Designteams Wochenberichte zukommen lassen, um wichtige Trends zur Vermeidung von Ausfällen zu identifizieren. Das kann als Starthilfe bei einem Umgestaltungsprozess dienen, der alle möglichen Szenarien berücksichtigt. Indem Unternehmen beim Design einer Lösungsarchitektur einer langfristigen Vision den Vorrang geben, können sie konkrete Ziele für die Erweiterung festlegen und die IT-Abteilung kann entsprechend planen und mehr Server einsetzen, wenn die Lösung in mehreren Abteilungen implementiert wird. Das Implementieren einer Testdatenlösung kann für ein Unternehmen einen enormen Mehrwert erzeugen, da die Belegschaft produktiver arbeiten kann, Ausgaben gesenkt werden und der Gewinn gesteigert wird. Die Firmen, die den Wechsel zu einer datenzentrierten Organisation vollziehen, werden zu Marktführern mit Zugriff auf bis zu 95% mehr Daten als ihre Mitbewerber. Dadurch können sie 20% kosteneffizienter werden. Eine enge Zusammenarbeit zwischen IT- und Engineering-Abteilung, durch welche die mit den Testdaten verbundenen Herausforderungen bewältigt wird, ist nicht nur zur Gewinnung der Analysedaten, sondern auch der Erkenntnisse entscheidend, die sich hinter großen Testdatensätzen verbergen.

Anzeige