Daten sauber halten

Pressemeldung über: Human Inference GmbH   veröffentlicht am 18 September 2008  
 
0.0 (0)
Bewertung schreiben
0
Inhalt weiterempfehlen / teilen:

Human InferenceKundendaten, angefangen bei der Adresse über Bankdaten bis hin zum Kaufverhalten, sind in jedem Unternehmen vorhanden. Die Wichtigkeit diese Daten wird jedoch oft unterschätzt. Unsaubere oder ungenaue Daten können zu Missverständnissen, Kundenverlust und damit auch zu Gewinneinbussen führen. Unternehmen sollten sich deshalb mit der Erstellung und Pflege einer Data Governance vertraut machen.

Den Kundendaten wohnt heute ein erheblicher Wert inne - sie sind der Rohstoff der Wertschöpfung im 21. Jahrhundert. Und deswegen kann mangelhafte Datenqualität auch schnell fatale Folgen haben. Beispielsweise im Vertrieb, wo fehlerhafte Informationen zu unzufriedenen Kunden, exzessiven Portogebühren und Umsatzausfällen führen. Doch Datenverschmutzung verursacht auch teure Fehlbestände im Lager, bringt IT-Projekte zum Scheitern, erschwert die Einhaltung von Compliance-Vorgaben und kann so sogar dazu führen, dass die Unternehmensbilanz verfälscht wird. "Letzteres ist tatsächlich fatal, denn derartige Fehler können mit empfindlichen Geldbußen und sogar Gefängnisaufenthalten geahndet werden", warnt Andreas Bitterer vom Beratungsunternehmen Gartner.

Welchen finanziellen Schaden unsaubere Daten anrichten können, zeigen unter anderem Zahlen des Data Warehouse Institute. Die Experten dort beziffern den Schaden, der durch unsaubere Daten entsteht, allein für die US-Wirtschaft auf über 600 Milliarden Dollar jährlich. Eine andere aktuelle Studie spricht davon, dass allein den deutschen Banken durch schlechte Datenqualität jedes Jahr Kosten in Höhe von 8 bis 25 Prozent des Unternehmensumsatzes anfallen.

Mit wachsendem Datenvolumen wird es für Unternehmen jedoch zunehmend schwerer, den Wert ihrer wichtigsten Ressourcen zu bewerten und die Risiken im Zusammenhang mit Datenverlusten zu kalkulieren. Infolgedessen schützen viele Unternehmen alle Informationen gleichermaßen. So kommt es zum Beispiel vor, dass eine Bank Daten von geringer Qualität aufwändig schützt, während hochwertige Daten, wie Details über Kundenkonten oder vertrauliche Mitarbeiterinformationen, nicht hinreichend sicher sind.

Daten als Betriebsvermögen steuern

Hier setzt die Data Governance an. Es handelt sich dabei um eine Disziplin der Qualitätskontrolle, die der Bewertung, dem Management, der Verwendung, Verbesserung, Überwachung, Pflege und dem Schutz unternehmensinterner Informationen dient. In einfachen Worten besteht Data Governance darin, Daten als Betriebsvermögen zu steuern und das operative Risiko im Umgang mit ihnen zu kontrollieren.

Ihr Ziel ist es, Unternehmensinformationen zu schützen, Compliance-Auflagen zu erfüllen und an einer besseren Datenqualität zu arbeiten, um Kunden zu binden und neue Geschäftsmöglichkeiten zu fördern. Eine wirksame Data Governance verbessert zudem Qualität, Verfügbarkeit und Integrität der Daten im Unternehmen und bietet Prozesse, mit deren Hilfe sich kritische Daten besser steuern lassen.

Aber auch personelle Verantwortlichkeiten spielen eine große Rolle. In den USA hat man deshalb bereits in etlichen Unternehmen die Funktion des "Data Steward" eingeführt, der für die Konsistenz von Datenverzeichnissen sorgen soll. Voraussetzung für seinen Erfolg ist allerdings, dass die Unternehmen die gesammelten Daten als Wettbewerbsfaktor und nicht als notwendiges Übel ansehen sowie klare Ziele für eine Verbesserung von Datenqualität definieren.

Softwarelösungen sichern Datenqualität

Unterstützt werden sie dabei von Softwarelösungen, die eine ganzheitliche Betrachtungsweise ermöglichen und die einzelne Teilprozesse wie beispielsweise das Data Profiling, das Data Cleansing und das Monitoring miteinander verknüpfen. Das Data Profiling gibt dabei nicht nur Aufschluss darüber, welche Datentypen in einer Kundendatenbank vorhanden sind, sondern lässt auch erkennen, wie valide und gebräuchlich diese Daten sind.

Beim Data Cleansing dagegen werden die erkannten Probleme durch Anwendung verschiedener Algorithmen direkt behoben. Um dem ganzheitlichen Ansatz zur Qualitätssteigerung Rechnung zu tragen, bedarf es schließlich einer kontinuierlichen Überprüfung der Konsistenz, Korrektheit und Zuverlässigkeit der Informationen. Neue Daten werden deshalb im Teilprozess "Monitoring" vor der Speicherung in den operativen und analytischen Systemen überprüft, und in bestimmten Zeitabständen findet eine Prüfung der gesamten Kundendaten statt.

Da die manuelle Bereinigung großer Datenmengen aber nicht besonders effizient ist, kommen in vielen Fällen darüber hinaus noch so genannte Data Cleansing-Werkzeuge zum Einsatz. Mit ihrer Hilfe kann auch der Prozess der Datenintegration teilweise automatisiert werden. Bei der Zusammenführung gleicher Datenbestände aus unterschiedlichen Datenquellen müssen diese Datensätze zunächst identifiziert werden. Dann ist zu entscheiden, welche Bestandteile der Dubletten in den bereinigten Datenbestand übernommen werden sollen.

Etablierung einer Data Governance

"Immer mehr Unternehmen und Organisationen erkennen den Stellenwert von Daten- und Informationsqualität als entscheidenden Wettbewerbsvorteil", erklärt Prof. Dr. Robert Winter vom Institut für Wirtschaftsinformatik der Universität St. Gallen, wo Informationslogistik und Datenqualitätsmanagement seit vielen Jahren Teil des Forschungsprogramms sind. Gemeinsam mit dem niederländischen Softwarespezialisten Human Inference bietet das Institut zudem eine "Masterclass Data Quality" an, in der der richtige Umgang mit den Daten erlernt werden soll.

Denn die Etablierung einer Data Governance ist alles andere als einfach. Denn nur eine nahtlose Integration in die bestehenden Unternehmensprozesse führt zu einem besseren Verständnis der Kunden und ihrer Wünsche, zu fundierten Entscheidungen und optimierten Betriebsabläufen. In der Praxis zeigt sich fehlende Datenqualität u.a. bei falsch geleiteten Postsendungen, Produktion falscher Produkte, Mehrfachauslieferungen oder - am Ende der Informationskette - in falschen Kennzahlen im Berichtswesen.

"Mitverantwortlich für solche Pannen ist aber nicht nur eine schlechte Data Governance, sondern auch die Tatsache, dass Menschen in verschiedenen Ländern auch unterschiedlich über Informationen denken", betont Holger Wandt, Linguist und Principal Advisor bei Human Inference. "Egal wie gut die eingerichteten Prozesse sind, sie können nicht verhindern, dass Menschen dieselben Informationen unterschiedlich deuten." Darauf müsse sich jedes Unternehmen und jede Organisation einstellen. Ein Beispiel für diese These: Unter "08.15" würde der deutsche Mitarbeiter eines Unternehmens eine Uhrzeit verstehen, nämlich "viertel nach acht am Morgen". Der amerikanische Kollege in New York dagegen liest eine solche Zeitangabe ohne nähere Erläuterungen vermutlich als Datum, nämlich als "15. August".

Verschiedene Dimensionen der Informationsqualität

Um zu verhindern das Geschäftsmöglichkeiten verpasst werden, müssen solche Interpretationsunterschiede deswegen in die Business-Prozesse eines Unternehmens integriert werden. Allerdings sind auch hier verschiedene Dimensionen unterscheiden:
- Die "intrinsische Informationsqualität" wird unter anderem von der Akkuratesse, der Objektivität und der Glaubwürdigkeit der Daten bestimmt

- Die "kontextuelle Informationsqualität" bezieht sich auf Werte wie Vollständigkeit und Relevanz

- Die "repräsentative Informationsqualität" beschreibt das Maß der Verständlichkeit und Interpretierbarkeit der Daten

- Die letzte Dimension bezieht sich auf die Zugänglichkeit und Anwendbarkeit von Daten und auf die Datensicherung.

Diese Dimensionen sollten komplett bei der Entwicklung einer Data Governance für ein Unternehmen beachtet werden. Natürlich spielt die Informationstechnologie dabei eine wichtige Rolle. Doch auch wenn die IT helfen kann, die Datenqualität im Unternehmen zu verbessern, erfordert Data Governance weit mehr: "Wichtig ist es, dass unternehmensweit Strukturen und Abläufe geschaffen werden, die einen einheitlichen und sorgfältigen Umgang mit den Daten festlegen", sagt Holger Wandt.

Denn was nützt es, wenn bereits bei der Eingabe neuer Kundenkontakte wichtige Details fehlen oder verschiedene Bereiche mit unterschiedlichen Daten hantieren? "Nur auf der Basis von validen und qualitätsgesicherten Informationen lassen sich die richtigen betriebswirtschaftlichen Entscheidungen treffen", ist er überzeugt. Und: "Eine Vernachlässigung der qualitätssichernden Prozesse bei Datenhaltung und Datenintegration kostet letztlich mehr als ein systematisches Datenqualitätsmanagement."

Name des Experten / Autors:
Yvonne Giebels
IT-Thema des Eintrags?
Big Data
Inhalt weiterempfehlen / teilen:

Benutzerkommentare

In dieser Liste gibt es noch keine Bewertungen.
Haben Sie schon ein Konto?
Bewertung (je höher desto besser)
Bewerten Sie den Artikel:
Fachartikel
Für die Bewertung des Fachartikels, wie ist Ihr Status zum Thema oder wie schätzen Sie sich ein?
Kommentare