Karsten Schweichhart

T-Systems International

Kontaktdaten

Software

Im Datenmeer fischen

Das digitale Universum wird in zwei Jahren etwa ein Drittel ungenutzter Informationen enthalten. Für Unternehmen können sich durch Analysen des nicht gehobenen Schatzes bedeutende Mehrwerte ergeben, prognostiziert das Marktforschungsunternehmen International Data Corporation (IDC). Der Telekom Data Intelligence Hub bietet sich an, im Meer der Daten zu fischen, um Prozesse besser zu begleiten und neue Geschäftsmodelle zu realisieren.

Es geht praktisch immer darum, Wettbewerbsvorteile zu realisieren, Kosten zu reduzieren und Abläufe zu optimieren – ganz egal, in welchem Markt. Unternehmen haben mit der Möglichkeit, Daten zu analysieren, zu deuten und in ihre Prozessketten zu integrieren, einen immensen Wachstumshebel in der Hand. Allerdings stehen viele Unternehmen vor der Frage: Wie komme ich an die Daten und wie nutze ich sie anschließend sinnvoll, um zusätzlich (Unternehmens-)Werte zu schaffen?

Da sind zum einen die internen, oft jedoch nur partiell vorliegenden Daten. Dann ist da die Flut von unterschiedlichen externen Datenfragmenten aus vielzähligen Quellen: freie Daten, Daten aus abgeschlossenen Plattformen, Daten von Dienstleistern und anderen angeschlossenen Unternehmen.

Relevante Daten können sich auch hinter verschiedenen Mustern wie in der Social-Media-Nutzung oder hinter der Korrelation von medizinischen Informationen mit soziologischen Daten verbergen. Sicher ist damit eins: Aus vielen dieser Datentöpfe wird heutzutage von einem Großteil der Unternehmen noch nicht geschöpft.

Ordnung in den Datenfundus bringen

Die Gründe dafür sind vielschichtig – oder mitunter schlichtweg profan. Einerseits, weil die Zusammenhänge und die Bedeutung für die eigene Nutzung oder auch das Vorhandensein solcher Informationen gar nicht bekannt sind. Andererseits stehen Unternehmen vor dem Problem, dass enorme Massen der Daten völlig unstrukturiert sind. Dann liegt die Herausforderung vor allem darin, die neuen Daten in den eigenen Bestand zu integrieren und miteinander zu verknüpfen, sodass sie die gleiche IT-Sprache sprechen.

Der Data Intelligence Hub erfüllt in Form eines Marktplatzes eine Schnittstellenfunktion, die bisher im Bereich des Datenmanagements fehlt. Er bietet die zentrale Steuerung und ganzheitliche Marktübersicht über die Daten, die frei zur Verfügung stehen oder zum Kauf angeboten werden.

Zugleich bietet er die Möglichkeit, sich zu vernetzen: Unternehmen, die wenig interne Ressourcen oder fachliche Expertise auf dem Gebiet von künstlicher Intelligenz als Voraussetzung fundierter Datenanalyse besitzen, können sich mit Spezialisten vernetzen. Das gibt ihnen die Möglichkeit, Prozesse mit am Markt verfügbaren Daten zu optimieren und durch die Zusammenführung selbst kleiner, weit versprengter Datenpartikel Produktionsverzögerungen, unnötige Kosten durch Wartezeiten oder überflüssige Lagerhaltung zu vermeiden.

Treuhänder für die Daten

Dabei fungiert der Data Intelligence Hub als neutraler, an höchste Sicherheitsstandards gebundener Datentreuhänder, der alle Daten schützt und nur den jeweiligen Rechten entsprechend zwischen den Partnern austauscht. Damit ermöglicht er Übersicht, Transparenz und Steuerung eines dezentralen Austauschs, ohne dass im Transferprozess eine Datenspeicherung vorgenommen werden muss. Beispiel Logistik: In der Regel liegen in jeder Fracht- beziehungsweise Transportkette partiell Daten vor. Somit können Liefertermine ungefähr vorausgesagt werden. Jedoch erwarten Kunden, ob privater Besteller bei Amazon oder Frachtempfänger eines Bahnbetreibers, Pünktlichkeit, Präzision und Zuverlässigkeit.

Zwar ist mit Blick auf die Auslieferung bekannt, wo ein Paket wann verladen wurde und wo auf seinem Transport es sich aktuell ungefähr befinden müsste. Nicht bekannt ist, ob, wann, warum und an welcher Stelle sich eine Lieferung verzögert, da solche Daten in der Prozesskette fehlen. Genau diese Informationen jedoch würden es ermöglichen, in Echtzeit direkt gegenzusteuern, Wartezeiten und Lagerkosten zu reduzieren und für produzierende Unternehmen eine verlässliche Planung sicherzustellen.

Tatsächlich liegen diese Daten in verschiedenen Daten-Pools und nur fragmentiert vor. Mit dem Hub wird es möglich, diese fehlenden Daten zu beziehen, zu analysieren und auf einer einheitlichen Basis mit den eigenen Daten zu fusionieren – um Wissenslücken zu schließen und jederzeit ein Eingreifen beziehungsweise Reagieren zu ermöglichen. Der Hub wurde entwickelt, um die Komplexität einzelner Prozessketten zu reduzieren, einen Know-how-Transfer herbeizuführen und ein sicheres, zentrales und einheitliches Portal für die Optimierung datengetriebener Wertschöpfungsketten bereitzustellen.

Sicherheit für die Daten

Der Data Intelligence Hub erfüllt die von der International Data Spaces Association erarbeiteten Grundsätze und Sicherheitsstandards. Von Vorteil für Unternehmen ist, dass für jede Datenaustauschschnittstelle die rechtlichen Rahmenbedingungen auf einfache Art genau definiert werden können.

Damit ist rechtssicher festgelegt und dokumentiert: Wer darf was mit welchen Daten in welchem Zeitraum machen? Datensouveränität wird nicht nur technisch korrekt und für alle transparent umgesetzt, sondern auch rechtlich für alle Prozessbeteiligten abgesichert.

Ein Aspekt, der für Unternehmen wie Setlog essenzielle Bedeutung hat. Das 2001 in Bochum gegründete Softwarehaus mit Tochterunternehmen in den USA bietet cloudbasierende Supply- Chain- und Vendor-Management-Systeme an, mit denen globale Produktions-, Liefer- und Logistikketten geplant, gesteuert und optimiert werden. Das geschieht über Frühwarn-, Dialog-, Analyse- und Datenmanagementinstrumente.

Den Hub nutzt Setlog als Plattform für die Fusion und Analyse von Daten, mit denen das Unternehmen aktuell ein Supply-Chain-Navigationssystem für Transportketten weltweit auf den Weg bringt. Auf Basis eines umfangreichen Datensharings werden die anonymisierten Frachtdaten des Softwarehauses mit öffentlichen Daten zusammengeführt. Ziel ist es, mithilfe von dynamischen Simulationsmodellen internationale Supply Chains über alle Verkehrsträger transparent und planungssicher zu machen.

Das Teilen und die Analyse von Frachtdaten nehmen teure Puffer und Unwägbarkeiten aus dem Spiel. Komplexe Lieferketten lassen sich in Zukunft sicher und transparent für alle Partner planen.

Kontakt

Dr. Karsten Schweichhart

Business Analytics Consultant
T-Systems International
Bonn
Tel. 0228 - 181-0
www.iot.telekom.com/kontakt/

www.telekom.com