Die
Datenmenge wird immer komplexer, die Anzahl der Tools, die darauf zugreifen, immer umfangreicher. Um die vorhandenen Daten in SAP sinnvoll verarbeiten zu können, müssen die verschiedenen
Datenströme zunächst angebunden, aufbereitet und an die folgenden Systeme verteilt werden. Für diese Orchestrierung empfiehlt das Beratungsunternehmen Caleo das Tool
Data Intelligence.
Unternehmen setzen immer mehr
Softwarelösungen ein, um ihre Prozesse zu optimieren und zu digitalisieren. Für die verschiedenen Unternehmensbereiche gibt es inzwischen eine Vielzahl spezieller Tools – sei es für die
Personalverwaltung und
Zeiterfassung, für die
Finanzplanung und das
Berichtswesen oder für den Vertrieb und das
Kundenmanagement. Neben einer gesteigerten Anzahl an Systemen stehen auch immer mehr Datenquellen zur Verfügung, die zwar umfassendere und genauere Analysen ermöglichen, die Komplexität der Datenerfassung und -verarbeitung aber erhöhen. Die Daten den entsprechenden Tools bereitzustellen, wird deshalb eine immer größere Herausforderung. Verkaufsdaten, Finanzdaten oder Zeiterfassungsdaten müssen dorthin geleitet werden, wo sie gebraucht werden. Damit die jeweiligen Tools die
Daten aber verarbeiten können, müssen sie zunächst
geordnet und ein Stück weit
aufbereitet – sprich orchestriert – werden.
Manuell ist dies nur bei sehr kleinen Datensätzen möglich. Mit Data Intelligence bietet SAP jedoch einen Werkzeugkasten, um die
Kontrolle über große Datensätze und ihre Wege zu behalten. Das Tool ist modular aufgebaut und enthält einfache Möglichkeiten zum Machine Learning und verschiedene Applikationen, mit denen sich das System verwalten und nutzen lässt:
- Der Connection Manager zum Beispiel gibt einen guten Überblick über alle Verbindungen zu den weitergehenden Tools, seien es Datenbanken wie ein Business Warehouse, Online-Speicher wie ein S3 Bucket, bestimme Programmierschnittstellen (APIs) oder E-Commerce-Plattformen wie Amazon.
- Der Metadata Explorer geht sämtliche Verbindungen durch und prüft, welche Arten von Daten in den jeweiligen Quellen vorhanden sind. Welche Formate sind zum Beispiel in den einzelnen Excel-Files vorhanden, wie sind die Spalten definiert? Die Datenquellen lassen sich zudem mit Metadaten anreichern – wie Datentypen oder Spaltenbezeichnungen – und so für eine Datenexploration, dem ersten Schritt zur Datenanalyse, freigeben.
- Der Modeler ist die zentrale Komponente für die Datenstrom-Orchestrierung: Hier kommen die verschiedenen Datensätze zusammen und werden strukturiert. Mit dem Modeler lassen sich die unterschiedlichen Connections definieren und die Daten, die durch die sogenannten Pipelines laufen, ordnen. Hierfür liefert die App vorgefertigte Operatoren, es lassen sich aber auch eigene Logiken in einer frei wählbaren Programmiersprache erstellen.
Mit Data Intelligence lässt sich die Orchestrierung der Datenströme auch – wenn gewünscht – automatisieren. So kann zum Beispiel definiert werden, dass das System täglich zu einer bestimmten Uhrzeit Datensätze abruft und wiederum zu festgelegten Zeiten an bestimmte Nachfolgesysteme liefert. Endanwender können das System aber auch manuell starten. Anhand eines beispielhaften Use Cases aus dem Bereich Sales lassen sich das Potenzial und die Notwendigkeit von Data Intelligence veranschaulichen.
Beispiel: Plant ein Unternehmen zum Beispiel eine neue Filiale, lassen sich für die vorherige Standortanalyse zahlreiche Online-Daten nutzen. Von Google beispielsweise lassen sich Daten zu der möglichen Nachbarschaft ziehen, ebenso zum Durchlaufverkehr und auch zu Bewertungen bereits vorhandener Geschäfte: Was gibt es bereits in der Gegend, welche Ratings haben die Läden und die Umgebung, wie gut ist der Standort erreichbar? Zusätzlich können für die Analyse spezialisierte Research-Daten hinzugezogen werden, die eine noch präzisere Beurteilung erlauben.
Diese Google- und Research-Daten können jedoch nicht ohne Weiteres von Analyse-Tools genutzt werden, weil sie in unterschiedlichen Formaten vorliegen. Die Datenfülle manuell zu bereinigen wäre ein viel zu hoher Aufwand. Mit Data Intelligence aber können die Datenströme zusammengebracht, geordnet und an die Analyse-Tools weitergeliefert werden.
Für die Lösung gibt es sowohl eine Lizenz für die Nutzung
On Premise als auch eine für die
Cloud. Das Tool On Premise zu verwenden ist jedoch weniger ratsam, weil SAP den Fokus mehr auf die Cloud Version legt. Auch braucht der komplexe Unterbau des Tools (Kubernetes Cluster) einen recht hohen Wartungsaufwand und Expertise. Mit der Cloud-Lizenz hingegen wird das System als eine SaaS-Lösung (Software as a Service) bereitgestellt und ist Teil der Business Technology Plattform. Innerhalb weniger Tage erhalten die Nutzer ein laufendes System.
Erstellt von (Name) W.V.R. am 23.01.2023
Geändert: 24.01.2023 11:47:58
Autor:
Dr. Marco Schramm, CALEO Consulting GmbH
Bild:
panthermedia.net / everythingposs
|