Die fortschreitende Digitalisierung führt in modernen Unternehmen zu einer Flut neuer Datenquellen und damit einhergehend steigenden Anforderungen an flexible Verarbeitungs- und Analysesysteme. Unterschiedlichste Quellen und Strukturen, steigende Mengen und hohe Anforderungen an die Verarbeitungsgeschwindigkeit von Daten sind neben umfangreichen Analysemöglichkeiten Herausforderungen an heutige Werkzeuge und Systeme. Diese Herausforderungen machen es schier unmöglich, dass moderne Architekturen auf einer einzelnen Technologie basieren.
SAP HANA ist viel mehr als nur eine In-Memory Datenbank. Diese Plattform bietet neben analytischen Systemen (BW on HANA) auch operative Umgebungen (S/4HANA). Damit bietet sich die Gelegenheit zum Technologiesprung und die Möglichkeit Transaktion und Analytik miteinander optimal in Echtzeit zu verzahnen. Geschäftsprozesse können darüber hinaus um Planungs- und Predictive-Aspekte direkt am Ort des Geschehens (Touchpoint) erweitert werden. Während sich die Frontends durch eine benutzerfreundliche Bedienung (Fiori) auszeichnen und das Backend vereinfachte (virtuelle) Datenmodelle ermöglicht, bietet unter anderem die Integration mit Hadoop interessante kaufmännische Möglichkeiten.
Das Apache Hadoop Framework hat sich dank der parallelen, verteilten und ausfallsicheren Architektur zu einer kostengünstigen und effizienten Big Data-Plattform zur Speicherung und Verarbeitung auf dem Markt etabliert. Das Ökosystem um den Hadoop Kern ermöglicht unterschiedlichste Szenarien zur Integration, Speicherung, Aufbereitung, Verarbeitung und Analyse von Daten unabhängig von Struktur und Größe in effizienter Weise. Dank der Unabhängigkeit von Format und Struktur lassen sich innerhalb des Hadoop Systems unzählige Szenarien zur Datenverarbeitung umsetzen. Die Ergebnisse lassen sich wiederum durch Konnektoren und Schnittstellen innerhalb anderer Systeme nutzen. So lassen sich teure oder langsame Systeme durch das Hadoop System entlasten und die Ressourcen optimal nutzen. Durch die Fähigkeit von Hadoop In-Memory-Verarbeitungen durchzuführen (bspw. durch das Apache Spark Framework) ist Hadoop in der Lage auch sehr große Datenmengen in nur kurzer Zeit verarbeiten und bereitstellen zu können. Dieser Vorteil lässt sich auch durch die SAP HANA Integration zu Nutze machen.
Durch die Integration der Technologien SAP HANA und Hadoop lassen sich zwei Technologien verbinden und so gemeinsam die Stärken nutzen: Das Big Data-Framework Hadoop als kostengünstiges, unbegrenzt skalierbares Speicher- und Verarbeitungssystem für unterschiedlichste Daten unabhängig von Struktur und Größe und SAP HANA als In-Memory-Datenbank bzw. -Plattform für analytische und operative Aufgaben. So kann beispielsweise im Zusammenspiel Hadoop kostengünstig, unterschiedlichste strukturierte und unstrukturierte Daten sammeln, speichern, verarbeiten und aufbereitet für SAP HANA bereitstellen oder als Archiv (Cold Store) im Rahmen des SAP Data-Lifecycle-Managements (DLM) dienen.
Ermöglicht wird die Integration neben Standard-Konnektoren wie ODBC/JDBC vor allem über SAP VORA. Dieses Projekt von SAP bildet die Brücke zu Hadoop indem es eine auf Spark basierende In-Memory-Engine bereitstellt, welche es ermöglicht Daten aus SAP HANA und Hadoop gemeinsam analysieren und verarbeiten zu können. Hierbei erlaubt VORA den bidirektionalen, lesenden sowie schreibenden Austausch zwischen SAP HANA und Hadoop.
Unsere Erfahrungen aus zahlreichen Projekten stellen die optimale Basis für die Entwicklung Ihrer BI-Strategie, -Vision und –Sensibilisierung dar. Wir unterstützen Sie ganzheitlich vom Architekturdesign und Integrationskonzept über Workshops (Standortbestimmung, Review, Prototypisierung, …) bis zur Implementierung und Umsetzung der Konzepte.
Weitere Details zu unserem Dienstleistungsportfolio im Bereich SAP HANA und Hadoop finden Sie im Abschnitt "weiterführende Informationen".