Advanced Analytics

Ob Algorithmen oder statistische Methoden, ob Natural Language Processing oder neuronale Netze: Keiner dieser Begriffe erfasst die Advanced Analytics vollständig. Klar ist: Advanced Analytics geht über die klassische Business Intelligence (BI) weit hinaus, denn sie ist in der Lage, mit unzähligen Einflussfaktoren komplexere Zusammenhänge zu identifizieren und daraus Erkenntnisse und Prognosen abzuleiten.

Drucken

Egal ob im Einkauf, der Logistik, der Kundeninteraktion oder der Produktion: In allen Bereichen, in denen große Mengen an Daten anfallen, entsteht unüberschaubare Komplexität für den Analysten. Hier ist die algorithmische Unterstützung bei der Datenanalyse essenziell, um Kosten zu sparen, Prozesse zu verbessern, die Kundentreue zu stärken oder Maschinenauslastung in der Fertigung zu optimieren. Anders als in der klassischen Business Intelligence (BI), in der es darum geht, mithilfe einfacher Verfahren wie der Aggregation von Daten und dem deterministischen Aufbau von Kennzahlen neue Erkenntnisse zu gewinnen, gehen neue Verfahren aus dem Bereich der künstlichen Intelligenz von maschinelles Lernen, neuronalen Netzen, Deep-Learning bis hin zu Natural Language Processing und Computer Vision noch einen Schritt weiter. Diese unter dem Überbegriff Advanced Analytics zusammengefassten Bereiche stehen für den Einsatz von fortschrittlichen Verfahren für die Nutzung von Daten. Komplexe Algorithmen, selbstlernende Modelle, Klassifizierungs- und Clusterverfahren sowie erweiterte statistische Methoden sind heute die Grundlage dafür, dass Erkenntnisse und zielgenaue Vorhersagen auf Basis von beliebig vielen Einflussfaktoren gewonnen oder generiert werden können. Nicht der „BI-Stack“ dominiert heute die Analyse von Daten, sondern der Programmierer, der auf Basis verteilter Architekturen wie Hadoop oder Kubernetes-Clustern mit Programmiersprachen wie Python Datenschnittstellen und -pipelines baut und per Cloud-Plattform Analysen ermöglicht.

Was macht Advanced Analytics aus?

  • Data Science, Machine Learning, Data Mining und Predictive Analytics greifen ineinander, um strukturierte und unstrukturierte Daten zu verarbeiten und daraus Trends, Muster, Zusammenhänge, Leistungen oder Anomalien abzuleiten. 
  • Historische Daten bieten die Grundlage für Umsatzvorhersagen, Kundenklassifizierungen, Produktempfehlungen, Qualitäts- oder Wettbewerbsanalysen und dienen als Fundament für Unternehmensentscheidungen. 
  • Mithilfe von Data-Engineering-Werkzeugen entsteht eine technische Infrastruktur für die Datenwertschöpfungskette. 

Wo kommt Advanced Analytics zum Einsatz?

Überall, wo Daten entstehen und in ausreichender Qualität und Menge zur Verfügung stehen, ist Advanced Analytics möglich. Ein Filialleiter möchte wissen, wie viel er voraussichtlich in den nächsten Tagen und Wochen verkaufen wird. Mit Absatzprognosen können z.B. seine Bestellung besser geplant, Abläufe optimiert und Personal besser eingesetzt werden. Der Betreiber eines Webshops möchte wissen, welcher Kunde kurz davorsteht, künftig beim Wettbewerber einzukaufen. Kauft er schon mehrere Wochen nicht mehr ein oder bricht er immer wieder den Kaufprozess ab, ist das der richtige Zeitpunkt, ihm einen Newsletter mit rabattierten Produkten zu schicken. Fertiger, die ihre Maschinen geleast haben und nach Auslastung bezahlen, möchten angesichts der zukünftigen Auftragslage die größtmögliche Effizienz erreichen – bei möglichst geringen Investitionen für den Einsatz von Maschinen und Personal. 

Was muss der Kunde tun, der Advanced Analytics für sich nutzen möchte?

Verstehen, was Advanced Analytics ist (Orientation), Ideen und Use-Cases entwickeln, wie Analysen dem Unternehmen helfen können (Ideation), einen Prototyp bauen (Lab) und in die Praxis überführen (Industrialization) sowie die Sicherstellung der dauerhaften Funktionsfähigkeit und Modellgüte (Operation): Das sind wesentliche Schritte eines strukturierten Vorgehens, das INFOMOTION für den Einsatz von Advanced Analytics im Unternehmen entwickelt hat.

Besondere Herausforderungen in diesem Prozess liegen darin, die richtigen Ideen zu fördern und nur geeignete Prototypen in den Prozess der Industrialisierung zu überführen. Das gelang bisher aufgrund fehlender Einführungsstandards und eines unübersichtlichen Marktes eher selten, wie eine Studie von Marktforscher Gartner ergab. Demnach schafften es nur 15 Prozent der Data-Science-Projekte in den Unternehmensalltag. Das strukturierte Vorgehen setzt deshalb von der Idee bis zum Betrieb auf eine ganzheitliche Planung, die unter anderem Machbarkeitstests und Qualitätstests von Prototypen in den Prozess integriert. Nur wenn sie bestanden sind, folgt der letzte und größte Schritt – die Implementierung des Prototyps im Unternehmen.

Wichtig zudem: Die ganzheitliche Planung setzt voraus, dass das nötige Know-how mit an Bord ist – zum einen über Technologien sowie Methodiken. Die gängigen Programmiersprachen, Tools und Plattformen von Python mit seinem umfangreichen Ökosystem bis zu Cloud-Plattformen von Google, Amazon und Microsoft auf der einen, sowie Methodiken für Projektmanagement und Statistik von DevOps, über Test Driven Development bis zu Data Engineering auf der anderen Seite werden eingesetzt – und sie ergänzen sich oft gegenseitig. Nur so kann garantiert werden, dass Schwächen des Prototyps rechtzeitig entdeckt und im Fall der Fälle innerhalb von zwei Tagen von einer Cloud-Plattform auf eine andere gewechselt werden kann.

Ihr Ansprechpartner

Tobias Peuker

Business Unit Manager

T +49 69 56608-3000

E-Mail senden