Was Ops mit Musik zu tun haben

18.11.21

Data Management

Verfügbarkeit ist in der Zeit von Online-Diensten, digitalen Geschäftsmodellen und Streaming ein wichtiger Faktor. Kommt es bei einem solchen Streaming-Anbieter zu Ausfällen, muss die Verfügbarkeit der Dienste schnellstens wiederhergestellt werden, um finanzielle Einbußen zu vermeiden. Doch wie gelingt das dem jeweiligen Anbieter in kürzester Zeit?

Drucken

DIE LÖSUNG: EFFEKTIVITÄT IM UMGANG MIT DATEN

Hinter den gewaltigen Streaming-Angeboten verbirgt sich ein hoher Automatisierungsgrad. Modernste Methoden machen es möglich, Prozesse ständig weiterzuentwickeln, Fehler schnell zu identifizieren und zügig zu beheben.

Die entscheidende Frage, nicht nur für dieses Beispiel, ist, wie effektiv ein Unternehmen mit Daten umgeht. Wie schnell sind Daten zu erreichen? Wie lassen sich steigende Datenmengen bewältigen und nutzen? Wie schnell kann ein Team daraus Einsichten ableiten? Die Value-of-Data Studie hat 2019 gezeigt, dass schlechtes Datenmanagement die Effizienz der Arbeit um etwa 18 Prozent mindert, weil Mitarbeitende beinahe zwei Stunden pro Tag damit zubringen, nach Daten zu suchen. Anders gesagt: Die Effektivität im Umgang mit Daten entscheidet heute über Produktivität und Rentabilität von Unternehmen.

Ob es um Softwareentwicklung geht, um Datenanalysen oder um Machine Learning-Modelle – Projekte verfolgen das Ziel, Mehrwert aus Daten zu generieren. Und das möglichst schnell. Dafür hat in der IT das klassische Wasserfall-Modell längst ausgedient. An seine Stelle sind Lean Manufacturing oder Prinzipien wie agiles Arbeiten getreten. Und seitdem Tools zur Automatisierung von Prozessen wie Testing oder Integration von Code in eine bestimmte Codebasis entwickelt wurden, folgen IT-Projekte Vorgehensweisen wie Continuous Integration (CI) oder Continuous Development (CD).  Daraus wiederum hat sich eine Vielzahl sogenannter Ops entwickelt, etwa DevOps, DataOps oder auch MLOps.

WAS SIND OPS?

Ganz grundsätzlich bezeichnen Ops in der Datenverarbeitung Methoden, die Entwicklungszyklen verkürzen und so schneller verwertbare Resultate generieren. Die verschiedenen Ops folgen gleichen Prinzipien, sind teilweise auseinander entstanden und sind jeweils angepasst an unterschiedliche Technologien sowie an spezifische Anforderungen von Fachbereichen.

Gemeinsam ist diesen Methoden, dass sie das Ziel verfolgen, Entwicklung und Anwendung eng zu verzahnen. Das deutet sich bereits in dem Kunstwort DevOps an, das aus Development und Operations zusammengesetzt ist. Entscheidender Punkt dabei ist, integrierte Teams zu bilden, also Entwickler und Anwender an einen Tisch zu bringen. Bei diesen Teams liegt dann auch die Ownership für das jeweilige Datenprodukt, und zwar End-to-End.

Um erfolgreich zu sein, müssen die Mitglieder solcher Teams, die aus verschiedenen Fachbereichen kommen, herausgelöst aus den herkömmlichen, separierten Strukturen autonom arbeiten. Das ist das genaue Gegenteil von gewachsenen Silos. Damit stellen sich Unternehmen neue organisatorische, aber auch kulturelle Herausforderungen. Die können höher sein als die rein technischen. Denn das Arbeiten in integrierten Teams tangiert sowohl herkömmliche Rollenbilder als auch das Teamwork und nicht zuletzt die Kommunikation.

Ops_Grafik 1

DevOps ist die wohl bekannteste der drei genannten Methoden. Sie wird in der Softwareentwicklung eingesetzt. Um schneller zu Ergebnissen zu kommen, werden verschieden Tasks so weit wie möglich mit CI/CD Pipelines automatisiert. Dabei können DevOps einen unterschiedlichen Fokus haben: Einmal stellen sie eher einen Ansatz zur Prozessverbesserung dar, in anderen Fällen beinhalten sie zusätzlich konkret den Einsatz von Tools und Technologien. In beiden Fällen ist ein Punkt zentral, nämlich die Kollaboration zwischen Softwareentwicklung einerseits und IT-Betrieb andererseits. So wird der Informationsaustausch verbessert und die Ziele der Teams, die mit den Daten arbeiten, werden abgestimmt und fokussiert.

DATAOPS FÜR DIE DATENANALYSE - MLOPS FÜR BESSERE ALGORITHMEN

DataOps unterscheiden sich von DevOps vor allem im Anwendungsbereich. Diese Methode wird im Data Science-Bereich angewendet und spricht nicht nur Spezialisten wie Data Engineers, Data Analysts oder Data Scientists an, sondern ebenso Business User, die aufbereitete Daten verwenden, um Analysen oder Reports zu erstellen. Die Methode zielt ebenfalls darauf, Prozesse mittels Pipelines zu automatisieren. So kann das Vorgehen besser überwacht werden, um Fehler im Code oder in Modellen frühzeitig zu erkennen und zu beheben. Das gilt für alle Phasen der Entwicklung von Data Science Software. Abgedeckt wird der komplette Prozess von der Integration der Daten in die Systeme über die korrekte Aufbereitung, dem Reporting bis hin zu weiterführenden Analysen und Auswertungen.

MLOps ist eine Methode, die mit DevOps und DataOps eng verwandt ist. Auch Machine Learning arbeitet mit Datensets, um Modelle zu entwickeln, die daraufhin beispielsweise für Prognosen eingesetzt werden können. Durch die Automatisierung kann so die Verwendung eines optimal entwickelten Modells sichergestellt werden, weil es in CI Pipelines ununterbrochen trainiert und geprüft wird. MLOps betrachten alle Phasen der Machine Learning-Entwicklung, angefangen bei Konfiguration und Automatisierung bis hin zu Bereitstellungsinfrastruktur und dem Monitoring der Modelle.

Entsprechend der verschiedenen Anforderungen und Entwicklungsphasen ist es entscheidend, im Team unterschiedliche Kompetenzen zu bündeln. Erforderlich sind nicht nur hervorragende Data Science-Kenntnisse, auch ausgeprägte Entwicklerfähigkeiten sind gefragt. Dementsprechend setzen sich MLOps Teams hauptsächlich aus Data Scientists bzw. Data Engineers und aus Machine Learning-Spezialisten zusammen.

AUTOMATISIERUNG UND PIPELINES REDUZIEREN ARBEITSAUFWÄNDE

Ops_Grafik 2

Ob es um DevOps geht, um DataOps, um MLOps oder um andere Ops – die Methoden folgen den Prinzipien von Continuous Integration bzw. Continuous Development. Damit adaptieren sie auch diverse Eigenschaften. Zum Einsatz kommen vor allem Automatisierung und Einrichten von Pipelines sowie Versionierung oder andere Instrumente, um Codes und Daten zu sichern und auf ihre Qualität zu überprüfen.

Mit dieser Automatisierung reduzieren sich zugleich Arbeitsaufwände, was Entwicklern wiederum erlaubt, sich auf priorisierte Aufgaben zu fokussieren. Differenzen der verschiedenen Ops resultieren in erster Linie daraus, für welche Zielgruppe die Methode jeweils entwickelt wurde: Software-Entwickler, Datenspezialisten oder ML-Entwickler. In der Praxis hängt die Frage, wie die Methoden eingesetzt werden können, häufig davon ab, wie groß die Unternehmen und die Teams sind. In größeren Teams empfiehlt sich eher eine Differenzierung, damit Aufgabenbereiche und Zuständigkeiten nicht überlappen. Können umgekehrt kleinere Teams die Aufgaben gar nicht so weit differenzieren, dass es einzelne Rollen z.B. für Machine Learning gibt, dann wird es auch komplexer, MLOps oder DataOps anzuwenden. In einem solchen Fall empfiehlt es sich, den Fokus auf DataOps als übergeordnete Methode zu richten und Anpassungen für Machine Learning vorzunehmen.

Das Ziel bleibt dabei immer das gleiche: Entwicklungszyklen zu verkürzen, die Qualität der Ergebnisse zu verbessern und ohne Verzug zu verwertbaren Resultaten zu kommen. Damit können Unternehmen flexibler, schneller und kostengünstiger auf sich ändernde Anforderungen und neue Entwicklungen reagieren. Entscheidende Voraussetzung dafür ist der Aufbau integrierter Teams aus Entwicklern und Anwendern, die autonom arbeiten.

Noch einmal zurück zu dem Beispiel des Streaming-Anbieters. Das gar nicht ganz so geheime Geheimnis, warum die Bereitstellung des Streaming-Angebots so hervorragend klappt, ist: Im Hintergrund setzt das Unternehmen die ganze Bandbreite der Ops ein und optimiert die Methoden kontinuierlich.

Die Einführung oder Erweiterung von Ops-Strukturen und Arbeitsweisen, sowie optimale Wahl der Technologieunterstützung erfordert ein systematisches Vorgehen und vor allem Erfahrung. INFOMOTION begleitet Sie gerne mit seinen Spezialisten bei Ihren Vorhaben.

Weiterführende Informationen

Autor

Dr. Bernd Heßbrügge

Principal Consultant

Bernd Heßbrügge studierte Maschinenbau/Biotechnologie an der Universität Bochum/Universidad de Oviedo und absolvierte seinen PhD an der Strathclyde University in Glasgow. Während seiner Karriere hat er in verschiedenen Branchen (Konstruktion, Professional Services und Retail) Softwareentwicklungs- und Architekturrollen in Data- und Analytics-Projekten innegehabt. Nach seinem Einstieg bei INFOMOTION beschäftigt er sich mit Cloud Analytics-Themen sowie Strategie- u. Architekturberatung rund um Data Governance, Prozesse und Technologien im Data Management und Data- und Analytics-Umfeld.

E-Mail senden