Grenzen setzen: Der Unterschied zwischen AIOps und MLOps
Die Bezeichnungen „AIOps“ und „MLOps“ klingen zwar recht ähnlich – die jeweiligen Zielsetzungen unterscheiden sich aber sehr.
Technologieführer, die nach erhöhter Betriebseffizienz streben, setzen zunehmend auf Automatisierung. Das veranlasst viele dazu, die Vorteile von AIOps (Artificial Intelligence for IT Operations) und MLOps (Machine Learning for IT Operations) zu erkunden. Obwohl die Bezeichnungen recht ähnlich klingen, gibt es doch recht große Unterschiede zwischen beiden Disziplinen bzw. Technologien – wie Technologieanbieter schnell erkennen werden.
Bei AIOps geht es um eine erhöhte Effizienz im IT-Betrieb auf Basis automatisierter Incident- bzw. Management-Diagnostics und intelligenter Ursachenforschung durch Machine Learning. Diese Lösungen liefern technischen Teams qualitativ hochwertige und leicht nachvollziehbare Informationen, indem sie die Outputs von Monitoring-Systemen durchforsten und False Positives reduzieren. Umso einfacher ist es für die IT, Problembehebungen durchzuführen.
MLOps bezieht sich hingegen vorrangig auf die Schaffung einer automatisierten Pipeline, um Machine-Learning-Modelle in Produktionsumgebungen zu verlagern. Das Ziel ist es, eine Verbindung zwischen Data-Science- bzw. Datenbetriebs- und Infrastrukturteams herzustellen, um Modelle schneller und häufiger in Produktionsumgebungen einsetzen zu können. Bei MLOps handelt es sich – anders als bei AIOps – nicht per se um eine Machine-Learning-Funktionalität, bei der Daten durch Algorithmen verarbeitet werden. Vielmehr ist es eine Möglichkeit, die Entwicklung, Bereitstellung und Wartung dieser Algorithmen zu verwalten und zu optimieren.
Trotz der großen Unterschiede zwischen diesen beiden Konzepten gibt es durchaus auch Überschneidungen – vor allem in Bezug auf die erforderlichen Fähigkeiten, Teams und Mindsets für eine erfolgreiche Implementierung von AIOps und MLOps. Sollte das Interesse an beiden Technologien weiter zunehmen (und wir denken, dass das der Fall sein wird), wird sich dies als Vorteil für Technologieführer erweisen. Es lohnt sich also, sich die Überschneidungen beider Bereiche genauer anzusehen und einige Do's und Don'ts bei der Einführung von AIOps und MLOps herauszuarbeiten. Im Folgenden erläutern wir unsere Erkenntnisse auf Basis unserer Zusammenarbeit mit Kunden.
Die Grundlage für AIOps und MLOps ist in vielen Unternehmen bereits vorhanden
Machine Learning ist lediglich eine Anwendungsform von künstlicher Intelligenz, wobei KI üblicherweise keine ausgereifte Disziplin in Unternehmen darstellt. Organisationen benötigen gewisse Kompetenzen, um KI für AIOps- oder MLOps-Zwecke einsetzen zu können. Diese sind in den meisten Fällen bereits seit einiger Zeit vorhanden.
Werfen wir zunächst einen Blick auf AIOps. Für die Entwicklung von Modellen, die System Monitoring automatisieren und intelligente Fehlerberichte oder -warnungen ausgeben können, sind zunächst erfahrene DevOps-Teams erforderlich – bestehend aus Engineers und Datenanalysten. Außerdem werden Operations-Administratoren benötigt, die ein ausgereiftes Fachwissen über jene Prozesse vorweisen können, die automatisiert werden sollen. Bestenfalls können sie auch Auskunft über etwaige Veränderungen oder Beeinträchtigungen angrenzender Workflows im Zuge der Umstellung geben.
Um diese Modelle in der Produktionsumgebung einsetzen zu können, ist operative KI-Expertise vonnöten. Personen, die sich in diesem Gebiet spezialisieren, sind natürlich weniger leicht auffindbar. Engineering-Teams sind allerdings auf ihren Input angewiesen, um Ereigniskorrelationen innerhalb ihrer Modelle effektiv entwickeln zu können. Die Kompetenz dieser Spezialisten ist auch bei der Dateneinspeisung von unschätzbarem Wert, um die Modelle zu trainieren und im Rahmen von Aktualisierungen auf betriebliche Änderungen auszurichten. (Trotz der allgemeinen Auffassung kann sich KI nicht selbst entwickeln oder warten. Nur anhand ausgiebiger menschlicher Intervention kann KI wichtige Zusammenhänge erlernen und auf Veränderungen reagieren.)
Für die Schaffung einer Bereitstellungspipeline für MLOps für Ihre Modelle sind alle oben genannten Anforderungen sowie Mitarbeiter mit entsprechenden Kenntnissen zur Infrastruktur erforderlich – und zwar sowohl im Bereich Data Science als auch für Machine-Learning-Engineering. Experten für alle drei Bereiche werden Sie vermutlich nicht finden. Personen oder Teams mit einem gewissen Verständnis für jedes Gebiet sind jedoch unerlässlich.
Größere Organisationen haben einen entscheidenden Vorteil: Diese Kompetenzen stehen ihnen in den meisten Fällen bereits zur Verfügung. Oftmals geht es nur darum, diese gezielt zu kombinieren. Außerdem sind Unternehmen mit derartigen Vorhaben oft auf externe Unterstützung angewiesen, vor allem in KI-Belangen. Da größere Firmen budgetär und ressourcentechnisch besser aufgestellt sind, haben sie eher die Möglichkeit, Berater oder sogar Akademiker in den Prozess einzubinden.
Da KI immer breitere Anwendung findet, ist davon auszugehen, dass viele dieser größeren Organisationen innovative Teamkonstellationen schaffen und diese auch neu bezeichnen werden. Wenn Unternehmen mehr und mehr Investitionen in Machine Learning tätigen und so ihre Fähigkeiten ausbauen, ist es beispielsweise naheliegend, dass dedizierte MLOps-Teams gegründet werden – bestehend aus Experten sowohl für Data Science als auch Infrastruktur. Dieses Team wäre dann u. a. dafür verantwortlich, AIOps in der Produktionsumgebung einzusetzen.
Die Schaffung von AIOps- oder MLOps-Fähigkeiten auf Basis dieser Grundlagen – Do's and Don'ts
Es ist niemals einfach, ein AIOps- oder MLOps-Projekt zu stemmen – selbst wenn oben genannte Grundlagen oder Mitarbeiter vorhanden sind. Unserer Erfahrung nach gehören folgende Aspekte zu den vorrangigen Do's und Don'ts:
- Klein anfangen: Setzen Sie sich zunächst ein Ziel, das auf Ihre vorhandenen Fähigkeiten, Ressourcen und Kenntnisse abgestimmt ist. So können Sie Schritt für Schritt sowohl die Technologie als auch die neuen Teamstrukturen kennenlernen, austesten und verfeinern, bevor Sie sich auf die nächste Stufe begeben.
- Auf Altbewährtes setzen: Es gibt bereits einen großen Markt für AIOps- und MLOps-Lösungen sowie eine florierende Open-Source-Community. Vorgefertigte Modelle für Ihren Anwendungsfall existieren wahrscheinlich bereits. Diese können auf Ihre Bedürfnisse zugeschnitten und im Rahmen des sog. Transfer-Learning-Prozesses an Ihre Daten angepasst werden. Wir empfehlen also, bereits vorhandene Forschungsergebnisse und Lösungen zu nutzen – diese gibt es immerhin bereits en masse.
- Realistisch bleiben: MLOps und AIOps werden Ihre Probleme nicht innerhalb eines Tages oder gar Quartals lösen können. Es ist wichtig, angemessene Erwartungen auf Führungsebene zu etablieren und zu steuern. Wie lange wird es realistischerweise dauern, bis erste Ergebnisse und Auswirkungen auf den Return on Investment vorliegen? Die Übernahme einer jeden KI-Anwendung ist mit einem großen Zeitaufwand verbunden. Die Schwelle für erste Ergebnisse ist zwar hoch, möglichen Produktivitätssteigerungen sind dann aber keine Grenzen gesetzt. Angesichts der notwendigen Prozessanpassungen und betrieblichen Umstrukturierungen, ganz zu schweigen von der steilen technologischen Lernkurve, ist in jedem Fall Geduld gefragt.
- Klare Verantwortlichkeiten zuweisen: Sobald Sie Mitarbeitern neue Verantwortlichkeiten zuweisen, Teams umstrukturieren und neue Deliverables setzen, ist es überaus notwendig, Verantwortungsbereiche transparent zu gestalten.
- Modell- und Datendrift im Auge behalten: Die allgemeine Auffassung, KI wäre selbstregulierend, ist nicht nur falsch, sondern auch operativ riskant. Außerdem geht damit ein gewisses Reputationsrisiko einher. Die Leistung sämtlicher Modelle verschlechtert sich im Laufe der Zeit, da sich die jeweiligen Umgebungen verändern können, die überwacht werden (z. B. durch Produkteinführungen, Einstellung neuer Mitarbeiter oder lediglich aufgrund unbeabsichtigter Folgen wegen scheinbar unzusammenhängender Prozessänderungen). Ihre AIOps- und MLOps-Protokolle müssen auf diese Änderungen ausgerichtet sein.
- Leistungen messen und auf Änderungen reagieren: Die Erfolgskontrolle Ihrer AIOps- und MLOps-Modelle ist äußerst wichtig. Entwickeln Sie ein Verständnis dafür, wie Erfolg aussehen kann. Diese Ergebnisse sollten mit Metriken versehen werden, die kontrollier- und anpassbar sind.
- Ausgefeilte Governance- und Auditing-Prozesse einrichten: In Bezug auf KI handelt es sich dabei momentan um eine große Herausforderung. Wenn Maschinen Entscheidungen treffen, die das Unternehmen, seine Mitarbeiter oder Kunden beeinflussen, müssen diese Entscheidungen erklärbar und ggf. auch anfechtbar sein. Im Rahmen von Governance- und Auditing-Prozessen sollte von Beginn an ein Fokus auf Transparenz bei der Entwicklung von Modellen gelegt werden. Zudem sollten getroffene Entscheidungen und entsprechende Ergebnisse streng überwacht werden, sobald sie sich in der Produktionsumgebung befinden.
- Datenintegrität respektieren: Es ist allgemein bekannt, dass qualitativ hochwertige Daten das Rückgrat des Erfolgs von KI darstellen. Sie definieren das Modell- und Systemdesign und beeinflussen den Erfolg der Ergebnisse: Wenn Ihre Daten nicht stimmen, wirkt sich das auf die Gesamtprozesskette aus. Ein Qualitätsfaktor, der allerdings oft übersehen wird, ist menschliche Voreingenommenheit. Viele Systeme basieren auf Dateneingaben, die von Menschen getätigt werden. Die Korrelation dieser Daten ist geprägt durch (un-)bewusste Vorurteile auf Grundlage persönlicher Annahmen. Um dem vorzubeugen, müssen Sie einen Trigger oder einen Workflow-Schritt in Ihre Prozesse einbauen, der bei Bedarf eine Datenkorrektur veranlasst.
Wie lauten die Wachstumsaussichten von AIOps und MLOps im Unternehmen?
Wir als Branche wissen heute zwar um einiges mehr über den erfolgreichen Einsatz von KI und Machine Learning als noch vor ein paar Jahren. Dennoch müssen wir uns eingestehen, dass wir uns immer noch erst im Anfangsstadium befinden, wir uns an die Thematik also erst herantasten.
Nun – den Marketing-Buzz haben wir wohl bereits hinter uns gelassen. Und eine Handvoll Unternehmen hat bewiesen, dass KI einen echten Mehrwert für Unternehmen schaffen und einen unschätzbaren Wert generieren kann. Deshalb wagen immer mehr Unternehmen nun den Schritt in diese Richtung, da sie sich am Erfolg beteiligen möchten. Allerdings werden sie ziemlich schnell erkennen, dass KI allein nicht reicht, um einen positiven ROI zu generieren. Dafür ist in jedem Fall eine MLOps-Lösung erforderlich. Das Interesse an Machine Learning wächst – und jenes an MLOps geht damit gezwungenermaßen einher.
Auf der anderen Seite wurde AIOps bereits von einer größeren Anzahl an Unternehmen übernommen. Aber es ist und bleibt vermutlich großen Organisationen vorbehalten, die über eigene IT-Teams verfügen. Denn diese Unternehmen profitieren am meisten von verbesserter Prozesseffizienz und haben den größten Spielraum, um betriebliche Ressourcen wertschöpfenden Aktivitäten zuzuordnen. Und wir sind noch keinem Unternehmen begegnet, das nicht eines dieser beiden Ergebnisse anstrebt.
Alles in allem sollten diese beiden Technologien also weiterhin klar voneinander getrennt werden, ohne dabei gewisse Überschneidungen außer Acht zu lassen. Denn gerade diese überlappenden Fähigkeiten ermöglichen es Technologieführern, beide Ansätze in ihrer Transformation Journey anzuwenden. Und wir erwarten, dass ein Großteil der Unternehmen genau das tun wird – und das sogar recht zeitnah.
Wir kommen direkt zu den wichtigsten technischen Trends
About the Authors
Practice Manager, Data Science & Engineering
Mark McQuade
Mark McQuade is an AWS and cloud-based solution specialist, knowledge addict and relationship builder. Earlier in his career, Mark held technical support, operations, business development and leadership roles for a telecommunications solutions provider, where he worked for 13 years. He then transitioned to the world of cloud and opened up his own AWS small business before joining Onica, who was acquired by Rackspace technology in 2019. Mark is currently Practice Manager of Data Science & Engineering at Rackspace Technology. Every day, he gets to learn more about what he is passionate about professionally – AI and machine learning – as well as the fascinating world of data. As a technology evangelist, you’ll often find Mark promoting data and AI/ML at talks, webinars, podcasts and industry events.
Read more about Mark McQuadePrincipal Engineer
Jean "JP" Gonzalez
As Principal Engineer at Rackspace JP leads the AIOps vision and strategy for our for Rackspace event and ticketing process. With over 20 years of experience in IT roles across development, management and support services he brings an agnostic perspective to the future of Rackspace infrastructure technologies. JP's passion for efficiency through automation is driving Rackspace approach to operational digital transformation.
Read more about Jean "JP" GonzalezRelated Topics