Monitoring in der Multicloud

Lesezeit
2 Minuten
Bis jetzt gelesen

Monitoring in der Multicloud

04.12.2019 - 14:00
Veröffentlicht in:
Unternehmen kommen häufig nicht mehr mit einer einzigen Cloudumgebung aus, sondern entscheiden sich vermehrt für eine Multicloud-Strategie. Der Nachteil der Multicloud ist jedoch, dass die Komplexität der IT-Infrastruktur dadurch erheblich steigt. Abhilfe kann hier ein proaktives und plattformübergreifendes Monitoring der Infrastruktur und aller Applikationen schaffen. Der Beitrag stellt dar, warum das Monitoring in der Cloud besonders von der Kombination von AIOps und einem intelligenten, zentralen Nervensystem für die IT profitiert.
Aus der Studie Cloud Monitor 2019, die von der Wirtschaftsprüfgesellschaft KPMG in Zusammenarbeit mit Bitkom Research durchgeführt wurde, geht hervor, dass 73 Prozent der befragten Unternehmen mittlerweile im Cloudzeitalter angekommen sind. Die meisten von ihnen beziehen ihre Cloudlösung von einem einzelnen Cloud Service Provider. 16 Prozent der Unternehmen haben jedoch bereits die nächste Evolutionsstufe erreicht und ihre Netzwerkumgebung zur Multicloud erweitert. Sie nutzen also Dienste von unterschiedlichen Providern.

Die Mehrheit der Befragten gibt an, dass sie auf Multicloud setzen, um auf providerspezifische Dienste zuzugreifen. Denn nicht jeder Provider bietet die gleichen Dienste an. So ist es nicht selten, dass Unternehmen ERP-Software von Provider A (zum Beispiel SAP) beziehen, für Cloud-Storage jedoch das Angebot von Provider B (etwa Amazon Web Services) bevorzugen. 24 Prozent der Studienteilnehmer ist es wichtig, ihre Ressourcen bei einer vollen Auslastung effizient verteilen zu können und 20 Prozent wollen mit dieser Lösung Ausfällen vorbeugen.

Mit der Multicloud steigt die Komplexität
Die Nutzung solcher Multiclouds birgt Herausforderungen. Denn je komplexer die IT-Infrastruktur durch das Hinzufügen mehrerer Cloud-Services wird, desto schwieriger ist sie auch zu überblicken. Insbesondere dann, wenn Unternehmen nicht ausschließlich Public-Cloud-Ressourcen verwenden, sondern diese mit ihren Private-Cloud-Anwendungen zusammenlegen – also eine Hybrid-Cloud-Umgebung schaffen. Parallel dazu vollziehen sich aktuell zahlreiche weitere Entwicklungen, die wirtschaftlich sinnvoll und oft unausweichlich sind, sich aber im Kontext des Performancemonitorings als Komplexitätstreiber erweisen.

Dazu zählen zuvorderst die immer schnelleren Release-Zyklen in der Anwendungsentwicklung. Darüber hinaus werden Clouddienste heute vermehrt mit Microservices und Serviceless-Komponenten ausgestattet, die über Container-Lösungen wie Docker, OpenShift oder Kubernetes integriert werden. Dadurch erhöht sich innerhalb der Cloudumgebung jedoch die Zahl der Entitäten, die das IT-Personal unterstützen, verwalten und beobachten muss. Sie erhöhen die Komplexität der IT-Landschaft und gefährden somit eine reibungslose Performance. Geht die IT noch einen Schritt weiter und spaltet die IT-Umgebung gemäß einem Blue-Green-Ansatz (Blue = Produktivumgebung, Green = Tests/Entwicklung), erschwert dies zusätzlich den Monitoringprozess.

Das Risiko, den Überblick zu verlieren
Sobald sich verschiedene Ressourcen wie Serverkapazitäten, Anwendungen oder Datenbanken über mehrere, unterschiedliche Plattformen – sowohl lokal als auch in einer Cloudumgebung – erstrecken, kann es vorkommen, dass den IT-Verantwortlichen der Überblick abhandenkommt. Dies kann zu einer Einschränkung des Leistungspotenzials oder – im schlimmsten Fall – sogar zu Ausfällen führen. Aufgrund der beschriebenen Komplexität ist es nicht immer leicht, die Ursache von Fehlern auszumachen und zu bekämpfen.

Für dieses Problem gibt es einen Lösungsansatz, der IT-Abteilungen dabei unterstützen soll, ihre Cloudumgebung gründlicher zu bewachen und effizienter zu managen: Die Nutzung einer Künstlichen Intelligenz – auch bekannt als Artificial Intelligence for IT-Operations (AIOps) – unterstützt die IT-Verantwortlichen beim Beobachten der Performance und Beheben von Problemen. In Verbindung mit AIOps ist für die Verwaltung und Steuerung aller relevanten Daten und Prozesse dann eine zentrale Plattform notwendig.


ln/Karsten Flott, Sales Engineering Manager CER bei AppDynamics

Ähnliche Beiträge

Netzwerkverwaltung an der Medizinischen Universität Wien

Die IT-Abteilung der Medizinischen Universität Wien betreibt das Netzwerk der Universität, wozu die Betreuung von rund 10.000 Anschlüssen sowie Hunderten Endgeräten und Servern gehört. Für diese Aufgabe wurde eine neue Informations- und Planungssoftware für Kabelmanagement und Netzwerkdokumentation implementiert. Das neue Werkzeug ist flexibel, skalierbar und deckt die steigenden Sicherheitsanforderungen voll ab.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (3)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im dritten und letzten Teil gehen wir auf weitere Varianten ein, etwa die ZTP-Provisionierung ohne proprietären Server, die Boot-Loader-Variante iPXE oder das alte Verfahren AutoInstall.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (2)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im zweiten Teil der Workshopserie schildern wir den proprietären Cisco-Ansatz "Network-Plug-and-Play", der über eine GUI erfolgt und bei dem sich die ausgerollten Komponenten an die Gegebenheiten im Netzwerk anpassen lassen.