Mirantis erweitert seine Cloud-Portfolio mit k0rdent Enterprise und k0rdent Virtualization, die Kubernetes-basiertes Infrastrukturmanagement und VM-Virtualisierung in einer Plattform vereinen. Entwickler definieren Ressourcen über YAML-Templates, während GitOps-Workflows Konfigurationsänderungen automatisch übernehmen und prüfen. Ein integrierter Scheduler gewährleistet dynamische Skalierung und optimierte Ressourcennutzung für KI-Pipelines, Microservices und Legacy-VMs. Zentrale Policy-Engine setzt Compliance-Anforderungen durch. Durch Self-Service-Portale reduzieren sich manuelle Tasks, operative Komplexität sinkt und Time-to-Value neuer Services verkürzt sich und erhöhen messbar nachhaltige Betriebseffizienz.
Inhaltsverzeichnis: Das erwartet Sie in diesem Artikel
Einheitliches Infrastruktur-Management für KI, Container und virtuelle Workloads überall
Shaun O’Meara, Chief Technology Officer bei Mirantis (Foto: Mirantis)
Durch die Kubernetes-native Architektur von k0rdent Enterprise lassen sich KI-Modelle, Container-Stacks und virtuelle Maschinen auf einer einzigen Plattform zusammenführen. Das zentrale Bedienkonzept bietet Teams eine einheitliche Schnittstelle, um Ressourcen transparent zu verwalten und Insellösungen abzuschaffen. Automatisierte Workflows, deklarative Konfigurationen und GitOps-Prozesse unterstützen standardisierte Abläufe. Dieses integrierte Management steigert die Effizienz betrieblicher Prozesse, reduziert administrative Aufwände und stellt sicher, dass alle Workloads konsistent, sicher und skalierbar orchestriert werden. inklusive Enterprise-Grade Monitoring.
vordefinierte GitOps-Pipelines minimieren manuelle Eingriffe und steigern Systemstabilität automatisch
Die nativen Orchestrierungsfunktionen von Kubernetes erlauben eine einheitliche Verwaltung von Containern und VMs über verschiedenste Clouds und On-Premises-Umgebungen hinweg. Automatisches Deployment, horizontale Skalierung und integrierte Ausfallsicherung sorgen für zuverlässige Betriebsabläufe. Self-Healing ersetzt defekte Instanzen proaktiv, während deklarative Updates und GitOps-Pipelines Konfigurationen revisionssicher pflegen. Dieser ganzheitliche Ansatz reduziert manuelle Eingriffe, gewährleistet konsistente Infrastrukturzustände und ermöglicht Plattform-Engineering-Teams, komplexe Multi-Cluster-Anwendungen effektiv und standardisiert zu betreiben. Die daraus resultierende Flexibilität steigert Geschwindigkeit und Qualität bei kontinuierlichen Integrations- und Delivery-Prozessen erheblich.
Automatischer Scheduler plant Ressourcen intelligent und steigert Server-Performance drastisch
Ein dynamischer Ressourcen-Scheduler von k0rdent analysiert Laufzeitmetriken in Echtzeit und weist Workloads automatisch die optimalen CPU- und Speicheranteile zu. Diese proaktive Planung verhindert Überlastungen und garantiert konstante Antwortzeiten, während gleichzeitig ungenutzte Ressourcen freigegeben werden. Durch die verbesserte Auslastung vorhandener Hardware sinken Betriebskosten und die Kapitalrendite steigt. IT-Abteilungen profitieren von geringeren Investitionen, schnellerer Servicebereitstellung und einer stabilen Performance in hybriden und Multi-Cloud-Umgebungen. Außerdem fördert dieser Mechanismus eine effiziente Infrastruktur-Planung und Automatisierung.
YAML-basierte Self-Service-Portale beschleunigen Serviceausrollungen und eliminieren manuelle Eingriffe komplett
Mit deklarativen YAML-Definitionen und einem anwenderorientierten Self-Service-Portal können Entwickler Infrastruktur-Rollen, Netzwerkregeln und Storage-Parameter selbst festlegen. Automatisierte Validierungsschritte prüfen dabei Konformität und Sicherheit, bevor die Ressourcen bereitgestellt werden. Der gesamte Deployment-Prozess läuft ohne manuelle Konfiguration ab und gewährleistet konsistente Umgebungen in Echtzeit. Dies führt zu deutlich verkürzten Provisionierungszyklen, schnellen Testumgebungen und einer signifikanten Reduzierung von Betriebskosten durch effizientere Ressourcennutzung. Teams gewinnen agilere Freigaben, flexible Skalierungsmöglichkeiten und dauerhaft mehr Transparenz im Lifecycle-Management.
KI-Anwendungen, Microservices portabel auf AWS, Azure, GCP und Edge
Mit k0rdent lassen sich Container-Images und virtuelle Maschine-Templates identisch auf AWS, Azure, GCP, in unternehmenseigenen Rechenzentren sowie an Edge-Standorten betreiben. Die Plattform verwendet deklarative Definitionen, sodass keine Quellcode-Anpassungen erforderlich sind und sowohl KI-Modelle als auch Microservices konsistent ausgeliefert werden. Diese Infrastruktur-Vereinheitlichung optimiert Cloud-Migrationen, reduziert Betriebskosten durch automatisiertes Ressourcenmanagement und sorgt für schnelle Reaktionszeiten sowie zuverlässige Skalierung quer durch sämtliche Umgebungen. Teams profitieren von zentraler Steuerung, Transparenz und reduziertem manuellem Aufwand.
Validierte Mirantis-Templates gewährleisten policybasierte Infrastruktur per k0s und GitOps
Mit k0s und GitOps lassen sich Infrastrukturdefinitionen als Code in Git verankern und automatisiert in beliebigen Zielumgebungen bereitstellen. Die deklarative Natur gewährleistet identische Konfigurationsstände über Public Cloud, Private Cloud und On-Premises. Zentrales Policy-Enforcement validiert jede Änderung gegen Sicherheits- und Compliance-Richtlinien, bevor sie durchgeführt wird. Fertige Mirantis-Templates bieten vorab geprüfte, reglementgerechte Konfigurationen, die eine konsistente, portable Infrastruktur über verschiedene Cloud-Provider hinweg sicherstellen. Administratoren profitieren von zentralem Audit-Logging, rollenbasiertem Zugriff sowie Dokumentation.
k0rdent Virtualization ersetzt vSphere, ESXi und vRealize in Kubernetes-Architekturen
Die Plug-and-Play-Architektur von k0rdent Virtualization basiert auf k0rdent Enterprise und dient als kosteneffiziente Alternative zu VMware vSphere, ESXi und vRealize. Durch vorkonfigurierte Templates werden klassische virtuelle Maschinen ohne Umschreiben von Code nahtlos integriert. Edge-, Hybrid- und Multi-Cloud-Umgebungen lassen sich zentral steuern und konsolidieren. Leistungsfähiges Scheduling, automatisches Failover und deklarative Updates sorgen für maximale Betriebsstabilität und reduzieren den administrativen Aufwand erheblich. Self-Healing-Prozesse, rollenbasierte Zugriffsrechte, API-First-Design, Multi-Tenancy, Echtzeit-Monitoring, automatisierte Compliance-Checks und Plug-Ins.
Sofortige Infrastrukturbereitstellung mit Mirantis-Templates für AWS, Azure und GCP
Mirantis Templates für Cloud- und On-Premises-Umgebungen automatisieren die Bereitstellung in AWS, Azure, Google Cloud, VMware vSphere sowie OpenStack durch geprüfte Konfigurationsprofile. Die standardisierten Balken umfassen Netzwerkarchitekturen, Storage-Klassen und Sicherheitsrichtlinien. Anwender erzielen so reproduzierbare Infrastrukturen, die Fehlerquellen minimieren. Durch dokumentierte Default-Einstellungen verkürzen sich Einrichtungszyklen spürbar. Updates und Skalierungen erfolgen konsistent, wodurch Compliance-Anforderungen eingehalten und Support-Aufwände reduziert werden, während Betriebskosten sinken. Leistungsoptimierung steigt, Sicherheit gewährleistet, mandantenfähige Architektur inklusive Monitoring, Logging out-of-the-box funktionsfähig.
k0rdent Virtualization modernisiert Legacy-Infrastruktur als Kubernetes-native VMware-Alternative mit Plug-and-Play
Mit Mirantis k0rdent Enterprise und Virtualization eliminieren Unternehmen Insellösungen, indem sie Container- und VM-Workloads zentral auf einer Kubernetes-basierten Plattform managen. Automatische Updates, deklarative Konfiguration und GitOps-Steuerung reduzieren manuelle Eingriffe und erhöhen Betriebsstabilität. Ein dynamischer Scheduler gewährleistet optimale Ressourcennutzung, während Self-Healing-Funktionalitäten Ausfallzeiten minimieren. Die Lösungen unterstützen Migrationen zwischen Clouds sowie Edge-Standorten ohne Codeänderungen und ermöglichen Plattform-Engineering-Teams schnelle Integration von KI-Pipelines, Microservices und Legacy-Anwendungen in heterogenen Umgebungen. verbesserte Sicherheit, skalierte Services, Compliance.