Hybrid Cloud-Umgebungen bieten Unternehmen die Vorteile beider Welten, da sie On-Premise- und Cloud-Ressourcen vereinen und so für Flexibilität und Skalierbarkeit sorgen. Unternehmen können ihre Hybrid Cloud-Strategie mit künstlicher Intelligenz (KI) und maschinellem Lernen (ML) weiter verbessern.
KI- und ML-Modelle können Teams dabei helfen, bessere Entscheidungen zu treffen, indem sie Insights bereitstellen, Ressourcen optimieren und Anwendungsperformance verbessern. Große Sprachmodelle (Large Language Models, LLMs) können dazu beitragen, Workflows zu automatisieren und den Bedarf an manuellen Aufgaben zu verringern. Mithilfe von prädiktiven Modellen, die Nutzungsmuster analysieren, können die Cloud-Kosten niedrig gehalten und Ressourcen effizienter zugewiesen werden. Sehen wir uns an, wie Teams mit KI/ML ihre Hybrid Cloud-Umgebungen optimal nutzen können.
Automatisierte Ressourcenzuweisung
Die Ressourcenzuweisung und -optimierung sind in Hybrid Cloud-Umgebungen unerlässlich. Durch die Automatisierung und Optimierung mit KI/ML können Unternehmen ihre Ressourcen maximieren und die Kosten niedrig halten. Prädiktive Analysen können auch historische Daten und Nutzungsmuster analysieren, um automatisch den Ressourcenbedarf zur Skalierung von On-Premise- und Cloud-Ressourcen zu antizipieren. Mit KI/ML lassen sich Workloads so über Hybrid Clouds verteilen, dass sie je nach Latenz, Kosten und Verfügbarkeit an den kostengünstigsten und effizientesten Standorten ausgeführt werden können.
Unternehmen können außerdem Kosteneinsparungen durch eine dynamische Anpassung der Ressourcenzuweisung an die Nachfrage und prädiktive Analysen erzielen, ohne dass eine hohe Serviceverfügbarkeit und Anwendungsperformance beeinträchtigt werden.
Verbesserte Sicherheit
KI-gestützte Sicherheitsüberwachung hilft Unternehmen, bekannte Cyberbedrohungen in komplexen Hybrid Cloud-Umgebungen schneller zu erkennen. Mit einer KI- und ML-gestützten Bedrohungserkennung können Unternehmen Sicherheitsprotokolle und Netzwerkverkehr effizienter in Echtzeit analysieren. Dadurch steigt die Wahrscheinlichkeit, potenzielle Angriffe zu erkennen und darauf zu reagieren, bevor sie Schaden anrichten. Algorithmen zur Anomalieerkennung bieten eine weitere Schutzschicht, indem sie ungewöhnliche Aktivitäten erkennen und potenzielle Verstöße frühzeitig melden. Dadurch verbessern Sie insgesamt die Sicherheitslage in Ihrer Hybrid Cloud-Infrastruktur.
Durch die Analyse von Datensätzen und das Erkennen von Mustern können KI-Algorithmen dazu beitragen, neue Bedrohungen abzuwehren, die herkömmliche Sicherheitsmaßnahmen andernfalls möglicherweise übersehen.
Optimierte Anwendungsentwicklung und -bereitstellung
KI-gestützte Tools können die Anwendungsentwicklung und -bereitstellung beschleunigen und so dazu beitragen, dass Teams Produkte schneller auf den Markt bringen und gleichzeitig menschliche Fehler reduzieren können. Maschinelles Lernen kann auch die Ressourcen von Entwicklungsteams erweitern, indem es Code optimiert, Bugs erkennt und sogar Architekturverbesserungen für Apps vorschlägt, die in Hybrid Cloud-Umgebungen ausgeführt werden. All dies trägt zu Produktivität und Effizienz bei.
RHEL AI und Large Language Models der Granite-Familie
Red Hat Enterprise Linux AI (RHEL AI) enthält eine Teilmenge der auf Open Source basierenden Sprach- und Codemodelle der Granite-Familie. Granite-Modelle sind eine Reihe von LLMs, die von IBM entwickelt wurden, um KI-Anwendungen für Unternehmen zu beschleunigen. Sie sind für die Unterstützung generativer KI-Use Cases (Gen KI) konzipiert, die Sprache und Code betreffen, wie etwa Textgenerierung, Codevervollständigung und Codeübersetzung. Als Teil von RHEL AI bieten diese Modelle Unternehmen kosten- und leistungsoptimierte Lösungen für verschiedene KI-Use Cases. Gleichzeitig bieten sie technischen Support auf Unternehmensebene von Red Hat und unser Open Source Assurance-Programm.
Use Case in der Anwendungsentwicklung: Code-Refactoring mit Granite-Codemodellen
Hier sehen Sie einen Use Case, der zeigt, wie Granite-LLMs bei der Migration von Anwendungen in eine Public Cloud helfen können. Ein Unternehmen kann ein Granite-Modell für das Refactoring vorhandener Anwendungen oder Plattformen nutzen und so die Performance, Skalierbarkeit und Wartbarkeit verbessern. Darüber hinaus kann die Migration einer Plattform in eine Cloud-Umgebung ihre Resilienz erhöhen und sie reaktionsfähiger machen.
In diesem Beispiel verfügt ein großes Finanzinstitut über eine Plattform zur Risikobewertung, die Kundenportfolios hinsichtlich Compliance, Betrugserkennung und Kreditrisiken bewertet. Die Anwendung basiert jedoch auf einer veralteten Architektur. Dadurch kann sie bei zunehmendem Datenvolumen nur schwer skaliert werden. Außerdem ist sie aufgrund von Legacy-Abhängigkeiten teuer in der Wartung und verarbeitet Echtzeit-Risikobewertungen nur langsam. Die Geschäftsführung möchte die Risikobeurteilungsplattform zu AWS migrieren. Angesichts der Bedeutung dieser Risikoplattform für ihre geschäftlichen Abläufe erfordert ihr Ansatz eine Refactoring-Migration.
Was ist Refactoring?
Mit Refactoring werden Anwendungen in der Infrastruktur eines Cloud-Anbieters ausgeführt. Dies erfordert eine Neuarchitektur der Anwendungen, damit sie besser zur Cloud-Umgebung passen. Bei diesem Ansatz muss ein großer Teil der Codebasis in vorhandenen Anwendungen geändert werden, um die Vorteile cloudbasierter Funktionen und deren zusätzliche Flexibilität zu nutzen. Eine Refactoring-Migration ist jedoch komplexer und ressourcenintensiver als andere Cloud-Migrationsansätze, da Änderungen an der Codebasis das externe Verhalten der Anwendung nicht beeinflussen können.
Eine Open Source-Lösung
Entwicklungsteams können Granite-Modelle in ihre Entwicklungsumgebung integrieren, um die Codierung mit KI zu unterstützen. In Kombination mit einem quelloffenen KI-Code-Assistenten können Anwendungsteams Granite-Codemodelle zur Unterstützung einer Refactoring-Migration verwenden. Diese Modelle können lokal mit Tools wie Ollama oder InstructLab ausgeführt werden, während Teams an der Modernisierung ihrer Anwendungen für Cloud-Umgebungen arbeiten.
Nach der Einrichtung wählen Entwickler einfach den Code aus, der verbessert werden soll, um die Vorschläge des Granite-Modells zu sehen. Das Granite-Modell versucht, die Syntax zu modernisieren, Methoden zu extrahieren, Variablen umzubenennen und vieles mehr. Mit dieser Methode können Sie die Entwicklung beschleunigen und gleichzeitig die menschliche Expertise im Vordergrund behalten, da das Entwicklungsteam die vorgeschlagenen Codeänderungen prüft und akzeptiert.
Ein Vorteil davon ist, dass Entwicklungsteams diese KI-Tools lokal verwenden können, ohne dabei vertrauliche Daten zu kompromittieren. Dieser hybride Ansatz ermöglicht eine effizientere Programmierung, und der Open Source-Charakter der Granite-Modelle bietet Transparenz für die Stakeholder. Unter „Open Source KI-Codierungsunterstützung mit den Granite-Modellen“ finden Sie Details zur Einrichtung eines KI-Codierungsassistenten, der lokale Granite-Modelle verwendet und so Refactoring-Migrationen, Code-Vervollständigung, kontextbezogene Dokumentation und Debugging unterstützt.
Vorteile
Unternehmen können ihre Hybrid Cloud Deployments verbessern, indem sie KI in ihre Entwicklungsumgebungen integrieren. In diesem bestimmten Use Case waren dies die folgenden Vorteile:
- Schnellere Anwendungsbereitstellung in einer Public Cloud
- Verbesserte Teameffizienz durch reduzierten operativen Aufwand
- Beschleunigte Reaktionszeiten durch Automatisierung
- Risikominderung durch die Minimierung menschlicher Fehler
- Konsistentere Deployments
Und schließlich verbessert KI die Kosteneffizienz in Hybrid Cloud-Umgebungen, indem sie die Ressourcenzuweisung optimiert und andere Kosteneinsparungen identifiziert.
Red Hat Developer Hub
Im Red Hat Developer Hub stellen wir Online-Ressourcen für Entwicklerinnen und Entwickler bereit, die KI-Unternehmensanwendungen erstellen möchten. Sie können sogar vorgefertigte, bootfähige Images von RHEL AI herunterladen, einschließlich der Open Source-LLMs der Granite-Familie, über die wir hier gesprochen haben.
resource
Erste Schritte mit KI für Unternehmen: Ein Guide für den Einstieger
Über den Autor
Adam Wealand's experience includes marketing, social psychology, artificial intelligence, data visualization, and infusing the voice of the customer into products. Wealand joined Red Hat in July 2021 and previously worked at organizations ranging from small startups to large enterprises. He holds an MBA from Duke's Fuqua School of Business and enjoys mountain biking all around Northern California.
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Virtualisierung
Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen