Die Entwicklung und Bewertung neuer KI-Technologien ist für den langfristigen technologischen Erfolg von entscheidender Bedeutung, aber nicht alles. Bei Red Hat widmen wir uns auch der Entwicklung wiederverwendbarer Muster sowie der Optimierung der Art und Weise, wie KI-Modelle genutzt werden können. Wir tun dies, damit wir und unsere Kunden KI ohne Bedenken einsetzen können.
Wir achten auch darauf, den praktischen Aspekt der KI nicht aus den Augen zu verlieren. Wie sollen wir beispielsweise allen Menschen einen privaten Zugang zu KI-Modellen ermöglichen und gleichzeitig die Kosten minimieren? Wie können wir den Wert und die Reichweite dieses „nächsten großen Trends“ nutzen?
Eine wichtige Antwort lautet: Models as a Service (MaaS).
Nicht jeder möchte ein KI-Experte sein, und seien wir ehrlich: Kein Unternehmen will, dass die Mitarbeitenden jeweils eigene Modelle entwickeln. Vorerst sollte das Ziel darin bestehen, möglichst vielen Menschen die Nutzung der bereits vorhandenen KI zu ermöglichen. Hier kommt MaaS ins Spiel.
So sind wir auf MaaS gekommen. Unsere Nutzenden lassen sich im Allgemeinen in " Gruppen einteilen:
- KI-Enthusiasten – die KI-Entwickler, Programmierer, Einsteiger und Profis, deren Leben sich um KI dreht
- Alle anderen – die KI einfach nur nutzen möchten, ohne sich intensiv mit der Technologie auseinanderzusetzen
MaaS ist ein Konzept, das KI-Modelle als nutzbare Ressourcen – in Form von API-Endpunkten – für Ihr Unternehmen bereitstellt. Ihr IT-Team oder Ihre KI-Plattform Engineers stellen Modelle hinter einem API-Gateway bereit, um Entwicklungsteams und damit indirekt auch die Nutzenden dabei zu unterstützen, KI bei ihren täglichen Aufgaben zu verwenden.
Betrachten Sie es so: Die KI-Giganten gewähren Ihnen keinen Zugang zu ihrer Hardware. Sie erhalten Zugriff auf deren Apps oder API-Endpunkte. Die andere Seite stellt MaaS bereit. Der einzige Unterschied ist, dass Sie in dieser Situation, anstatt deren Dienste zu mieten, Ihr eigenes MaaS betreiben, um die Kontrolle über Kosten, Zugang und Innovationstempo zu behalten.
Das klingt ziemlich gut, oder?
Ist es auch! Wir nutzen MaaS seit etwa 1 Jahr intern bei Red Hat. Dabei haben wir Folgendes festgestellt:
Mehr Innovationen bei geringeren Kosten
Immer, wenn ein neues Modell auf den Markt kommt, möchten es Hunderte von Mitarbeitenden bei Red Hat sofort einsetzen. MaaS hilft uns, das Modell einmalig bereitzustellen und unser Budget zu schonen! Vorbei sind die Zeiten, in denen man 10, 20, 50 und mehr GPUs beschaffen musste, weil 10, 20, 50 und mehr Personen ein neues Modell ausprobieren wollten.
Es ist eine Win-Win-Situation. Unsere Entwicklungsteams können neue Modelle ausprobieren und sich auf die Entwicklung neuer Tools konzentrieren, ohne dabei das Budget zu überschreiten.
Innovation beschleunigen
Wir können praktisch jedes neue Modell, das auf den Markt kommt, innerhalb unseres eigenen Zeitplans testen. Erinnern Sie sich noch daran, als DeepSeek den KI-Markt erschütterte? Wir hatten DeepSeek R1 kurz nach dem Release allgemein verfügbar gemacht. So war es auch bei Granite, Llama 4, Phi – Sie verstehen schon.
Datenschutz und Sicherheit
Sensible Daten erfordern eine umfassende und sorgfältige Kontrolle. Mit MaaS werden Sie zu Ihrem eigenen privaten KI-Anbieter, der Ihre digitalen Vermögenswerte zuverlässig schützt. Sie müssen keine öffentlich zugänglichen API-Endpunkte verwenden. Tatsächlich betreiben viele unserer Kunden ihre eigenen Modelle in Air-Gap-Rechenzentren.
Verwendung in Unternehmen
Das API-Gateway als Grundlage von MaaS bietet Ihnen die Skalierbarkeit, die Sie benötigen, um Ihre Beschäftigten zu erreichen, die Flexibilität, die Sie brauchen, um mit Innovationen Schritt zu halten, sowie die verbesserten Sicherheits- und Überwachungstools, mit denen Sie KI-Modelle effizient und nach Ihren Vorstellungen einsetzen.
Nochmals reduzierte Kosten
Mit MaaS senden Sie die Kosten über die direkte Verwendung eines Modells für gemeinsam genutzte Ressourcen. Sie werden feststellen, dass für dasselbe Ergebnis weniger GPUs erforderlich sind und sich die GPU-Auslastungsmetriken verbessern. Da die Modelle mit der Zeit immer besser und kleiner werden, können Sie noch mehr profitieren. Sie könnten auch Open Source-Komprimierungstools für Large Language Models (LLM) verwenden, um die Performance und Größe des Modells an Ihre Anforderungen anzupassen. Kurz gesagt hilft MaaS Ihnen dabei, Ihren Footprint und Ihre Modelle zu optimieren, um maximale Gewinne zu erzielen.
Mit MaaS soll eine geeignete Basis geschaffen und gleichzeitig die Zukunft vorbereitet werden. Nehmen wir zum Beispiel KI-Agenten. KI-Agenten sind keine Anwendungen für einmalige Fragen und Antworten. Sie werden weiter nach Antworten suchen, wenn Sie das zulassen. Was bedeutet das? Token.So viele Token. Wenn Sie in der Lage sein wollen, Skalierbarkeit und Ihre Kosten genauer einzuschätzen, sollten Sie MaaS intern betreiben.
KI wird sich durchsetzen, und es ist Zeit für praktische Überlegungen zu Kosten, Innovationstempo und Datenschutz. Models as a Service (MaaS) ist eine vielversprechende Lösung, der sich Red Hat verschrieben hat. Falls dies auch Ihre Prioritäten sind, ist MaaS eine Überlegung wert.
Sehen Sie sich diese interaktive Demo an, in der Parasol, ein fiktives Versicherungsunternehmen, drei KI-Anwendungen mit MaaS betreibt! Für alle KI-Enthusiasten: Hier ist das MaaS GitHub Repository. Wenn Sie in diesem Jahr am Red Hat Summit teilnehmen, sollten Sie sich unbedingt für die Sessions How to become the hero of your artificial intelligence story und LLM as a Service for Enterprise: Building a customer large language model platform anmelden, um mehr zu erfahren.
resource
Erste Schritte mit KI für Unternehmen: Ein Guide für den Einstieger
Über den Autor
Karl Eklund is a Principal Architect aligning customer goals to solutions provided by the open source community and commercial vendors within the Red Hat OpenShift Data Science platform. Prior to joining Red Hat, Karl advised technology leaders on enterprise data and technology strategies and built machine learning models across multiple academic disciplines.
Mehr davon
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Virtualisierung
Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen