RSS-Feed abonnieren

Die Entwicklung und Bewertung neuer KI-Technologien ist für den langfristigen technologischen Erfolg von entscheidender Bedeutung, aber nicht alles. Bei Red Hat widmen wir uns auch der Entwicklung wiederverwendbarer Muster sowie der Optimierung der Art und Weise, wie KI-Modelle genutzt werden können. Wir tun dies, damit wir und unsere Kunden KI ohne Bedenken einsetzen können. 

Wir achten auch darauf, den praktischen Aspekt der KI nicht aus den Augen zu verlieren. Wie sollen wir beispielsweise allen Menschen einen privaten Zugang zu KI-Modellen ermöglichen und gleichzeitig die Kosten minimieren? Wie können wir den Wert und die Reichweite dieses „nächsten großen Trends“ nutzen?

Eine wichtige Antwort lautet:  Models as a Service (MaaS).  

Nicht jeder möchte ein KI-Experte sein, und seien wir ehrlich: Kein Unternehmen will, dass die Mitarbeitenden jeweils eigene Modelle entwickeln. Vorerst sollte das Ziel darin bestehen, möglichst vielen Menschen die Nutzung der bereits vorhandenen KI zu ermöglichen. Hier kommt MaaS ins Spiel.

Models as a Service (MaaS)

So sind wir auf MaaS gekommen. Unsere Nutzenden lassen sich im Allgemeinen in " Gruppen einteilen:

  1. KI-Enthusiasten – die KI-Entwickler, Programmierer, Einsteiger und Profis, deren Leben sich um KI dreht
  2. Alle anderen – die KI einfach nur nutzen möchten, ohne sich intensiv mit der Technologie auseinanderzusetzen

MaaS ist ein Konzept, das KI-Modelle als nutzbare Ressourcen – in Form von API-Endpunkten – für Ihr Unternehmen bereitstellt. Ihr IT-Team oder Ihre KI-Plattform Engineers stellen Modelle hinter einem API-Gateway bereit, um Entwicklungsteams und damit indirekt auch die Nutzenden dabei zu unterstützen, KI bei ihren täglichen Aufgaben zu verwenden. 

Betrachten Sie es so: Die KI-Giganten gewähren Ihnen keinen Zugang zu ihrer Hardware. Sie erhalten Zugriff auf deren Apps oder API-Endpunkte. Die andere Seite stellt MaaS bereit. Der einzige Unterschied ist, dass Sie in dieser Situation, anstatt deren Dienste zu mieten, Ihr eigenes MaaS betreiben, um die Kontrolle über Kosten, Zugang und Innovationstempo zu behalten. 

Das klingt ziemlich gut, oder? 

Ist es auch! Wir nutzen MaaS seit etwa 1 Jahr intern bei Red Hat. Dabei haben wir Folgendes festgestellt:

Mehr Innovationen bei geringeren Kosten

Immer, wenn ein neues Modell auf den Markt kommt, möchten es Hunderte von Mitarbeitenden bei Red Hat sofort einsetzen. MaaS hilft uns, das Modell einmalig bereitzustellen und unser Budget zu schonen! Vorbei sind die Zeiten, in denen man 10, 20, 50 und mehr GPUs beschaffen musste, weil 10, 20, 50 und mehr Personen ein neues Modell ausprobieren wollten.

Es ist eine Win-Win-Situation. Unsere Entwicklungsteams können neue Modelle ausprobieren und sich auf die Entwicklung neuer Tools konzentrieren, ohne dabei das Budget zu überschreiten. 

Innovation beschleunigen

Wir können praktisch jedes neue Modell, das auf den Markt kommt, innerhalb unseres eigenen Zeitplans testen. Erinnern Sie sich noch daran, als DeepSeek den KI-Markt erschütterte? Wir hatten DeepSeek R1 kurz nach dem Release allgemein verfügbar gemacht. So war es auch bei Granite, Llama 4, Phi – Sie verstehen schon.

Datenschutz und Sicherheit

Sensible Daten erfordern eine umfassende und sorgfältige Kontrolle. Mit MaaS werden Sie zu Ihrem eigenen privaten KI-Anbieter, der Ihre digitalen Vermögenswerte zuverlässig schützt. Sie müssen keine öffentlich zugänglichen API-Endpunkte verwenden. Tatsächlich betreiben viele unserer Kunden ihre eigenen Modelle in Air-Gap-Rechenzentren.

Verwendung in Unternehmen

Das API-Gateway als Grundlage von MaaS bietet Ihnen die Skalierbarkeit, die Sie benötigen, um Ihre Beschäftigten zu erreichen, die Flexibilität, die Sie brauchen, um mit Innovationen Schritt zu halten, sowie die verbesserten Sicherheits- und Überwachungstools, mit denen Sie KI-Modelle effizient und nach Ihren Vorstellungen einsetzen.

Nochmals reduzierte Kosten

Mit MaaS senden Sie die Kosten über die direkte Verwendung eines Modells für gemeinsam genutzte Ressourcen. Sie werden feststellen, dass für dasselbe Ergebnis weniger GPUs erforderlich sind und sich die GPU-Auslastungsmetriken verbessern. Da die Modelle mit der Zeit immer besser und kleiner werden, können Sie noch mehr profitieren. Sie könnten auch Open Source-Komprimierungstools für Large Language Models (LLM) verwenden, um die Performance und Größe des Modells an Ihre Anforderungen anzupassen. Kurz gesagt hilft MaaS Ihnen dabei, Ihren Footprint und Ihre Modelle zu optimieren, um maximale Gewinne zu erzielen.

Mit MaaS soll eine geeignete Basis geschaffen und gleichzeitig die Zukunft vorbereitet werden. Nehmen wir zum Beispiel KI-Agenten. KI-Agenten sind keine Anwendungen für einmalige Fragen und Antworten. Sie werden weiter nach Antworten suchen, wenn Sie das zulassen. Was bedeutet das? Token.So viele Token. Wenn Sie in der Lage sein wollen, Skalierbarkeit und Ihre Kosten genauer einzuschätzen, sollten Sie MaaS intern betreiben. 

KI wird sich durchsetzen, und es ist Zeit für praktische Überlegungen zu Kosten, Innovationstempo und Datenschutz. Models as a Service (MaaS) ist eine vielversprechende Lösung, der sich Red Hat verschrieben hat. Falls dies auch Ihre Prioritäten sind, ist MaaS eine Überlegung wert.

Sehen Sie sich diese interaktive Demo an, in der Parasol, ein fiktives Versicherungsunternehmen, drei KI-Anwendungen mit MaaS betreibt! Für alle KI-Enthusiasten: Hier ist das MaaS GitHub Repository. Wenn Sie in diesem Jahr am Red Hat Summit teilnehmen, sollten Sie sich unbedingt für die Sessions How to become the hero of your artificial intelligence story und LLM as a Service for Enterprise: Building a customer large language model platform anmelden, um mehr zu erfahren.

resource

Erste Schritte mit KI für Unternehmen: Ein Guide für den Einstieger

In diesem Guide für Einsteiger erfahren Sie, wie Red Hat OpenShift AI und Red Hat Enterprise Linux AI die Einführung von KI beschleunigen können.

Über den Autor

Karl Eklund is a Principal Architect aligning customer goals to solutions provided by the open source community and commercial vendors within the Red Hat OpenShift Data Science platform. Prior to joining Red Hat, Karl advised technology leaders on enterprise data and technology strategies and built machine learning models across multiple academic disciplines.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Nach Thema durchsuchen

automation icon

Automatisierung

Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen

AI icon

Künstliche Intelligenz

Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen

open hybrid cloud icon

Open Hybrid Cloud

Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.

security icon

Sicherheit

Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren

edge icon

Edge Computing

Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen

Infrastructure icon

Infrastruktur

Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen

application development icon

Anwendungen

Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen

Virtualization icon

Virtualisierung

Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen