Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI ist eine Plattform für Basismodelle, mit der Sie Unternehmensanwendungen mithilfe von großen Sprachmodellen (LLMs) der Granite-Familie nahtlos entwickeln, testen und bereitstellen können.
Kontrolle über LLMs mit Open Source
Generative KI ist ein Katalysator für bahnbrechende Veränderungen, die von der Entwicklung von Software bis hin zur Kommunikation vieles verändern werden. Häufig sind die für generative KI verwendeten LLMs jedoch streng kontrolliert und können nicht ohne spezielle Kompetenzen und hohe Kosten bewertet oder verbessert werden.
Die Zukunft sollte nicht in den Händen einiger weniger Personen liegen. Mit Red Hat Enterprise Linux AI und seinem Open Source-Ansatz können Sie Innovationen mit generativer KI mit Vertrauen und Transparenz fördern, während Sie gleichzeitig die Kosten senken und Einstiegshürden beseitigen.
Mit InstructLab, einer communitybasierten Lösung zur Verbesserung der LLM-Funktionen, können Sie sogar direkt zur KI-Modellentwicklung beitragen.
Funktionsweise von Red Hat Enterprise Linux AI
In Red Hat Enterprise Linux AI sind folgende Komponenten vereint:
- Die Granite-Familie lizenzierter Open Source-LLMs, vertrieben unter der Apache-2.0-Lizenz mit vollständiger Transparenz bezüglich Trainingsdatensätzen
- InstructLab-Tools für die Modellanpassung, mit denen von der Community entwickelte LLMs einer großen Anzahl von Nutzenden zur Verfügung stehen
- Ein bootfähiges Image von Red Hat Enterprise Linux, einschließlich gängiger KI-Libraries wie PyTorch und hardwareoptimierter Inferenz für NVIDIA, Intel und AMD
- Unternehmensgerechten technischen Support und eine Regelung zum geistigen Eigentum der Modelle, bereitgestellt von Red Hat
Red Hat Enterprise Linux AI ermöglicht die Portierbarkeit in verschiedenen Hybrid Cloud-Umgebungen. Anschließend können Sie Ihre KI-Workflows mit Red Hat OpenShift® AI skalieren und um IBM watsonx.ai mit zusätzlichen Funktionen für unternehmensgerechte KI-Entwicklung, Datenverwaltung und Modell-Governance erweitern.
Die Einführung von Red Hat Enterprise Linux AI erfolgt als Vorschau für Entwicklungsteams, wobei die allgemeine Verfügbarkeit in den kommenden Monaten erwartet wird.
Features und Vorteile
LLMs für Unternehmen
IBM Granite-LLMs mit Open Source-Lizenz sind in der Apache-2.0-Lizenz enthalten und werden von Red Hat vollständig unterstützt und schadlos gehalten.
Community-Zusammenarbeit
InstructLab ermöglicht ein vereinfachtes Experimentieren mit generativen KI-Modellen sowie optimierte Modellanpassung.
Cloudnative Skalierbarkeit
Mit dem Image-Modus von Red Hat Enterprise Linux können Sie Ihre KI-Plattform als Container Image verwalten und so Ihren Skalierungsansatz optimieren.
Beschleunigung und KI-Tools
Open Source-Hardwarebeschleuniger und die optimierten Deep Learning-Features von PyTorch sorgen für schnellere Ergebnisse.
Warum Red Hat Enterprise Linux AI?
Red Hat Enterprise Linux ist die weltweit führende Linux-Plattform für Unternehmen, die für Hunderte von Clouds und Tausende von Hardware- und Softwareanbietern zertifiziert ist. Mit der technologischen Basis von Linux, Containern und Automatisierung gibt Ihnen die Open Hybrid Cloud-Strategie von Red Hat die Flexibilität, Ihre KI-Anwendungen dort auszuführen, wo Sie sie benötigen.
Red Hat Enterprise Linux AI, Granite und InstructLab tragen zur Verwirklichung dieser Vision bei, indem sie die Kosten- und Ressourcenbarrieren für das Experimentieren mit und die Entwicklung von KI-Modellen überwinden und gleichzeitig die für die nächste Welle intelligenter Workloads benötigten Tools, Daten und Konzepte bereitstellen.
Zugehörige Ressourcen
Artikel
Was ist InstructLab?
Produkt
Red Hat OpenShift AI
Überblick