Mobile-Menu

Lenovo Thinksystem- und Thinkagile V3 mit AMD-Epyc-Gen4-CPUs Datacenter- und Edge-Lösungen von Lenovo für Hybrid-KI

Von Klaus Länger 3 min Lesedauer

Anbieter zum Thema

Lenovo hat AMD-basierte Server vorgestellt, die KI-Workloads an verschieden Orten von Edge bis Cloud verarbeiten. Sie sind Teil des Hybrid-KI-Konzepts des Herstellers und auch über das Datacenter-als-Service-Angebot Truscale erhältlich.

Für besonders rechenintensive KI-Workloads hat Lenovo gemeinsam mit AMD den ThinkSystem-SR685a-V3-8GPU-Server entwickelt. Er ist mit acht Instinct-MI300X-GPUs und zwei Epyc-9004-CPUs von AMD bestückt.(Bild:  Lenovo, AMD)
Für besonders rechenintensive KI-Workloads hat Lenovo gemeinsam mit AMD den ThinkSystem-SR685a-V3-8GPU-Server entwickelt. Er ist mit acht Instinct-MI300X-GPUs und zwei Epyc-9004-CPUs von AMD bestückt.
(Bild: Lenovo, AMD)

Mit drei neuen Server-Lösungen auf AMD-Basis baut Lenovo die Palette an für verschiedene KI-Workloads geeigneten Thinksystem- und Thinkagile-Systemen weiter aus. „Lenovo arbeitet daran, die Gewinnung von Erkenntnissen aus Daten zu beschleunigen, indem wir neue KI-Lösungen für den branchenübergreifenden Einsatz bereitstellen, die einen erheblichen positiven Einfluss auf die täglichen Abläufe unserer Kunden haben“, erklärt dazu Kirk Skaugen, President von Lenovo ISG. „Ob es darum geht, die Fähigkeiten von Finanzdienstleistern zu verbessern, das Einkaufserlebnis im Einzelhandel zu steigern oder die Effizienz unserer Städte zu erhöhen – unser hybrider Ansatz ermöglicht es Unternehmen, eine KI-fähige und KI-optimierte Infrastruktur zu nutzen, um KI vom Konzept zur Realität zu machen.“

Thinksystem SR685a V3 8GPU Server

Für sehr rechenintensive KI-Aufgaben einschließlich GenAI und Large Language Models (LLM) ist der ThinkSystem SR685a V3 8GPU Server gewappnet. Lenovo hat das System in Zusammenarbeit mit AMD entwickelt. Das Herzstück des luftgekühlten 8U-Servers ist in der reinen AMD-Version eine Platine mit acht Instinct-MI300X-OAM-GPUs mit jeweils 192 GB MBM3 als GPU-Speicher. Auf den CDNA3-GPUs sitzen 19.456 Stream-Prozessoren und 1.216 Matrix-Cores verteilt auf 304 Compute Units. Die Instinct MI300X ist die derzeit schnellste GPU für KI und HPC von AMD. Untereinander verbunden sind die acht GPUs durch eine Infinity Fabric, mit den beiden AMD-Epyc-9004-CPUs durch PCIe Gen5 über PCIe-Switches. Unterstützt werden AMD-CPUs der 4. Epyc-Generation (Genoa) mit bis zu 64 Cores. Zudem sitzen auf den CPU-Platine 12 DIMM-Slots pro CPU für bis zu 2,25 TB DDR5-Arbeitsspeicher. Als interner Datenspeicher können bis zu 16 NVMe-SSDs im 2,5-Zoll-Format verwendet werden, für die Netzwerkverbindung bis zu acht 400-GbE-Adapter. Alternativ zu der Plattform mit den AMD-GPUs kann eine HGX-H100-Plattform von Nvidia geordert werden. Später sollen auch H200- oder B100-Plattformen zur Wahl stehen.

Bildergalerie
Bildergalerie mit 6 Bildern

Als Kunden für den Thinksystem SR685a V3 8GPU Server nennt Lenovo Cloud-Anbieter, große Unternehmen oder Forschungseinrichtungen. Geeignet sei der Server für KI-Anwendungen aus den Bereichen Finanzdienstleistungen, Gesundheitswesen, Energie, Klimawissenschaft und Transportwesen.

Thinksystem SD535 V3

Mit einem AMD-Epyc-Prozessor der 4. Generation ist der Serverknoten Thinksystem SD535 V3 bestückt. Bis zu vier dieser Multi-Node-Server mit einer Höheneinheit und halber Breite passen in ein Thinksystem-D3-2U-Gehäuse und teilen sich dort drei Netzteile. Laut Hersteller sind im Thinksystem SD535 V3 Epyc-Prozessoren mit bis zu 400 Watt TDP nutzbar, also damit auch das derzeitige Sigle-Socket-Spitzenmodell 9654P mit 96 Cores. Zudem fasst der kompakte Sever bis zu 1,5 TB RAM und sechs 2,5-Zoll-Laufwerke für Daten mit SAS-, SATA- oder NVMe-Schnittstelle. Das D3-Gehäuse verfügt zudem über einen OCP-3.0-Steckplatz und einen PCIe-Gen5-Slot mit halber Höhe für GPUs mit bis zu 75 Watt TDP.

Neben Anwendungen wie Big Data Analytics, High-Performance-Computing oder Virtualisierung eignet sich der Thinksystem SD535 V3 für das CPU-basierte Inferencing. Mit ZenDNN stellt AMD eine passende Bibliothek bereit.

Thinkagile MX455 V3 Edge Premier

Für den Einsatz an Edge-Standorten ist der robuste Thinkagile MX455 V3 Edge Premier bestimmt. Der Azure-Stack-HCI-Server ist mit Epyc-Prozessoren der Serie 8004 bestückt, die ebenfalls zur 4. Epyc-Generation zählen. AMD hat diese intern als Siena bezeichneten CPUs speziell für Intelligent-Edge-Anwendungen geschaffen. Sie bieten zwischen 8 und 64 Zen-4c-Cores mit reduziertem Level-3-Cache und niedrigerer Leistungsausnahme. Mit sechs Speicherkanälen sind bis zu 576 GB DDR5-SDRAM möglich. Zudem unterstützt das System bis zu sechs Single-Slot-GPUs und kann bis zu acht 2,5-Zoll-Massenspeicher aufnehmen.

Die ebenfalls in Kooperation zwischen Lenovo und AMD entwickelte KI-optimierte Plattform soll laut Hersteller KI-Inferencing und Echtzeit-Datenanalyse am Edge mit der besten Energieeffizienz aller Azure Stack HCI-Lösungen ermöglichen. Das 2U-Gehäuse mit nur 45,2 cm Tiefe kann nicht nur im Rack, sondern auch als Standgerät oder an der Wand montiert genutzt werden. Eine abschließbare Frontblende ist ebenfalls lieferbar. Das Gerät verkraftet Temperaturen zwischen 5 und 45 Grad Celsius im Dauerbetrieb. Das Betriebssystem Azure Stack HCI 23H2 ist vorinstalliert.

AI Advisory and Professional Services

Mit AI Advisory and Professional Services bietet Lenovo darüber hinaus ab sofort eine Reihe von Dienstleistungen an, mit denen Unternehmen bei der Planung, Implementierung, dem Ausrollen und dem Betrieb von KI-Lösungen unterstützt werden. Die Systeme können über TruScale ebenfalls als Service gebucht werden, was die Vorlaufkosten reduziere.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Netzwerktechnik, IP-Kommunikation und UCC

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50025929)