Dienstag, 13. April 2021
Lanner - -Die Network Appliance und die KI-Plattform für das Edge-Computing von Lanner wurden jetzt offiziell als Cloud-fähige Lösungen für die Grafikprozessor-Technologie von NVIDIA validiert
Lanners erste NGC-fähige Plattform, mit der sich die Virtualisierung von NVIDIA-Anwendungen für Edge-Systeme und Cloud-Computing in 5G-Netzwerken beschleunigen lässt

Lanner Electronics (TAIEX 6245) ist ein weltweit führender Anbieter von SDN- und NFV-Technologien für die Automatisierung verschiedener Netzwerk-Funktionen und robuster Applied-Computing-Plattformen. Nun gibt das Unternehmen bekannt, dass seine hyperkonvergente Infrastruktur-Appliance FX-3420 und seine Edge KI Appliance LEC-2290 offiziell als NGC-fähige Server für Edge-Computing-Plattformen validiert wurden. In einer Konfiguration mit dem Grafikprozessor T4 von NVIDIA® wurden die Lanner-Netzwerk-Appliances auf Funktionalität und Leistung getestet. Außerdem wurde überprüft, wie leicht sich die Lösungen in KI-Frameworks und virtualisierte, disaggregierte 5G-fähige Netzwerkarchitekturen integrieren lassen.

?Durch die Validierung der Netzwerk-Appliances von Lanner als NGC-fähige Lösung können unsere Kunden ihre hyperkonvergenten KI-fähigen Anwendungen unabhängig von der Branche noch schneller am Edge implementieren?, erklärt Jeans Tseng, CTO von Lanner. ?So können Telekommunikationsunternehmen die Edge-KI einsetzen, um den Einsatz fortschrittlicher Lösungen voranzutreiben. Als Beispiele seien hier die Open RAN-Architektur in 5G-Netzwerken, Edge-Rechenzentren, private Netzwerke und MEC-Server genannt.?

Der Validierung als NGC-fähige Lösungen gingen umfangreiche Tests voraus. So wurden der FX-3420 und der LEC-2290 probeweise in zahlreichen Anwendungen für On-Premise-, Cloud- und Edge-Implementierungen eingesetzt. Dank der Validierung der Netzwerk-Appliances von Lanner können Kunden mit NVIDIAs großem Angebot an Grafikprozessoren und Softwarelösungen die unterschiedlichsten Anwendungen beschleunigen und so in Echtzeit intelligente Entscheidungen treffen. Dadurch können sie leicht Workflow-Compute-Umgebungen, einschließlich hybrider und Multi-Cloud-Implementierungen, migrieren, GPU-optimierte Software auf Bare-Metal-Servern oder in virtualisierten Umgebungen ausführen und so die Auslastung von GPUs sowie die Netzwerk-Interoperabilität verbessern.

... comment