Beiträge

Proxmox VE jetzt mit NVIDIA vGPU: Mehr Power für KI, ML und virtuelle Workstations

Mit der neuesten Entwicklung rund um Proxmox VE (Virtual Environment) wird der Weg frei für eine neue Leistungsklasse bei der Virtualisierung: Die Integration von NVIDIA vGPU (virtual GPU) ermöglicht es nun, Grafikkartenressourcen effizient auf mehrere virtuelle Maschinen (VMs) zu verteilen – ideal für anspruchsvolle Anwendungen wie künstliche Intelligenz (KI), maschinelles Lernen (ML) oder grafikintensive virtuelle Workstations.


Was ist NVIDIA vGPU?

NVIDIA vGPU steht für „virtual GPU“ – eine Technologie, die physische GPUs in mehrere virtuelle Instanzen aufteilt. Jede dieser Instanzen kann einer VM zugewiesen werden und bietet so dedizierte Grafikleistung ohne den Overhead klassischer GPU-Passthrough-Lösungen. Die vGPU-Treiber und das Lizenzmodell von NVIDIA erlauben je nach Bedarf verschiedene Profile – von einfachen Grafikbeschleunigern bis hin zu hochperformanten CUDA-Workloads.


Proxmox VE und GPU-Virtualisierung

Proxmox VE, eine leistungsfähige Open-Source-Plattform für Servervirtualisierung auf Basis von KVM und LXC, unterstützt nun offiziell NVIDIA vGPU in Kombination mit kompatiblen NVIDIA-Karten (z. B. A100, A10, RTX A6000) und entsprechender GRID-Lizenz.

Vorteile im Überblick:

  • Effiziente Ressourcennutzung: Eine GPU – mehrere Nutzer
  • Höhere Dichte: Mehr VMs pro Host, ohne Leistungsverlust
  • Skalierbarkeit: Ideal für Forschung, Entwicklung oder CAD-Workstations
  • Niedrige Latenz: Nahezu native Performance für grafikintensive Aufgaben

Anwendungsszenarien

Die Kombination aus Proxmox VE und NVIDIA vGPU eröffnet neue Möglichkeiten:

  • KI- und ML-Training: Schnelles Training neuronaler Netze auf virtuellen Instanzen mit GPU-Beschleunigung
  • Entwicklung und Simulation: Entwickler können individuelle GPU-Profile nutzen, ohne dedizierte Hardware
  • Virtuelle CAD-Workstations: Designer profitieren von performanten Remote-Desktops mit hoher Grafikleistung
  • Wissenschaftliche Rechenzentren: Flexible Zuweisung von Rechenressourcen an Forschungsgruppen

Voraussetzungen und Einrichtung

Um NVIDIA vGPU mit Proxmox VE zu nutzen, sind folgende Voraussetzungen zu erfüllen:

  • Kompatible NVIDIA-GPU (z. B. A-Serie, RTX Enterprise)
  • NVIDIA vGPU Software + Lizenz (erhältlich über NVIDIA Partner)
  • Aktuelle Proxmox VE Version
  • Linux-Kernel-Kompatibilität (ggf. Anpassung notwendig)
  • vGPU Manager auf dem Hostsystem

Eine detaillierte Anleitung zur Einrichtung findet sich in der offiziellen Proxmox-Dokumentation oder direkt bei NVIDIA.

Mit der Unterstützung für NVIDIA vGPU wird Proxmox VE zur echten Alternative für professionelle Virtualisierungsumgebungen mit hohem Grafik- oder Rechenbedarf. Ob in Forschung, Entwicklung oder kreativen Bereichen – GPU-Virtualisierung bringt Flexibilität, Leistung und Skalierbarkeit in Einklang.

Proxmox – Node aus einem Cluster entfernen

 

Wenn du einen Node aus einem Proxmox VE Cluster entfernen möchtest – sei es wegen Hardwaretausch, Migration oder weil der Node defekt ist – solltest du einige Dinge beachten, um den Cluster stabil und fehlerfrei zu halten.

In diesem Tutorial zeige ich dir Schritt für Schritt, wie du einen Node sicher aus einem Proxmox-Cluster entfernst.


⚠️ Voraussetzungen & Warnung

⚠️ Achtung: Diese Anleitung gilt nur, wenn du den Node dauerhaft und vollständig entfernen willst. Die Schritte sind nicht rückgängig zu machen!

Was du brauchst:

  • Root-Zugriff auf alle Proxmox-Nodes

  • SSH-Zugang zum Cluster

  • Backup deiner VMs/CTs (zur Sicherheit!)

  • Der Node sollte keine laufenden VMs oder Container mehr enthalten


Schritt 1: Prüfen, ob der Node leer ist

Stelle sicher, dass der Node keine wichtigen Ressourcen mehr hält.

# Auf dem zu entfernenden Node
pct list
qm list

Wenn dort noch Container oder VMs sind: migrieren oder löschen!


Schritt 2: Node im Webinterface in den Wartungsmodus setzen (optional)

Gehe im Proxmox Web-GUI zu:

Datacenter → Node auswählen → More → Maintenance Mode aktivieren

Damit werden keine neuen Tasks mehr dorthin verteilt.


Schritt 3: Node aus dem Cluster entfernen

Variante A: Der Node ist noch erreichbar

Gehe auf einen anderen Node im Cluster (nicht den, der entfernt wird) und führe Folgendes aus:

pvecm delnode <NODE-NAME>

Beispiel:

pvecm delnode pve3

Der Node wird nun aus dem Cluster entfernt. Das Webinterface zeigt ihn nach einem Refresh nicht mehr an.


Variante B: Der Node ist

nicht mehr erreichbar

(z. B. defekt)

In diesem Fall kannst du den Node trotzdem aus dem Cluster entfernen. Gehe dazu ebenfalls auf einen erreichbaren Node:

pvecm delnode <NODE-NAME>

Zusätzlich solltest du danach auf allen verbleibenden Nodes prüfen, ob der entfernte Node noch in irgendwelchen Konfigurationen oder der /etc/hosts Datei auftaucht, und diese ggf. bereinigen.


Schritt 4: Aufräumen

Auf allen Nodes:

  • Lösche Einträge in /etc/pve/ (z. B. Storage- oder Netzwerkconfigs, falls vorhanden)

  • Passe /etc/hosts und evtl. DNS-Einträge an

  • Entferne SSH-Keys, falls du sie manuell eingerichtet hast


Bonus: Node neu in einen anderen Cluster integrieren?

Wenn du denselben Server später in einen neuen Cluster aufnehmen willst, solltest du das System neu installieren oder pvecm expected 1 + pvecm create nutzen.

Alternativ:

rm -r /etc/pve/corosync.conf
rm -r /etc/corosync/*

Und dann den Node ganz normal zu einem neuen Cluster hinzufügen.


✅ Fazit

Das Entfernen eines Nodes aus einem Proxmox Cluster ist relativ einfach – wenn man es strukturiert und mit Vorsicht angeht. Denk immer an Backups und überprüfe, ob der Node wirklich keine Ressourcen mehr verwaltet.

 

Weitere Doku gibt es auch bei Proxmox oder Thomas Krenn –

Proxmox – Netzwerkbrücken und VLANs in Proxmox einrichten

Ziel:

  • Erstellen von Netzwerkbrücken für VMs/Container
  • VLANs für segmentiertes Netzwerk

Schritt 1: Bridge konfigurieren

Bearbeite /etc/network/interfaces:

auto vmbr0
iface vmbr0 inet static
    address 192.168.1.10
    netmask 255.255.255.0
    gateway 192.168.1.1
    bridge_ports enp3s0
    bridge_stp off
    bridge_fd 0

Schritt 2: VLANs anlegen

Für VLAN 10 auf vmbr0:

auto vmbr0.10
iface vmbr0.10 inet static
    address 192.168.10.1
    netmask 255.255.255.0
    vlan-raw-device vmbr0

Tipps:

  • VLAN-Tagging funktioniert nur mit VLAN-fähigem Switch

Proxmox – LXC-Container erstellen und verwalten

Schritt 1: Template herunterladen

Unter „Storage“ > „CT Templates“ ein passendes Template herunterladen

Schritt 2: Container erstellen

  • „Create CT“ klicken
  • Hostname, Passwort und Template wählen
  • Ressourcen und Netzwerk konfigurieren

Schritt 3: Container starten

  • Container starten, Konsole öffnen, System konfigurieren

Tipps:

  • Container starten schneller, ideal für Webserver und kleine Dienste

Proxmox – Erstellung und Verwaltung von virtuellen Maschinen (VMs)

Schritt 1: ISO-Image hochladen

Im Webinterface unter „Storage“ > „local“ > „Content“ das ISO hochladen

Schritt 2: Neue VM erstellen

  • „Create VM“ klicken
  • Name vergeben
  • ISO wählen, Hardware (CPU, RAM, Festplatte, Netzwerk) konfigurieren
  • Zusammenfassung prüfen, „Finish“

Schritt 3: VM starten

  • VM auswählen, starten, Konsole öffnen und OS installieren

Tipps:

  • VirtIO-Treiber für bessere Leistung verwenden
  • Snapshots vor großen Änderungen machen

Proxmox VE 8.x Installation auf Bare-Metal: Schritt-für-Schritt-Anleitung

 

 

Voraussetzungen:

  • 64-Bit CPU mit Virtualisierungstechnologie (Intel VT-x oder AMD-V)
  • Mindestens 8 GB RAM
  • Zwei Festplatten (empfohlen für ZFS RAID1)
  • Bootfähiger USB-Stick mit Proxmox VE ISO

Schritt 1: ISO herunterladen und USB-Stick erstellen

Lade die aktuelle Proxmox VE ISO herunter und erstelle mit balenaEtcher einen bootfähigen USB-Stick.

Schritt 2: BIOS/UEFI konfigurieren

  • Aktiviere VT-x/AMD-V sowie IOMMU (Intel VT-d/AMD-Vi)
  • Stelle die Boot-Reihenfolge auf USB-Start um

Schritt 3: Proxmox VE installieren

  • Vom USB-Stick booten, „Install Proxmox VE“ wählen
  • Lizenz akzeptieren, Ziel-Festplatte und Dateisystem (z.B. ZFS RAID1) auswählen
  • Standort, Zeitzone, Tastatur, Root-Passwort und Netzwerk konfigurieren

Schritt 4: Webinterface aufrufen

Nach dem Neustart ist das Webinterface über https://ip-adresse-des-servers:8006 erreichbar.

Tipps:

  • Nutze das No-Subscription-Repository, wenn du keine Enterprise-Lizenz besitzt
  • Systemaktualisierung: apt update && apt full-upgrade