Automatische Skalierung zur Kostenoptimierung von Azure Virtual Desktop

Was ist AVD-Autoskalierung und warum ist sie wichtig?

Die automatische Skalierung von Azure Virtual Desktop (AVD) passt die Anzahl aktiver Sitzungshost-VMs (virtuelle Maschinen) dynamisch an die tatsächliche Benutzernachfrage an. So lassen sich Kosten deutlich reduzieren, da ausserhalb der Spitzenzeiten keine ungenutzten Rechenressourcen bezahlt werden müssen. Gleichzeitig bleibt die Performance für die Benutzer gewährleistet.

Dieser Blogbeitrag entstand enger Zusammenarbeit mit Nerdio, gemeinsam mit unseren Azure Experten Stefan Beckman (MVP & NVP) und Pratheep Sinnathurai (MVP).

baseVISION ist zudem Nerdio Gold Partner, wodurch wir direkten Zugang zu Best Practices und tiefem Produktwissen haben – zum Vorteil unserer Kunden und der Community.

Grundlegende Konzepte zu AVD-Kosten und Skalierung

Ein genauer Blick auf die Kostentreiber einer AVD-Umgebung zeigt, wo Optimierung am meisten Wirkung entfaltet.

Hauptfaktoren der AVD-Kosten

Während Speicher und Netzwerk mit Kosten verbunden sind, ist der Haupttreiber Ihrer AVD-Betriebskosten die VM-Compute-Leistung. Sie werden für die Zeit abgerechnet, in der Ihre Session-Host-VMs laufen, wodurch dies der kritischste Bereich zur Optimierung ist.

  • Rechenkosten: Stundenkosten für Sitzungshost-VMs sind der grösste und variabelste Faktor und damit das wichtigste Ziel für Optimierungsmassnahmen.
  • Speicherkosten: Entstehen durch verwaltete Datenträger und den Speicher für Benutzerprofile, meist auf Azure Files oder Azure NetApp Files mit FSLogix.
  • Netzwerkkosten: Fallen in der Regel gering aus, es sei denn, grosse Datenmengen werden häufig aus Azure transferiert.
  • Lizenzkosten: AVD ist in vielen Microsoft 365- und Windows-Lizenzen bereits enthalten, zusätzliche Gebühren sind daher oft nicht nötig.

Direkte Kostensenkung durch Auto-Scaling

Automatisches Skalieren senkt Ihre Kosten, indem sichergestellt wird, dass Sie nur für die Compute-Ressourcen zahlen, die Sie tatsächlich nutzen. Durch die Automatisierung des Ein- und Ausschaltens von VMs können Sie Ihre Ausgaben direkt an die Arbeitsmuster Ihrer Organisation anpassen.

  • Überflüssiges vermeiden: VMs werden nachts und am Wochenende automatisch heruntergefahren. Ein Wechsel vom 24/7-Betrieb zu 10 Stunden pro Tag, 5 Tage die Woche, kann die Rechenkosten um mehr als 70 % senken.
  • Angebot und Nachfrage ausgleichen: Zusätzliche VMs werden bei höherer Last gestartet, bei sinkender Last wieder entfernt. Überbereitstellung und Engpässe werden so vermieden.
  • Effiziente Nutzung der Hosts: Benutzer werden auf möglichst wenige VMs konsolidiert, bevor ungenutzte Maschinen abgeschaltet werden.

Native Azure-Methoden für Auto-Scaling

Azure stellt integrierte Tools bereit, die eine grundlegende automatische Skalierung ermöglichen. Diese bieten einen soliden Einstieg, bringen aber auch Einschränkungen mit sich.

Skalierungspläne

Das zentrale native Tool für AVD-Autoskalierung sind Skalierungspläne. Sie bestehen aus Regeln und Zeitplänen, die einem Hostpool zugeordnet werden und festlegen, wann Sitzungshosts starten oder stoppen.

  • Kernkomponenten: Zeitpläne für verschiedene Phasen wie Hochlauf, Spitzenzeiten oder Nebenzeiten.
  • Auslöser und Parameter: Regeln zur Konsolidierung von Benutzern und zum Herunterfahren leerer VMs während den Randzeiten.
  • Lastenausgleich: Zwei Modelle stehen zur Verfügung – Breadth-first verteilt Sitzungen gleichmässig, Depth-first füllt eine VM zuerst und ermöglicht dadurch schnellere Kostenreduktion.

Einschränkungen nativer Pläne

Obwohl nützlich, können Azures native Skalierungspläne starr sein und die für dynamische Arbeitsumgebungen notwendige Intelligenz vermissen lassen. Dies führt häufig zu höherem Verwaltungsaufwand und weniger effektiver Kostenoptimierung.

  • Zeitbasiert und unflexibel: Reagiert nicht dynamisch auf unerwartete Änderungen im Benutzerverhalten.
  • Begrenzte Auslöser: Keine Möglichkeit, Skalierung anhand von CPU-/Speicherlast oder aktiven vs. getrennten Sitzungen zu steuern.
  • Hoher Verwaltungsaufwand: Mehrere Hostpools erfordern oft manuelle Anpassungen im Portal oder komplexe Skripte.
  • Fehlende Kostenanalyse: Einsparungen werden nicht automatisch ausgewiesen, der ROI bleibt schwer nachweisbar.

Wie spezialisierte Plattformen Auto-Scaling verbessern

Um diese Einschränkungen zu überwinden, setzen viele Unternehmen auf spezialisierte AVD-Management-Plattformen. Sie bieten intelligentere und flexiblere Funktionen, die mehr Kosteneinsparungen bei geringerem Aufwand ermöglichen.

Vorteile spezialisierter Plattformen

Spezialisierte AVD-Plattformen fungieren als zentrale Verwaltungs- und Automatisierungsschicht über Azure. Sie sind darauf ausgelegt, alle Aspekte des AVD-Betriebs zu vereinfachen, insbesondere die komplexe und kritische Aufgabe des Auto-Scalings.

  • Zentrale Verwaltung: Skalierung, Hostpool-Erstellung, Image-Updates und Sitzungsüberwachung über eine einheitliche Oberfläche.
  • Vorlagenbasierte Konfiguration: Skalierungslogik einmal definieren und auf zahlreiche Hostpools anwenden – spart Zeit und schafft Konsistenz.
  • Keine Skripte notwendig: Erweiterte Automatisierung wird durch GUI-basierte Steuerung auch ohne tiefes Coding-Know-how nutzbar.

Erweiterte Funktionen mit Nerdio Manager

Nerdio Manager for Enterprise erweitert die Möglichkeiten der nativen Azure-Tools erheblich:

  • Prädiktive und reaktive Skalierung: Startet VMs vorausschauend vor erwarteten Logins und reagiert gleichzeitig in Echtzeit auf Metriken wie CPU, Speicher oder Sitzungsanzahl.
  • Kostenbasierte Optimierung: Skalierung lässt sich direkt auf definierte Einsparungsziele ausrichten.
  • Granulare Trigger: Unterscheidung zwischen aktiven und getrennten Sitzungen sorgt dafür, dass Hosts nur dann heruntergefahren werden, wenn sie wirklich nicht mehr benötigt werden.
  • Integrierte Kostenberichte: Dashboards zeigen Einsparungen im Vergleich zum 24/7-Betrieb und machen den ROI transparent.

Strategien und Best Practices für Auto-Scaling

Eine effektive Implementierung von Auto-Scaling erfordert mehr als nur das Festlegen eines Zeitplans. Das Verständnis wichtiger technischer Konzepte und Best Practices hilft Ihnen, Ihre Strategie für maximale Einsparungen und ein reibungsloses Benutzererlebnis zu optimieren.

Breadth-first vs. Depth-first

Die Wahl der richtigen Load-Balancing-Methode ist entscheidend für die Kostenoptimierung. Sie bestimmt, wie Benutzer-Sessions auf die verfügbaren VMs im Host-Pool verteilt werden.

  • Breadth-first: Verteilt Sitzungen gleichmässig, hält aber mehr VMs aktiv – weniger kosteneffizient.
  • Depth-first: Füllt eine VM vollständig, bevor die nächste genutzt wird – die bevorzugte Methode zur Kostenoptimierung.

Plattformen wie Nerdio Manager ermöglichen es Ihnen, die Load-Balancing-Methode, die am besten zu Ihrer Skalierungsstrategie passt, einfach zu konfigurieren.

Umgang mit getrennten Sitzungen

Getrennte Sitzungen verhindern oft das automatische Herunterfahren einer VM. Typisch ist der Fall, dass ein Benutzer den Client schliesst, ohne sich abzumelden.

  • Das Problem: Ein Benutzer, der den Remote-Desktop-Client einfach schliesst, ohne sich abzumelden, lässt eine getrennte Sitzung laufen. Befindet sich dies auf der letzten Sitzung einer VM, kann diese VM nicht heruntergefahren werden.
  • Die Lösung: Best Practice ist es, Richtlinien festzulegen, die getrennte Sitzungen nach einer bestimmten Zeit automatisch abmelden (z. B. 30–60 Minuten). Dies kann über Gruppenrichtlinien erfolgen oder einfacher über eine AVD-Management-Plattform wie Nerdio, die dies automatisch als Teil ihrer Skalierungslogik handhaben kann.


Fazit und nächste Schritte

Ein Gespräch mit einem baseVISION-Experten zeigt auf, wie sich eine massgeschneiderte Strategie entwickeln lässt – abgestimmt auf die Anforderungen der Organisation und die Arbeitsmuster der Benutzer.