Wieder Hanau?! Ja…ok…die Stadt mit einem kleinen Problem an verfügbaren Hotelzimmer…aber: Kleinigkeiten…das Conference Center ist wieder einmal die Städte der CDC Germany geworden…zum dritten Mal in Folge!
So langsam weiß man ja auch, dass man wenn man ein nettes Hotelzimmer haben will, eben frühzeitig buchen muss…
Btw: Auch wir haben es heute wieder getan…6 Mitarbeiter der TrinityComputer.de GmbH werden nächstes Jahre erneut an der CDC (und dem vermutlich wieder am Vortrag stattfindenden Hyper-V-Communitytreffen) teilnehmen!
Wir freuen uns!
Highest Level technical Content von Top Speakern sind wieder einmal garantiert, wenn Carsten und seine Firma die MVP Kollegen aus der ganzen Welt nach Hanau einladen!
Hyper-V, Azure, HCI, AD, Server, Hardware Lösungen, Backup,…alle werden vermutlich wieder vertreten sein und wer nicht teilnimmt, egal ob als Teilnehmer oder Sponsor/Hersteller, macht was falsch! Definitiv!
Wer dabei sein will sollte sich beeilen, die SuperEarly Bird Phase für Wiederholungstäter läuft gerade noch, und die Tickets sind beliebt… 3 Tage “technische Schulung” für Geek/Nerd Mitarbeiter für unter 400 EUR zzgl. ggf. Hotelkosten sind für Systemhäuser mit Fokus auf Microsoft Infrastruktur geradezu ein Schnäppchen und daher ein “must-buy” oder “shutupandtakemymoney” Deal!!
Wir betreiben einige Server 2019 Storage Spaces Direct aka Azure Stack HCI Cluster und sind auf folgendes nicht ganz einfach zu findendes Thema gestoßen:
Erweiterung des StoragePools und letztlich Volumes in einem zwei Knoten Cluster mit Nested Mirrored Reciliency (NestedMirror, DoubleMirror, oder wie auch immer man es nennen mag).
Hat 10TB Kapazität aktuell, es sind, durch Tausch einiger SSDs durch welche desselben Typs, aber mit größerer Kapazität, (siehe andere zukünftiges Posting) im Pool jetzt aber noch knapp 9TB (ohne Redundanzen) im Pool ungenutzt:
Die kann man aber nicht einfach grafisch über den Servermanager hinzufügen:
Auch über das AdminCenter habe ich keine Möglichkeit gefunden…
Mittels Powershell (über den aktuellen Besitzerknoten (!!!!), also den mit Schreibzugriff, des Pools) geht es aber:
Zuerst lassen wir uns mal die aktuelle Größe des StorageTiers im Pool Anzeigen:
Get-VirtualDisk -FriendlyName s2* | Get-StorageTier | ft FriendlyName, @{Label=’Freespace(GB)‘;Expression={$_.Size/1GB}} -AutoSize
(Wobei ‚Freespace(GB)‘ hier wohl besser ‚CurrentSize(GB)‘, also „aktuelle Größe“ heißen sollte…das war in der von mir genutzten englischsprachigen Referenz leider so angegeben)
Also besser:
Get-VirtualDisk -FriendlyName s2* | Get-StorageTier | ft FriendlyName, @{Label=’CurrentSize(GB)‘;Expression={$_.Size/1GB}} -AutoSize
Zeigt maxEnvelopeSizekb von 500 oder ähnlich…Fehlermeldung verweist auf 512kb Größe des WinRM Paketes, also zu klein!
Fix
(Nur unter Admin CMD.exe, nicht in der Powershell machbar!!)
winrm set winrm/config @{MaxEnvelopeSizekb=“8192″}
Größe von 8192kb hatte ich in einem Posting als Empfehlung gefunden, setzt hier ggf. andere Werte ein, welche für euch funktionieren/sinnvoll erscheinen…
Dann die Anzeige im Servermanager refreshen/aktualisieren und die Nodes können sich gegenseitig wieder als Online sehen und per winrm abfragen:
Quick fix for an issue we recently had on a customers Windows 2012 R2 Hyper-V cluster
[Window Title] Fehler [Main Instruction] Vorgangsfehler [Content] Die Änderungen an der IPv6-Adresse „IP-Adresse: <nicht konfiguriert>“ konnte nicht gespeichert werden. [^] Details ausblenden [OK] [Expanded Information] Fehlercode: 0x80071709 Es stehen zwei oder mehr für eine Ressourceneigenschaft angegebene Parameterwerte in Widerspruch
Hyper-V-Replikatbroker
Netzwerkname:
RepBrokPSCL
Organisationseinheit:
CN=Computers,DC=ps,DC=local
IP-Adresse:
IPv6-Adresse auf 2003:a:117f:ad31::/64
IP-Adresse:
192.168.0.217
Gestartet
15.05.2019 18:21:22
Abgeschlossen
15.05.2019 18:21:26
Gruppe „RepBrokPSCL“ wird erstellt.
Hyper-V-Replikatbroker-Ressourcen werden erstellt.
Hyper-V-Replikatbroker Ressourcen werden konfiguriert.
Hyper-V-Replikatbroker-Netzwerk wird konfiguriert.
Gültigkeit der Clientzugriffspunkt-Einstellungen wird überprüft.
Netzwerknamenressource wird konfiguriert.
Neue IP-Adressressourcen werden konfiguriert.
Fehler beim Erstellen von „Hyper-V-Replikatbroker“.
Fehler beim Erstellen eines Clientzugriffspunkts für „RepBrokPSCL“.
Fehler beim Speichern der Änderungen am Clientzugriffspunkt.
Fehler beim Aktualisieren von IP-Adressressourcen.
Geänderte Eigenschaften für „IP-Adresse 2003:a:117f:ad31::“ können nicht gespeichert werden.
Es stehen zwei oder mehr für eine Ressourceneigenschaft angegebene Parameterwerte in Widerspruch
Vorheriger Clusterstatus wird wiederhergestellt.
Cause and Fix:
IPv6 is enabled on two internal NICs and Cluster Test reports IP adresses in same subnet on multiple Networkadapters:
Die Adapter „Heartbeat“ und „Ethernet 2“ auf dem Knoten „PSCN1.ps.local“ besitzen IP-Adressen im selben Subnetz.
Mehrere Netzwerkadapter auf dem Knoten „PSCN1.ps.local“ haben Adressen im selben Subnetz. Vom Failoverclustering wird nur ein Netzwerkadapter pro Subnetz verwendet. Es wird empfohlen, dass Sie Adapter in unterschiedlichen Subnetzen konfigurieren oder einen NIC-Teamvorgang verwenden, um mehrere physikalische Adapter in einem einzelnen logischen Adapter zu kombinieren.
Die Adapter „Heartbeat“ und „Ethernet 2“ auf dem Knoten „PSCN2.ps.local“ besitzen IP-Adressen im selben Subnetz.
Mehrere Netzwerkadapter auf dem Knoten „PSCN2.ps.local“ haben Adressen im selben Subnetz. Vom Failoverclustering wird nur ein Netzwerkadapter pro Subnetz verwendet. Es wird empfohlen, dass Sie Adapter in unterschiedlichen Subnetzen konfigurieren oder einen NIC-Teamvorgang verwenden, um mehrere physikalische Adapter in einem einzelnen logischen Adapter zu kombinieren.
Quick Fix:
Disable IPv6 on one of the NICs in every node:
In our case we choose to disable IPv6 on the Heartbeat network the fomer IT supporter had setup for the cluster:
(although I generally don’t like disabling IPv6 at all, but for the matter of a migration off this cluster it was an acceptable, cause only short term lived, workaround for us)
After this, setup of replication broker role was successfully on the cluster:
Hope this helps others having the same issue to quick fix it.
We happily did fix this and could move on with migration of the VM to Server 2019 after this.
Als erfahrender Besucher von community und kommerziell betriebenen technischen Veranstaltungen und Konferenzen sticht die CDC besonders positiv hervor!
Man hat nicht das Gefühl Marketing-Foliensätze von vertrieblich getriebenen, halbtechnischen Vortragenden, wie auf so mancher Herstellerveranstaltung, präsentiert zu bekommen, sondern es werden extrem tiefgehend technische Themen betrachtet und vor allem auch Grenzen und Probleme der Produkte offen angesprochen.
Direkt durch Hersteller gestellte Vortragende machen das in der klaren Art und Weise auf Veranstaltungen leider nur sehr selten.
Trotz der notwendigen Professionalität der Veranstaltung, welche auf anderen Community Events manchmal etwas zu untergeordnet ist, kommt auch das von mir sehr geschätzte sogenannte „Networking“ nicht zu Kurz und hat reichlich Raum. Der Veranstaltungsort hat dies durch seine offene aber auch zusammenhängende Gestaltung des Vortrags- und Partnerbereichs sehr gefördert. Ich hoffe das wird in 2017 am neuen Ort in München auch wieder so gut klappen.
Mein Ticket habe ich schon am ersten Tag der EarlyBird Phase gebucht und noch weitere Mitarbeiter unserer Firma für die Reise nach München begeistern können, so dass wir mit 400% der Personen teilnehmen werden wie zuletzt!
Durch Installation u.a. der für Hyper-V empfohlenen Hotfixes aus der Liste unter https://support.microsoft.com/en-us/kb/2974503 wurden die Hyper-V Virtual Maschine Additions (aka vmguest.iso, VMAdditions, Hyper-V Additions, etc.) auf den Hyper-V Hosts (hier Hyper-V 2012 R2) aktualisiert.
Dies erfolgt z.B. durch den Hotfix 3063283.
Im vorliegenden Fall auf Version 6.3.9600.17831 oder kurz 17831.
Da SCVMM (System Center Virtual Maschine Manager 2012 R2) eingesetzt wird, sollten die VMs (virtuellen Maschinen) über die Funktion “Install Virtual Guest Services” unter “VMs and Services” aktualisiert werden.
Leider stellte sich heraus, dass VMM diesen Job zwar angeblich erfolgreich ausführte, aber die Version der “VMAdditions” der VMs sich nicht änderte, sprich auf dem alten Stand vor 17831 verblieb.
„SCVMM 2012 R2 CU8 aktualisiert die virtuellen Maschinen nicht mit der auf den Hyper-V (Datacenter 2012 R2) Hosts aktualisierten VM Guest Services, sondern anscheinend mit der vorherigen (alten) Version.
Ist zwar erfolgreich, aber aktualisiert die Guest Services nicht, aka die Versionsnummer in SCVMM bleibt gleich, auch nach einem Reboot und SCVMM Refresh der VM.“
Auffällig scheint das evtl. 2012 (also nicht 2012 R2) VMs sehr wohl aktualisiert werden können, da wir aber nur eine kleine Anzahl 2012er VMs haben können wir das aktuell nicht so ohne weiteres bestätigen.
Das Issue scheint als Bug schon bei MS gelandet zu sein:
1. Please detail the exact steps needed to repro this problem. This includes:
· Detailed repro steps
· Hardware configuration
· Network infrastructure / configuration
· Operating system version
· SC product version (including UR upgrades)
a. VMM 2012 R2 UR8 on Windows Server 2012 R2.
b. Hyper-V host running Windows Server 2012 R2.
c. Guest VM running Windows Server 2012 R2.
d. Apply hotfix 3063283 on the host.
e. Shut down the VM.
f. In VMM Console, select the VM and click Install Virtual Guest Services.
g. In job history, wait for the „Change properties of a virtual machine“ job to complete.
h. Start and refresh the VM.
Expected: VM Additions show as 6.1.7601.17514
Actual: VM Additions show as 6.1.7601.17514
Bis auf die, im vorliegenden Fall neueren Versionsnummern 17831 deckte sich das Verhalten mit der Problemstellung beim Kunden.
Als Workaround empfiehlt MS die alternative Verteilung der VMAddtions z.B. mittels SCCM oder auf dem manuellen Wege über das Anhängen der VMGuest.iso an jede VM und dann geskripted oder manuelles Einloggen in die VM und Installieren der Additions auf dem Wege. Letzteres erfordert leider Login und Adminrechte in den VMs, die wir bei dem Kunden nicht auf allen VMs haben, weshalb dieser Workaround nicht praktikabel erschien.
Letztes haben wir uns für folgenden Workaround entscheiden, welche die gewünschte Funktionalität unter SCVMM wieder herstellt:
Manually copy vmbus.sys from vmguest.iso to the %windir%\System32\drivers folder on the Hyper-V hosts.
Später, bzw. ggf. auf Anfrage, gerne das Powershell skript zum Kopieren der vmbus.sys auf alle Hyper-V Hosts einer SCVMM Umgebung.
Hier nur mal die entscheidende Zeile, welche die Datei kopiert:
Mit dem folgenden Powershell snipplet werden alle VMs eines Hyper-V Hosts (hier eines Clusterknotens, –HighAvailablity $true) auf einen anderen Hyper-V Host migriert.
Mittels des –RunAsyncronously attributes kann festgelegt werden, ob eine VM nach der Anderen oder so viele wie die Migrationseinstellungen der Host gleichzeitig zulassen migriert werden:
$SourceHost = Get-SCVMHost | where { $_.Name -eq „<souceHost-FQDN>“ }
$TargetHost = Get-SCVMHost | where { $_.Name -eq „<TargetHost-FQDN>“ }
Die CPU Kompatibilität für virtuelle Hyper-V Maschinen kann zur Live Migration der VMs auf einen Host mit einer anderen Prozessor Generation notwendig sein. Daher empfehle ich immer diesen Modus auf allen VMs zu aktiveren, die nicht explizit auf die erweiterten Features angewiesen sind.
Im aktuellen Projekt hatten wir die Herausforderung dies bei allen VMs einer Domain umzustellen, natürlich dann nicht mehr per Hand/GUI, sondern natürlich mal wieder per PowerShell!
Ich habe also mal schnell ein kleine Skript gebaut, welches das für alle VMs einer Domain mit integriertem System Center Virtual Maschine Manager (VMM) umsetzt:
Voraussetzung ist, das alle VMs ausgeschaltet/heruntergefahren sein müssen!
Clear-Host
$VMs = Get-SCVirtualMachine
ForEach ($VM in $VMs)
{
Write-Host
Write-Host „Setze LimitCPUForMigration auf ‚true‘ für VM “ $VM -ForegroundColor Yellow
Der zweite (auskommentierte Teil) der Schleife würde auf der VM auch gleich das automatische Herunterfahren der VM (standard ist hier “speichern/safe state”) bei der “Automatic Stop Action” eintragen. Dies haben wir hier beim Kunden auch direkt mit umgesetzt.