[[todo]] Es gibt Seiten zu VMWare und vSphere
Siehe [[vsphere|vSphere]]. VMWare unterstützt [[numa|NUMA]]. Siehe [[https://docs.vmware.com/de/VMware-vSphere/7.0/com.vmware.vsphere.resmgmt.doc/GUID-BD4A462D-5CDC-4483-968B-1DCF103C4208.html|VMWare NUMA]].
Man kann vSphere mit [[PowerCLI]] automatisieren.
Photon OS ist ein minimalistisches Container-Host-Linux, das für den Betrieb auf VMware-Plattformen optimiert ist, aber auch in anderen Umgebungen laufen kann.
=====Dateiformate=====
Templates werden als **OVF** (Open virtualization format) Dateien gespeichert.
* **VMDK** Dateien bilden virtuelle Festplatten ab.
* **VMX** Dateien sind Konfigurationsdaten für eine virtuelle Maschine. Dazu zählen unter anderem Angaben zur virtuellen Hardware (Zahl der CPUs, verfügbares RAM), zur Art der Netzwerkanbindung (NAT, bridged, etc) oder zu den VMware Tools.
* **VMSD** Dateien sind Snapshots einer VM.
Siehe auch die [[https://docs.vmware.com/de/VMware-vSphere/7.0/com.vmware.vsphere.vm_admin.doc/GUID-CEFF6D89-8C19-4143-8C26-4B6D6734D2CB.html|Liste der VMWare Dateiformate]]
=====Produkte=====
* **VMWare PowerCLI** [[https://youtu.be/xxbcE7PMd5I|DeepDive]]
* **VMWare [[esx|ESXi]]** (Bare metal Hypervisor Typ 1)
* **VMWare vCenter Server** (zentrales Management der Infrastruktur) benutzt zum speichern der Infrastruktur eine Datenbank. **MSSQL und Oracle** werden unterstützt
* **VMWare Horizon VDI** Virtual desktop infrastructure (terminal)
* **VMWare vSphere DRS** (distributed resource scheduler) verteilt VM-Workloads auf vSphere-Hosts innerhalb eines Clusters und überwacht die verfügbaren Ressourcen. Je nach **Automatisierungsstufe (Disabled, Manuel, Partially Automatic, Fully Automatic**) migriert DRS (VMware vSphere vMotion) virtuelle Maschinen auf andere Hosts innerhalb des Clusters, um die Last gleichmäßig zu verteilen und damit die Performance zu maximieren. Siehe [[numa|NUMA]]. Siehe [[https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vsphere6-drs-perf.pdf|vSphere6 - DRS]]
* **VMWare vRealize Orchestrator** [[https://www.vmware.com/at/products/vrealize-orchestrator.html]]
* **VMWare vSphere Client and Web Client** (Zugriff auf vCenter server)
* **VMWare vSphere Replication** Site recovery manager (SRM)
* **VMWare [[tanzu|Tanzu]]** Simplifies multi-cloud operations
* **VMWare HCX** (Hybrid cloud extension)
* **VMWare NSX** ([[https://www.youtube.com/watch?v=reFaNNTyB8M|NSX-V (Nur VMWare Hypervisor), NSX-T (Multi Hypervisor)]]) Network and Security management
* **VMWare vSphere Update Manager** (Updates für ESXi Hosts)
* **VMWare vMotion** Live-Migration von Workloads von einem Server auf einen anderen ohne Ausfallzeit. Siehe [[https://www.youtube.com/watch?v=Cx4Sx-gZC_I|EVC - Enhanced vMotion Compability]]
* **VMWare Workstation Player**
* **VMWare vSphere Integrated Containers** (kein Support mehr, **von Tanzu abgelöst**) Also known as VMware Admiral, vSphere Integrated Containers Management Portal provides a UI for DevOps teams to provision and manage containers, including the ability to obtain statistics and information about container instances.
* und noch viele weitere [[https://www.vmware.com/at/products.html|Produkte]]
=====Resource Pools=====
Computing Power wie CPU, Cache und RAM wird in logische Resource Pools eingeteilt. Diese können hierarchisch miteinander verknüpft werden und stellen eine Isolierung vergleichbar mit Namespaces dar. Quotas sind konfigurierbar.
=====Dienste=====
* vpxd - Der Hauptdienst auf dem vSphere Server
* vpxa - Der Agent auf jedem esx Host der im vCenter Server gemanagt wird
=====Storage=====
Ein wesentlicher Aspekt in vSphere ist die Speicherinfrastruktur, die die Speicherung von VMs, Dateien und Konfigurationen verwaltet.
Für den Shared Storage kommt blockbasiertes [[fibre_channel|Fibre Channel]] und/oder [[iscsi|iSCSI]] zum Einsatz. [[https://www.youtube.com/watch?v=5QuK6ij_cqo|Should i use iSCSI or Fibre Channel]]
Storage-Geräte werden **hostübergreifend** zu verschiedenen Arten von Clustern (**Datastores**) zusammengefasst und sind als **Speicherpool** von den VMs nutzbar. Als Caching-Speicher kommen Flash-basierte Speicher wie SSDs, [[https://de.wikipedia.org/wiki/NVM_Express|NVMe]]-Devices (zum Anschluss von SSDs über PCIe) oder [[https://www.speicher.de/arbeitsspeicher-blog/was-ist-ein-nvdimm|NVDIMM]] (nicht flüchtiger Speicher im DIMM Format) zum Einsatz.
Siehe auch [[vvol|VVol]].
====Datastore====
Ein Datastore ist ein logischer Speicherbereich in vSphere, der den Speicherplatz für VMs und andere Dateien bereitstellt. Er kann aus verschiedenen Speicherressourcen wie lokalen Festplatten, RAID-Arrays, SANs oder NAS bestehen. Ein Datastore stellt den ESXi-Hosts in der vSphere-Umgebung den Speicherplatz zur Verfügung.
Datastores ermöglichen eine zentralisierte Verwaltung und Organisation des Speicherplatzes in vSphere. Sie werden verwendet, um die VMDK-Dateien (virtuelle Festplatten) der VMs zu speichern sowie andere Dateien wie Konfigurationsdateien, Snapshots und ISO-Images. Thin Provisioning, Deduplizierung und Komprimierung sind einige der unterstützten Speicherfunktionen.
Es gibt verschiedene Arten von Datastores in vSphere: VMFS-Datastore (Virtual Machine File System), NFS-Datastore (Network File System) und vSAN-Datastore (Virtual SAN). Jeder Typ hat spezifische Merkmale und wird entsprechend den Anforderungen der Umgebung eingesetzt.
====LUN====
Eine LUN ist eine eindeutige Kennung, die einem logischen Speichergerät zugeordnet ist. Sie wird häufig in Storage Area Networks (SANs) verwendet und repräsentiert ein logisches Volume auf einem Speichersystem. Eine LUN wird normalerweise einem oder mehreren Hosts präsentiert und ermöglicht den Zugriff auf den darunterliegenden Speicherbereich.
Die LUN ist das logische Volume, das von einem Speicherarray oder einem SAN bereitgestellt wird. Sie kann aus physischen Festplatten, RAID-Arrays oder anderen Speicherressourcen bestehen. Einmal einem oder mehreren Hosts zugewiesen, können diese auf die LUN zugreifen und darauf Datastores erstellen.
ESX-Hosts erstellen Datastores auf der LUN, um Speicherplatz für die VMs bereitzustellen. Ein Datastore repräsentiert den Speicherbereich, auf dem VMs und andere Dateien in vSphere gespeichert werden. Die Verwendung von LUNs und Datastores ermöglicht eine effiziente Speicherbereitstellung und -verwaltung.
Es gibt auch [[https://www.vmware.com/at/products/vsan.html|vSAN]].
Siehe [[https://www.youtube.com/watch?v=DFjO7ZZ9jBs|VMWare VMFS Storage erstellen]], [[https://www.youtube.com/watch?v=7mawQTuTw4I|vSphere Storage Profiles]].
[[https://docs.vmware.com/de/VMware-vSphere/7.0/com.vmware.vsphere.vsan-planning.doc/GUID-64A0AD49-66A6-4211-B4DE-93A4D9132208.html|vSAN vs ordinary storage]]
{{vmware_storage_protocols.png}}
=====Grafikkarten=====
Insgesamt gibt es vier gängige Methoden, um Grafikkarten in VMware zu nutzen:
* **Virtual Shared Graphics Acceleration** (vSGA): Diese Methode ermöglicht es mehreren virtuellen Maschinen, gemeinsam eine Grafikkarte zu nutzen.
* **Virtual GPU** (vGPU): Hierbei wird eine virtuelle Grafikkarte erstellt, die auf einer physischen Grafikkarte basiert und von einer oder mehreren virtuellen Maschinen verwendet werden kann.
* **Direct Passthrough** (Direct Assignment): Bei dieser Methode wird einer virtuellen Maschine eine dedizierte physische Grafikkarte direkt zugewiesen.
* **GPU-Passthrough**: Hierbei wird eine oder mehrere Grafikkarten einem speziellen Gastbetriebssystem direkt zugewiesen, um die volle Leistung und Funktionen der Grafikkarten zu nutzen.
^Name^Beschreibung^
|Virtual Shared Graphics Acceleration (vSGA)|Stellen Sie sicher, dass Ihre Hardware vSGA unterstützt. Dazu gehört eine kompatible Grafikkarte, die in Ihrem Server installiert ist. Installieren Sie den VMware ESXi-Hypervisor auf Ihrem Server und konfigurieren Sie ihn entsprechend. Erstellen Sie eine virtuelle Maschine (VM) in VMware vSphere. Weisen Sie der VM eine virtuelle Grafikkarte zu, indem Sie den vSGA-Mechanismus auswählen. Dies ermöglicht es der VM, auf die Grafikkartenressourcen des Servers zuzugreifen. Installieren Sie die Treiber für die virtuelle Grafikkarte in der VM.|
|Virtual GPU (vGPU)|Stellen Sie sicher, dass Ihre Hardware und VMware-Lizenzierung vGPU unterstützen. Dies erfordert spezielle Hardware wie NVIDIA GRID-Grafikkarten oder AMD MxGPU-Technologie. Installieren Sie den VMware ESXi-Hypervisor auf Ihrem Server und konfigurieren Sie ihn entsprechend. Erstellen Sie eine VM in VMware vSphere. Weisen Sie der VM eine virtuelle vGPU zu, die auf der physischen Grafikkarte basiert. Dies ermöglicht der VM den Zugriff auf die vGPU-Ressourcen. Installieren Sie die entsprechenden Treiber für die vGPU in der VM.|
|Direct Passthrough (Direct Assignment)|Stellen Sie sicher, dass Ihre Hardware und VMware-Version die Direct-Passthrough-Funktion unterstützen. Dies erfordert in der Regel Intel VT-d- oder AMD-Vi-Technologie für die I/O-Virtualisierung. Konfigurieren Sie den VMware ESXi-Hypervisor entsprechend, um Direct Passthrough zu aktivieren. Weisen Sie der gewünschten VM die physische Grafikkarte direkt zu. Dadurch erhält die VM die volle Kontrolle über die Grafikkarte, und sie wird nicht mit anderen VMs geteilt. Installieren Sie die entsprechenden Treiber für die Grafikkarte innerhalb der VM.|
|GPU-Passthrough|Stellen Sie sicher, dass Ihre Hardware und VMware-Version die GPU-Passthrough-Funktion unterstützen. Dies erfordert in der Regel Intel VT-d- oder AMD-Vi-Technologie für die I/O-Virtualisierung. Konfigurieren Sie den VMware ESXi-Hypervisor entsprechend, um GPU-Passthrough zu aktivieren. Weisen Sie der gewünschten VM die Grafikkarte(n) direkt zu. Installieren Sie die entsprechenden Treiber für die Grafikkarte(n) innerhalb des Gastbetriebssystems.|
=====Kubernetes=====
vSphere Tanzu ist eine Abstraktion um Kubernetes in vSphere zu integrieren. **vSphere Pods (CRX, Container Runtime for ESXi)** sind optimierte VMs mit [[numa|NUMA]] Kompatiblität. Der Linux Kernel und die Container engine ([[kubernetes|Kubernetes]]) sind Teil des CRX (der ESX Distribution). **Kein BIOS, USB, PCI Check oder so, der Kernel bootet in Millisekunden.** Die so orchestrierten Container sollen 30 mal schneller als in gewöhnlichen Linux VMs und 8mal schneller als auf bare metal Kubernetes starten. Siehe [[https://youtu.be/4oaWprBaYGs|Kubernetes for the vSphere Admin]]. Als Netzwerk-API nutzt die Distribution **Calico, nicht Flannel**. Die MTU (maximal transmission unit) in Netzwerk-Frames soll in ESXi (vNIC) aber auch auf [[switch|Switch]]-Level ausschlaggebend sein. Stichwort [[jumbo_frame|Jumbo-Frames]] in L2 Switching und L3 Routing.
Container Images werden in einer eigenen ESX Hardware-Registry ([[https://goharbor.io|Harbor]]) abgelegt. Diese kann im vSphere Client administriert werden.
In vSphere nennt man "Persistent volume claims" für Container "first class disks". Diese sind im vSphere Datastore aufgelistet.
=====Features=====
* **Flash Read Cache** -> Zuweisung von SSDs als Cache zu VMs [[https://docs.vmware.com/de/VMware-vSphere/6.7/com.vmware.vsphere.storage.doc/GUID-07ADB946-2337-4642-B660-34212F237E71.html|VMWare Docs]].
* **Storage I/O control** -> erlaubt die Begrenzung von input/output Operationen pro Sekunde für jede VM [[https://docs.vmware.com/de/VMware-vSphere/7.0/com.vmware.vsphere.resmgmt.doc/GUID-BB5D9BAB-9E0E-4204-A76A-54634CD8AD51.html|VMWare Docs]].
* **Network I/O control** -> erlaubt die Begrenzung von Netzwerk input/output Operationen pro Sekunde für jede VM [[https://docs.vmware.com/en/VMware-vSphere/7.0/com.vmware.vsphere.networking.doc/GUID-ADEA0213-C969-43E4-B1F4-66D4A916EBDF.html|VMWare Docs]].
* **vSphere Replication** -> Replikation von VMs von einem in ein anderes Datacenter auf per VM Basis.
* **vSphere DRS** -> um ESXi Hosts in Ressourcencluster zu gruppieren. [[https://www.windowspro.de/thomas-drilling/vsphere-drs-funktionsweise-automatisierungsmodi]], [[https://www.vmware.com/at/products/vsphere/drs-dpm.html]]
* **Raw device mapping** -> Option in VMware-Server, einen Datenspeicher an eine virtuelle Maschine anzubinden
=====Dateisystem=====
Das VMWare-eigene **Dateisystem** heisst [[https://en.wikipedia.org/wiki/VMware_VMFS|VMFS]] - die aktuelle Version ist VMFS5, es gibt auch VMFS3 (veraltet). Es wurde entwickelt, um Festplatten-Images virtueller Maschinen, einschließlich Snapshots, zu speichern. Mehrere Server können dasselbe Dateisystem **gleichzeitig lesen/schreiben**, während einzelne Dateien der virtuellen Maschine gesperrt sind. VMFS-Volumes können "dynamisch wachsen" (**zerstörungsfrei in der Größe vergrößert werden**), indem mehrere VMFS-Volumes zusammengeführt werden.
=====Networking=====
Man spricht von
* Underlaying
* Overlaying
Network. Underlaying ist das physikalische, Overlaying das darauf aufgebaute, virtualisierte Netzwerk. Siehe [[https://ipwithease.com/difference-between-underlay-network-and-overlay-network/|hier]].
Ein "distributed virtual switch" wird auf Clusterebene erstellt und steht mehreren ESX-Hosts zur Verfügung. Ein normaler "virtual switch" steht nur dem ESX-Host zur Verfügung auf dem er angelegt wurde. [[https://www.youtube.com/watch?v=VuMeRNyuEvU|Übersicht über die Unterschiede]]
* vSS - vSphere standard switch
* vDS - vSphere distributed switch [[https://youtu.be/jCDb-XQGdxo|Verteilte virtuelle Switche]]
NICs werden verschieden bezeichnet.
* vnic (Virtual nic)
* vmknic (VM kernel nic - management)
* vmnic oder pnic (physische ESX nic)
Netzwerkrichtlinien werden mittels [[port_group|Port-Groups]] umgesetzt.
====Virtual network adapters====
* vNIC - VMs interface
* vmknic - kernel management network interface ([[nfs|NFS]], [[iscsi|iSCSI]], vMotion, FT, Management)
====Physical Network Adapter====
* pNIC - Kommunikation mit Einheiten ausserhalb des ESX Host
====Virtual Switch====
Layer 2 im [[osi|OSI]] Modell. Werden auf Host-Level erstellt. Sind mit physikalischen Adaptern (pNIC) verbunden. Virtualisieren [[port_group|Port-Groups]] und [[vlan|VLAN]]s. Auch [[nic_teaming|NIC-Teaming]] kann angewendet werden.
* Transferiert Pakete zwischen **vnic**, **vmknic** und **pnic**.
====Port Groups====
* [[port_group|Port Groups]] mit gleichen Eigenschaften. Werden zum Erstellen von **Netzwerkrichtlinien** (was mit was kommunizieren darf) benutzt.
====Uplinks====
* Verbindungen von pNICs zu physikalischen [[switch|Switches]]
====Nic Teaming====
* Eine Gruppe von pnic die mit dem selben physikalischen Netzwerk verbunden sind. Siehe [[nic_teaming|NIC Teaming]]
{{vmware_networking.png}}
=====Network Traffic Types=====
Im Data Center Bereich ist oft von Nord-Süd bzw. Ost-West Traffic die Rede. Ost-West Traffic bezieht sich dabei auf den Traffic innerhalb des privaten Netzwerk während Nord-Süd Traffic den Verkehr aus und in die Public Cloud beschreibt.
====Virtual machine traffic====
* Von und zu VMs
* voneinander isoliert
====vMotion Traffic====
* Wenn eine VM von einem ESX Host zu einem anderen verschoben wird
* Muss dedicated und isoliert sein
====Management traffic====
Beim Installieren wird einem ESX Host eine [[ip|IP]] Adresse zugewiesen (vmknic), diese ist dann im Management-Netz.
* sollte vom VM traffic isoliert sein
* beinhaltet "Heart Beats" wenn [[https://docs.vmware.com/en/VMware-vSphere/7.0/com.vmware.vsphere.avail.doc/GUID-33A65FF7-DA22-4DC5-8B18-5A7F97CCA536.html|vSphere HA]] (high availability) aktiviert ist
====Storage traffic====
* [[iscsi|iSCSI]]
* [[nfs|NFS]]
====FT Traffic====
**Fault Tolerence** ist eine Technik zum Schutz der VM-Workload, um eine Betriebszeit von 100 % bereitzustellen und erfordert, dass der VMware-Cluster **HA-fähig** (high availability) ist. FT ist eine **Pro-VM-Konfiguration**.
Jede VM hat ihre eigene unabhängige Speicher- und Arbeitsspeicherzuweisung. Es müssen jedoch einige Metadaten auf einem freigegebenen Datenträger gespeichert werden, um den primären Datenträger zu identifizieren und ein Failover auf den sekundären durchzuführen, falls der primäre ausfällt.
Die typischen Vorgänge in der primären VM, wie z. B. eine einfache Berechnung – A + B = Ergebnis C , C wird an den lokalen Speicherort im Speicher der primären VM geschrieben. Das Ergebnis C wird auch über das Netzwerk an die sekundäre VM gesendet, um es in ihren Speicher zu schreiben. Dieser Prozess wird als Fast-Checkpointing bezeichnet. Er umfasst die Übertragung von Änderungen des Speicherstatus, des Festplattenstatus und des Einstellungsstatus zwischen primären und sekundären VMs. Es gibt einen VMkernal-Port, der dafür bestimmt ist, diesen Datenverkehr auf jedem Knoten zu übertragen.
Dieser Datenverkehr wird als FT-Protokollierungsdatenverkehr bezeichnet.
Falls der primäre Knoten/die VM aus irgendeinem Grund ausfällt. Die sekundäre VM übernimmt die Rolle der primären, indem sie die Metadaten auf der gemeinsam genutzten Festplatte aktualisiert und eine neue sekundäre erstellt wird. Der FT-Protokollierungsdatenverkehr wird zwischen der neuen primären und der neuen sekundären wieder aufgenommen. Der Betrieb auf Primary wird aufgrund des schnellen Checkpoints ununterbrochen fortgesetzt, es gibt nahezu keinen Datenverlust und keine Ausfallzeiten.
* Should be isolated completely
* Heavy I/O, Low latency
====vSAN traffic====
* Generiert bei R/W Operationen über vSAN Nodes hinweg
====VXLAN traffic====
* Generiert während VTEP to VTEP ([[https://www.juniper.net/documentation/en_US/junos-space-apps/network-director4.1/topics/task/configuration/view-vteps.html|virtual tunnel end point]]) traffic in [[https://www.vmware.com/at/products/nsx.html|VMWare NSX]] (VMWare Netzwerkmanagement tool)
====Provisioning traffic====
* VM Cloning operationen (vMotion?)
=====Powershell=====
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass
Install-Module -Name VMware.PowerCLI -Scope CurrentUser
Import-Module VMware.PowerCLI
Connecting to vSphere or ESXi
Connect-VIServer -Server "vcenter_or_host_name" -User "username" -Password "password"
Get all VMs:
Get-VM
Get VM details:
Get-VM -Name "VM_Name"
Get VM guest OS details:
Get-VMGuest -VM "VM_Name"
Get VM’s resource allocation (CPU, Memory, etc.):
Get-VM -Name "VM_Name" | Select-Object Name, NumCPU, MemoryMB
====Managing VMs====
Start a VM:
Start-VM -VM "VM_Name"
Stop a VM (gracefully):
Stop-VM -VM "VM_Name" -Confirm:$false
Force stop a VM:
Stop-VM -VM "VM_Name" -Kill:$true -Confirm:$false
Restart a VM:
Restart-VM -VM "VM_Name" -Confirm:$false
====Cloning a VM====
Clone a virtual machine to create a new one:
New-VM -Name "New_VM_Name" -VM "Source_VM_Name" -Datastore "Datastore_Name" -VMHost "VMHost_Name"
====Snapshot Management====
Create a snapshot:
New-Snapshot -VM "VM_Name" -Name "Snapshot_Name" -Description "Snapshot description"
Get VM snapshots:
Get-Snapshot -VM "VM_Name"
Revert to a snapshot:
Set-VM -VM "VM_Name" -Snapshot "Snapshot_Name"
Remove a snapshot:
Remove-Snapshot -Snapshot "Snapshot_Name" -Confirm:$false
====Managing ESXi Hosts====
Get ESXi host information:
Get-VMHost
Check the version of ESXi:
Get-VMHost | Select-Object Name, Version, Build
Put ESXi host into maintenance mode:
Set-VMHost -VMHost "esxi_host_name" -State Maintenance
Exit maintenance mode:
Set-VMHost -VMHost "esxi_host_name" -State Connected
====Managing Datastores====
Get all datastores:
Get-Datastore
Get datastore details:
Get-Datastore -Name "Datastore_Name"
Rescan datastores on ESXi:
Get-VMHost | Get-VMHostStorage -RescanAllHba
====Network Management====
Get all network adapters (NICs):
Get-VMHostNetworkAdapter -VMHost
Get all vSwitches:
Get-VirtualSwitch
Create a new vSwitch:
New-VirtualSwitch -VMHost "esxi_host_name" -Name "vSwitch_Name" -NumPorts 128
Create a port group:
New-VirtualPortGroup -VirtualSwitch "vSwitch_Name" -Name "PortGroup_Name"
====Managing vCenter Clusters====
Get all clusters:
Get-Cluster
Get information about a specific cluster:
Get-Cluster -Name "Cluster_Name"
====VM Affinity Rules====
Create and manage affinity or anti-affinity rules to control how VMs are placed in the cluster.
Create VM-Host affinity rule:
New-DrsVMHostRule -Cluster "Cluster_Name" -VM "VM_Name" -VMHost "Host_Name" -Enabled $true
====Logging Out from vSphere or ESXi====
After your automation tasks are done, you can disconnect from the server:
Disconnect-VIServer -Server "vcenter_or_host_name" -Confirm:$false
=====Links=====
* [[https://www.youtube.com/watch?v=HUtXmsGnDuE|vSpere basics - Youtube]]
* [[https://www.youtube.com/watch?v=ZNHub_yRk-E|Virtual Networking Basics - Youtube]]
* [[https://youtu.be/NeWy8uslwy8|How vSphere Networking works]]
* [[https://www.youtube.com/watch?v=Hm7kQHI4YnM|VMWare Home Lab - Youtube]]
* [[https://www.youtube.com/watch?v=xDnYyXjH3WA|VMWare HomeLab 2 - Youtube]]
* [[https://www.youtube.com/watch?v=2qu1OHx_sNE|VMWare Grundlagen Netzwerke]]
* [[https://www.altaro.com/vmware/vsphere-networking-basics-part-1/|VSphere networking basics - Altaro]]
* [[https://www.youtube.com/watch?v=RfUwdIxiVUw|VMWare Networking - Youtube]]
* [[https://www.youtube.com/watch?v=A7pGqkBFEqs|iSCSI storage configuration - Youtube]]
* [[https://www.youtube.com/watch?v=z3kSnOvqcFg|VMWare NSX tutorial - Youtube]]
* [[https://www.youtube.com/watch?v=DFjO7ZZ9jBs|VMWare VMFS Storage]]
* [[https://youtu.be/UBUcuhcGHUE|Understanding vSwitches]]
* [[https://www.youtube.com/watch?v=7mawQTuTw4I|vSphere Storage Profiles]]
* [[https://www.youtube.com/watch?v=AvyL3ubP3Q4|Setting up a Synology NAS with VMware vSphere using NFS - Youtube]]
* [[https://www.youtube.com/watch?v=5FXCkpGxpmM|Configuring Shared Storage (iSCSI) with VMware and a Synology NAS]]
* [[https://youtu.be/cAQN9NUNJrI|vMotion Basics]]
* [[https://www.youtube.com/watch?v=YcICVMsVvTY|Install and Configure vCenter Server 7.0]]
* [[https://www.youtube.com/watch?v=oJyM-ZC917U|Introduction to VMware Multi-Cloud Architecture and Strategy]]
* [[https://www.youtube.com/watch?v=9pHfM5JI15w|PowerCLI Overview]]
* [[https://www.youtube.com/watch?v=c0o61_NnWnc|Administration mit PowerCLI]]
* [[https://www.youtube.com/watch?v=cC_kuai1134|Flexible Storage-Virtualisierung mit VMware vSAN - Webinar]]
* [[https://www.youtube.com/watch?v=LMowG2kjC_I|VMware vSphere 7: Neue Features, neue Trainings, Live Demo]]
* [[https://youtu.be/bQ4FcieZlZg|vSphere 7 Kubernetes Lab WalkThrough]]
* [[https://youtu.be/0zobxhWd7t4|Mastering VLAN tagging]]
* [[https://youtu.be/aGGvrSlhAAQ|vSphere FibreChannel anbinden]]