自然の赴くままに・そのときの 気分次第で・なんとなく

興味を持ったことを、なんとなく気の向くまま書いています。

flings が無くなっていた・・・・その他の flings の入手先は

VMwareBroadcom に買収されるのが表に出てからそろそろ買収完了の最後の締め切り日 11月26日になりますが、実際どのようになるのかがまだわからないみたい・・・・に見えますね。

そのような VMware がバタバタしている中、ESXi Arm Edition があった flings.vmware.com が消えてしまっているのに気づきました。当初の買収完了日 10月末にほど近い 10月24日に flings.vmware.com が削除されてしまい、

Code Samples and PowerCLI Example Scripts | VMware - VMware {code}

 へのリンクに変っています。

ESXi Arm Edition 以外の flings に合ったツールはどこに行ったの?

flings にあったツールで現在個別にホストされているものは別途入手が可能です。

 

その他の flings については Internet Archive を使用して入手するしか今の所方法はありません。

これらのツールについては今まで通りの VMware flings ライセンスが適用されます。

これからはどうなるの?

flings を提供していたVMware の CTO 室 によって閉鎖されているので、今後 Broadcom による買収完了後も復活するのは望み薄です。VMware Developer でも公開されるのは望み薄ではないかと思うので、痒い所に手が届くツールが更新されなくなって最新プロダクトに対応しなくなっていく・・・・将来しか見えないのが残念です。

新生 VMware Software 部門はどのようにやっていってくれるのでしょうか。気になるところです。(その前に、11月26日の合併吸収が完了するのかも気になりますね。)

flings が無くなっていた・・・・vSphere の Arm Edition 最新版(v1.14)の入手先は

VMwareBroadcom に買収されるのが表に出てからそろそろ買収完了の最後の締め切り日 11月26日になりますが、実際どのようになるのかがまだわからないみたい・・・・に見えますね。

そのような VMware がバタバタしている中、ESXi Arm Edition があった flings.vmware.com が消えてしまっているのに気づきました。当初の買収完了日 10月末にほど近い 10月24日に flings.vmware.com が削除されてしまい、

Code Samples and PowerCLI Example Scripts | VMware - VMware {code}

 へのリンクに変っています。

ESXi Arm Edition はどこに行ったの?

flings で公開されていた多くのツール類は既に入手不能になっており、例えば NUC で vSphere を動かすために必要だった USB デバイスのドライバやネットワークインターフェースどのドライバ類も入手が不可能になってしまっています。困った困った。
でも、いくつかの flings にあったものはそれぞれ個別にホストされているものもあり、ESXi Arm Edition は VMwareCustomer Connect でホストされているため、現在でも入手が可能です。

ESXi Arm Edition のある場所は

ESXi Arm Edition の最新版は Customer Connect のダウンロードから入手することが出来ますが、普通に Customer Connect に行っても見つけることが出来ません。URL に「get-download?downloadGroup=ESXI-ARM」を追加することで初めて ESXi for ARM のダウンロード先に行くことが出来ます。

ESXi Arm Edition の最新版は

今日時点でのESXi Arm Edition の新しいバージョンは  version 1.14 で、今回もまだ vSphere 7.0 0 ベースで、Build 22346715 す。登場は 2023年 9月1日なので、2か月前のリリースでした。

f:id:imaisato:20210403190605p:plain

ESXi Arm Edition version 1.14

https://customerconnect.vmware.com/downloads/get-download?downloadGroup=ESXI-ARM

インストールは

残念ながら flings のページとドキュメントが消え去ってしまっていますが、置いてあったドキュメントの最終版と思われるものはここから入手できます。

VMware ESXi-Arm Documentation

ここに置いてある esxi-arm-docs.zip をダウンロードし展開することで以下のドキュメントファイルを得ることが出来ますので、その中を参照しながらインストールをしてください。

  • ESXi-Arm-Fling-Doc.pdf
  • Fling-on-Ampere-Altra-based-Serv.pdf
  • Fling-on-Ampere-Altra-from-OCI.pdf
  • Fling-on-Ampere-eMAG-8180.pdf
  • Fling-on-Arm-Neoverse-N1-System.pdf
  • Fling-on-Marvell-Armada-A8040-Octeon-TX2.pdf
  • Fling-on-NVIDIA-Xavier-AGX-Devel.pdf
  • Fling-on-NVIDIA-Xavier-NX-Devel.pdf
  • Fling-on-NXP-LS1046A-FRWY.pdf
  • Fling-on-NXP-LS1046A-RDB.pdf
  • Fling-on-PINE64-Quartz64-Model-A.pdf
  • Fling-on-Raspberry-Pi.pdf
  • Fling-on-Socionext-SynQuacer.pdf
  • Fling-on-SolidRun-HoneyComb-LX2K.pdf

なにが変わったの?

こちらも修正履歴が記載されているページが消えているので確認することはできないのですが、過去からチェックしている Change log がありましたので、それを英語の原文まま記載しておきます。

Sep 1, 2023 - v1.14
Note: Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases using either ESXi-Arm ISO or Offline Bundle

  • Fix SMP boot issues on some micro-architectures.
  • Improve high physical addresses memory nodes support.
  • Add support for 3 kinds of USB NIC adaptors:
    • Realtek RTL8153 serial 1G USB Network Adaptor
    • Realtek RTL8152 serial 100M USB Network Adaptor
    • ASIX AX88179/AX88178A serial 1G USB Network Adaptor
    • See this blog post for the complete list of USB Network Adaptors

      Build 22346715
      VMware-VMvisor-Installer-7.0.0-22346715.aarch64.iso
      VMware-ESXi-7.0.0-22346715-depot.zip

Jun 14, 2023 - v1.13
Note: Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases using either ESXi-Arm ISO or Offline Bundle

  • Adds support for AHCI SATA controllers that do not support 64-bit addressing on systems with memory located above 4GB
  • Fixes a PSOD on GIGABYTE’s Ampere Altra and Altra Max systems with ASM1164 based SATA HBAs when one or more SATA disks are present
  • Virtual NVMe device data corruption fix
  • Virtual UEFI ACPI tables now only shows configured serial ports. An ACPI SPCR table is created for the first one found
  • UEFI real-time clock (RTC) support is now enabled on Rockchip based systems
  • Fixes a possible hang at shutdown on Rockchip based systems when using the onboard network interface
  • Upgrades using image profiles with the Offline Bundle (zip) are now possible on all systems
  • Fixes vVols connection failures
  • High Availability for vCenter Server 8.0+ (See blog post for more details)

      Build 21921575
      VMware-VMvisor-Installer-7.0.0-21921575.aarch64.iso
      VMware-ESXi-7.0.0-21921575-depot.zip
      vmware-fdm-8.0.0-20519528.arm64.vib (VC 8.0 Build 20519528)
      vmware-fdm-8.0.0-20920323.arm64.vib (VC 8.0a Build 20920323)
      vmware-fdm-8.0.0-21216066.arm64.vib (VC 8.0b Build 21216066)
      vmware-fdm-8.0.0-21457384.arm64.vib (VC 8.0c Build 21457384)
      vmware-fdm-8.0.1-21560480.arm64.vib (VC 8.0u1 Build 21560480)
      vmware-fdm-8.0.1-21815093.arm64.vib (VC 8.0u1a Build 21815093)

Mar 17, 2023 - v1.12
Note: Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases using either ESXi-Arm ISO or Offline Bundle

    • Virtualization Improvements
      • Various fixes related to Arm SystemReady compliance for virtual hardware exposed to guests
      • Compatibility fixes related to secure boot
    • Host Support Improvements
      • New platforms
        • EXPERIMENTAL support for HPE ProLiant RL300 Gen11 servers
        • EXPERIMENTAL support for Marvell OCTEON 10 based platforms
      • NVME
        • Support for NVMe on non-cache coherent PCIe root complexes (eg. Rockchip RK3566 systems like Pine64 Quartz64 and Firefly Station M2)
        • Add a workaround for devices with PCI vendor/device ID 126f:2263 (e.g. Patriot M.2 P300) that report non-unique EUI64/NGUID identifiers which prevented more than one disk from being detected on systems with multiple devices present
          • When upgrading a system from 1.12 from a prior Fling release with one of these devices, datastores from the device will not be mounted by default. Please refer to this blog post on how to mount the volumes after the upgrade is complete
      • Miscellaneous
        • ESXi-Arm Offline Bundle (zip) now available
        • Fixed cache size detection for Armv8.3+ based systems
        • Relax processor speed uniformity checks for DVFS enabled systems
        • Support additional PHY modes in the mvpp2 driver
        • Fixed IPv6 LRO handling in the eqos driver
        • Identify some new CPU models

Known Issues:

      • Ampere Altra-based systems may PSOD when AHCI disks are used
      • In 1.11 we mentioned that the kernel included with the Ubuntu for Arm 22.04.1 LTS installer had an issue that prevented graphics from initializing properly. Ubuntu for Arm 22.04.2 LTS has since been released and includes a fix for this issue.
      • FreeBSD 13.1-RELEASE has a known bug with PVSCSI support and large I/O requests. There are a few ways to work around this issue:
        • Upgrade to FreeBSD 13.2-RC1 or later, which includes a fix
        • Set the tunable kern.maxphys=”131072″ to limit the maximum I/O request size
        • Use AHCI instead of PVSCSI      

 Build 21447677      

 VMware-VMvisor-Installer-7.0.0-21447677.aarch64.iso      

 VMware-ESXi-7.0.0-21447677-depot.zip

Oct 26, 2022 - v1.11
Note:

       Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases
      • Support CPU accelerated crypto (e.g. NEON, Armv8 Cryptographic Extensions) for built-in ESX services
      • Fixed ESXi xterm-256color terminfo. Terminal.app in macOS (or any modern terminal, on any OS) now properly renders esxtop
      • Updated the virtual UEFI ROM to match the version used by VMware Fusion for Apple silicon
      • Support for virtual HTTP boot
      • Support for virtual TPM, virtual Secure Boot, and encrypted VMs
      • Support for physical GICv4 systems
      • Added VMware Tools for Windows
      • Fixed issue with ixgben driver

Known Issues:

      • Ampere Altra-based systems may PSOD when AHCI disks are used
      • Ubuntu 22.04 LTS installer graphics do not work. Please use Ubuntu 22.10
      • Windows SVGA driver does not work and must not be installed (or use safe mode to uninstall the svga device)      

 Build 20693597     

 VMware-VMvisor-Installer-7.0.0-20693597.aarch64.iso

July 20, 2022 - v1.10
Note:

       Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases
      • Upgrade from earlier ESXi-Arm 1.x Fling is now supported
      • Support for Arm DEN0115 (PCIe config space access via firmware interface, tested with Raspberry Pi)
      • Report L3 cache info for Ampere eMAG
      • Minor improvements to non-cache coherent DMA support
      • Raspberry Pi NIC (genet) statistics
      • GOS: use VNXNET3 and PVSCSI as default for freebsd12
      • Support for RK3566 SBCs (e.g. Quartz64)
        • PCIe support (NVMe not supported at this time)
        • EQOS (onboard) NIC support
      • Fix missing barriers for Intel igbn NIC driver, improving stability
      • Return zero for unknown sys_reg(3, 0, 0, x, y) accesses from VMs
      • Telemetry reporting - Collect statistics on what kind of systems the Fling is being run on, to best gauge interest
        • No PII is collected. Here are items collected:
          • CPU info: core count, NUMA, manufacturer, etc.
          • Firmware info: vendor, version
          • Platform info: vendor, product, UUID, PCI device list
          • ESXi-Arm info: version, patch level, product build
          • The /bin/telemetry script runs on every boot and at 00:00 every Saturday      

 Build 20133114      

 VMware-VMvisor-Installer-7.0.0-20133114.aarch64.iso

March 31, 2022 - v1.9
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Experimental support for Marvell Octeon TX2 CN92xx/CN93xx/CN95xx/CN96xx/CN98xx platforms
      • Improved support for PL011 UARTs
      • VMM support for ID_AA64ISAR2_EL2, fixing VM crashes with newer Linux kernels (>= 5.17-rc2)
      • PCIe Enhanced Allocation support
      • Improvements to logging for PCIe
      • Improvements to MSI virtualization      

 Build 19546333      

 VMware-VMvisor-Installer-7.0.0-19546333.aarch64.iso

December 17, 2021 - v1.8
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • ACPI fix to support OpenBSD guests
      • Improved handling of ITS device ID width in implementations without indirect table support
      • Improvements to VMkernel TLB handling
      • Improvements to NUMA handling (Especially around error reporting)     

 Build 19076756      

 VMware-VMvisor-Installer-7.0.0-19076756.aarch64.iso

December 7, 2021 - v1.7
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Experimental support for Pine64 Quartz64 board
      • Support for VMware SVGA driver (compatible with Fusion on AS, e,g, fixes Fedora F35 black screen issue)
      • NUMA-aware VMM, improving performance for dual-socket Ampere Altra machines
      • Improved compatibility for systems without an IORT
      • Fix performance issues in newer Linux kernel guest OSes like Debian 10 and Photon 4
      • Recognise CA55
      • Improve TLBI handling in VMM/VMK
      • Improve contention for atomic ops     

 Build 19025766      

 VMware-VMvisor-Installer-7.0.0-19025766.aarch64.iso

October 6, 2021 - v1.6
Note:

       This release does not contain a new ESXi-Arm build, it is to announce new hardware enablement. The previous ESXi-Arm build can be used with the mentioned hardware platforms below. For more information, please 

download the hardware specific PDF guides

      • Experimental Support for Ampere Altra-based BM.Standard.A1.160 shapes from Oracle Cloud Infrastructure
      • Experimental Support for Marvell Armada A8040 / Octeon TX2 CN9132 chipsets
      • Experimental Support for Socionext SynQuacer Developerbox


August 6, 2021 - v1.5
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Minor VM performance improvement
      • Support BCM2848 ACPI ID for the USB OTG port (affects newer UEFI firmware versions)      

 Build 18427252      

 VMware-VMvisor-Installer-7.0.0-18427252.aarch64.iso

June 15, 2021 - v1.4
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Improved PMU virtualization
      • Fix virtual AHCI support for some ACPI OSes
      • Improve time virtualization
      • Experimental support for NVIDIA Tegra Xavier AGX and NVIDIA Tegra Xavier NX (PCIe, USB, NVMe, SATA)
      • Experimental support for 2P Ampere Altra-based servers (Mt. Jade)
      • Improved VM performance for multi-socket Arm servers
      • Fix virtual NVMe support in UEFI and some OSes
      • Improve interrupt controller virtualization
      • Improve virtualization performance
      • Improve compatibility with newer guest OS linux kernels
      • Improve USB stability issues, especially with RTL8153-based USB NICs (a common chipset) and especially on Raspberry Pi and Tegra Xavier
      • Updated documentation for ESXi-Arm Fling, Raspberry Pi, Ampere Altra, NVIDIA Xavier AGX & NVIDIA Xavier NX (See download for details)      

 Build 18175197      

 VMware-VMvisor-Installer-7.0.0-18175197.aarch64.iso

April 02, 2021 - v1.3
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Improved hardware compatibility (various bug fixes/enhancements)
      • Add support for Experimental Ampere Altra (single socket systems only) (please see Requirements for more details)
      • ACPI support for virtual machines
      • NVMe and PVSCSI boot support in vEFI
      • Workaround for ISO boot on some Arm servers
      • Address VMM crash with newer guest OSes and Neoverse N1-based systems
      • Improved guest interrupt controller virtualization
      • Improved (skeletal) PMU virtualization
      • Improved big endian VM support      

 Build 17839012     

 VMware-VMvisor-Installer-7.0.0-17839012.aarch64.iso

November 30, 2020 - v1.2
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • UI: Disable datastore browsing when no datastores are present
      • PSCI: Fix missing context_id argument for CPU_ON calls
      • GICv2: Always enable SGIs, as GIC-500
      • arm64: Support for big-endian guests
      • Remove requirements/restrictions on initrd for UEFI-less VMs      

 Build 17230755     

 VMware-VMvisor-Installer-7.0.0-17230755.aarch64.iso

October 22, 2020 - v1.1

      • Fix for https://flings.vmware.com/esxi-arm-edition/bugs/1098 (PSOD adding to VDS)
      • Support for Arm N1 SDP platform
      • Support for VMs on Neoverse N1 CPU
      • Pass-thru stability improvements to LS1046A and LX2160A platforms
      • Fix for vCenter/DRS incorrect CPU usage
      • Fix for VM crash when VM storage fills up
      • Stability fix for non-coherent DMA device support
      • Installer: tolerate RAM size within 4% of 4GB instead of 3.125 (for the otherwise unsupported RK3399 boards)
      • Serial port handling improvements (for unsupported/unknown boards, to be a bit more resilient of firmware configuration errors)
      • Documentation Updates:
        • Moved and expanded iSCSI doc for Pi doc to main ESXi-Arm Fling doc
        • Added LS1046ARDB docs (including ref to it from main ESXi-Arm doc and Fling website)
        • Fixed Ampere server name and links (its HR330A/HR350A, not SR-something)
        • Added Arm N1SDP document (including ref to it from main ESXi-Arm doc)
        • Updated GuestOSes known to work with ESXi-Arm including new "Verified" section
        • Updated instruction to update EEPROM for Pi doc      

 Build 17068872      

 VMware-VMvisor-Installer-7.0.0-17068872.aarch64.iso

October 06, 2020 - v1.0 (Initial Release)    

 Build 16966451      

 VMware-VMvisor-Installer-7.0.0-16966451.aarch64.iso

 ダウンロード情報

ESXi for ARM v1.14

ダウンロードには Customer Connect アカウントが必要です。 Customer Connect アカウントは個人でも作成できるので、リンクからCustomer Connect アカウントを作成し

 Customer Connect にログイン後、  ESXi for ARM からイメージをダウンロードしてください。なお、リリースノートは以下の URL で見ることができます。

この記事から読み始めた方のための補助情報

ESXi Arm Edition は単体でも使うことができますが、vCenter Server 配下でも

使うことができます。使用できる vCenter Server には以下の要件があります。

  • ESXi-Arm ホストの管理には、vCenter Server Appliance(VCSA)7.0 以降が必要です。
  • ESXi-Arm ホストで vSphere HA および vSphere FT を有効にしたいときは、vCenter Server Appliance(VCSA)7.0.0c または 7.0.0d を使います。また、vSphere DRS が必要な場合は VCSA7.0.0c または 7.0.0d を使用するとともに、VCSA7.0c の場合は vmware-fdm-7.0c-16620014.arm64.vib を、VCSA7.0d の場合は vmware-fdm-7.0d-16749671.arm64.vib をダウンロードし適用する必要があります。
    ※ vCSA によって適用する vib が異なりますので注意してください。
    ※vCSA 7.0.0c / 7.0.0d は VMware サイトの製品のダウンロードからダウンロードできます。
  • vCenter Server Appliance(VCSA)7.0 Update 1以降を使用することは可能ですが、いくつかの制限があります。
    • vSphere DRSは機能が動作しません。
    • vCLS(vCenter Cluster Services)対策が必要です。(現在の vCenter Server Appliance は x86 ベースの仮想マシンのため、vCLS により分散コントロールプレーンサービスをESXiホストにデプロイしようとしてもできないため、ファイルの削除処理が走るとともに再度のデプロイ処理も走るため、延々と処理が続いているような状態になります。)

VCSA 7.0 U1 以降を使う場合は

どうしても VCSA 7.0.0c または VCSA 7.0.0d が入手できず VCSA 7.0 U1 以降を使わざるを得ない場合は、以下の KB を参考にして vCLS を無効にしてください。これにより、vCLS の動作が停止してメッセージも出なくなります。

kb.vmware.com

この vCLS 停止は既存の x86 の vSphere 7.0x でも有効なので、vCLS を使用しない場合はこの設定をするのもよいかもしれません。

vCentr Server Appliance は x86 ベースしかないので、ESXi Arm Edition 以外に最低 1台の x86 ESXi が必要になります。でも、それを準備すれば安価に vSAN まで使える vSphere 環境が得られるのは、家ラボやっている人には朗報です。ただし、私のように Raspberry Pi 4 で環境を作っている場合はそのホストのメモリーが 8GB しかないので、できることは最低限になります。例えば vSphere の資格を取るための勉強用としては良いかもしれませんが、本格的に vSphere ノウハウを習得するために家ラボを作る場合には、やはり x86 ホストは必要になるかなと思います。

どんなことに使えるの

もともと Raspberry Pi 4 は最大 8GB しかメモリーがありません。そのため、Raspberry Pi 4 の上で Arm ベースの仮想マシンは数動かせません。あくまでも vSphere 7 をテストしてみたい、または ARM 版の ESXi を体験したいなどの用途がメインになると思います。あとは、VMware の資格を取るための勉強の環境という使い方もあるでしょう。本番としては使うなとも書かれていますので、あくまでも評価という使い方になります。

過去の ESXi Arm Edition の記事

今までの記事のリストがここで見られますので、併せてご覧ください。

imaisato.hatenablog.jp

f:id:imaisato:20220206203155p:plain

ESXi for ARM

 

ESXi のサイズ

VMware ESXi が初めて登場したのは 3.5 で 年月日、現在は 11世代後の 8.0 になっています。最初はとても小さくて軽かった ESXi もこの間にどんどん肥大化してきて、現在は ESXi 3.5 の約 5倍のサイズになってしまっていますが、これを調べている Web ページがありますのでご紹介します。

VMware ESXi 3.5 - 8.0 ハイパーバイザーのサイズ比較

VMware ESXi が登場した背景として、当時の ESX と ESXi はどう違うのかなどが記載された資料もまだ公開されているので、見てみると「なるほど」と思うことがあるかもしれません。

VMware ESX および VMware ESXi 本番環境で実績のある、業界をリードするハイパーバイザー

資料を読まないで「どこが違うの?」ということを知りたい方のために簡単に説明すると、VMkernel上で動く CentOS (RHEL) ベースのサービスコンソール (Console Operating System : COS) が ESXi では無くなったことで、ハイパーバイザーとしてのサイズが小さくなる(ESX は当時数ギガバイトにまで肥大していたのが、ESXi になることで 47 MB まで小さくなった)ことでソースの見通しもよくなり、その結果セキュリティインシデントになりがちなバグなども発生しにくくなるメリットがあると説明されっるようになりました。

以下の図は ESXi 登場当時の VMware の資料で良く説明されていた図です。ESXi については、この図の右側のサービスコンソールと呼ばれる部分が無くなっています。この変化についてはサービスコンソール上で行っていた管理系の処理が出来なくなるため、あえて ESXi ではなく ESX を選択するなども当時はありました。

ESX のアーキテクチャ

このソースのサイズが小さくなるという点については ESXi 6.7くらいまでグローバルでの説明資料でも言われ続けていた話で実際私もそのようにプレゼンをしていましたが、5.0 や 5.5 そして 7.0 のように新しい機能を加えたタイミングでサイズはどんどん大きくなり、それとともにバグも頻繁に出てくるようになってしまったのが、今の ESXi の実情ではないかと感じています。

ちなみに ESX は数ギガバイトに肥大と書きましたが、その大部分をサービスコンソールが占めていました。全体の 9割以上がサービスコンソールだったので、その部分を切り捨てることで ESXi は USB メモリーや SD カードにインストールすることが出来るようになり、各ハードウエアベンダーから USB DOM を使ったブートや SD カードを使ったブートができる製品が登場することになります。

ESXi の今後は

ESXi 登場時に使えるようになったUSB メモリーや SD カードは高頻度の Read / Write には不向きでかつ耐久性も低いため、ブートデバイスとして使う場合でも信頼性の低いデバイスでした。そのため vSphere 7 からはそれまで可能だった ESXi 本体を格納する ESXi の OS パーティション(ROM や RAM の部分)をそれらのデバイスに配置するのは vSphere 7 U3 以降非推奨となりました。そして vSphere 8 ではサポート対象外になっていますので、USB や SD カードからのブートをする場合でサポート対象の構成にするにはそれらの媒体の中にはブートに必要なパーティションのみしか配置できません。ということは、今までは最小構成としてブートデバイスのUSB メモリーや SD カードを用意すれば、HDD や SSD は全てデータストアに使えたのですが、今後はブートデバイスに USB メモリーや SD カードを使用したとしても、ESXi の OS 領域のために HDD や SSD が必要になり、その分データストアとして使える分が減る構成にならざるを得ないということになりました。これは VMware のベストプラクティスとされている構成で「USBメモリーや SD カードを使うのは「レガシー」な構成で、今後も長くサポートされるのを期待するなら USBメモリーや SD カードを排除し、HDD や SSD、PCIe の永続的ストレージデバイスを使え」という方向になっています。なので NUC を使ってディスクが足りないから USB ブートと内蔵ディスクでと済ますことが出来た家ラボ環境などでは、今後 vSphere 8 を検証したい場合内蔵 M.2 SSD / NVMe SSD をブートデバイスにして SATA をデータストア用にする、またはその逆にするなどの対応が必要になるでしょう。個人で検証環境を持つには厳しいプロダクトに vSphere はなりつつあります。また vSphere 8 以降はハードウエアについてもさまざまな制限が出てくるようになってきていますので、今までのような古いハードウエアにもインストールできるということが無くなる可能性も考えなければなりません。ということは、vSphere の新しいバージョンが出たら既存の環境でアップグレードができないハードウエアも出てくる可能性も考えられるということで、オンプレミスでの vSphere を運用している場合で vSphere のアップグレードなどを考える場合は十分な注意と検討が必要になってくるかなと感じています。つまり、業務システム側やゲスト OS は変わらないのに、vSphere のサポート関係で vSphere をアップグレードしようとしたら、長期のリース契約や買取の古めのハードウエアでは新しい vSphere がサポート対象外だったということも今後は頻繁に発生することになりそうかなとも感じてます。業務システムやゲスト OS の延命ができるのでプラットホームを仮想化したということも多いはずが、vSphere 8 とかになってくるとプラットホームとしての vSphere 側の都合でハードウエアなどの環境へも影響が出てしまうというのは、海外のように頻繁にプラットホームも取り換えていくならまだしも長期契約でリースコストを下げるとかがメインな今の日本企業の IT インフラにはちょっと厳しすぎるかなと感じます。なので、場合によっては仮想マシンで動く業務システムはそういう影響を受けにくいクラウド利用へリフトアンドシフトも検討したり、いっそのこと全部作り変えてクラウドネイティブへとかも考える必要があるかもしれないですね。

vExpert 2023の応募期間が延長されました

あけましておめでとうございます。

今年のブログ第一号は vExpert への応募の話になりました。

vExpert 2023 への応募期間が延長

Apply to be a vExpert 2023

昨年末にスタートした vExpert の 2023 年度の応募受付ですが、締め切りが延長され 2023年1月27日 になりました。それに伴い vExpert award の発表も 2月17日あたりに延長されました。

Applications are Open!

vExpert 応募に関する情報が以下のブログに掲載されていますので、vExpeert になりたいけれどまだ応募していない人は、参考にしてみてください。応募に関しての Zoom でのミーティングもあるようです。

blogs.vmware.com

vExpert 2023 への応募先は

以下の「vExpert Application Portal」から応募してください。

 vexpert.vmware.com

vExpert の話を日本語で聞きたいなら=>VMUGへ

vExpert になっている人の多くは VMUG (VMware User Group) に参加している人が多いので、もし vExpert についてもう少し情報が欲しいという場合、まず VMUG に参加しその中にあるコミュニティで聞いてみるのもよいかもしれません。

VMUG 会員には 2つのタイプがあり、一般会員は無料で誰でもなれます。そのため、まずは vExpert の方とコミュニケーションしたいということであれば VMUG の一般会員に入り、Japan VMUG コミュニティに入ることからスタートするのが良いかもしれません。また VMUG Japan community では月に 1回程度の周期で Zoom を使用した「Japan VMUG「vExpert が語る」会」というオンラインミーティングが開かれていますので、そちらに参加してセッションを聞いてどのようなことを割いているのかを理解したり直接質問などをしてみることもよいでしょう。また年に 1回年末には「vExperts Advent Calendar」もやっていますので、そちらからどのような人が vExpert になって情報発信活動しているのかを見て切るのもよいでしょう。

Japan VMUG 「vExpert が語る」会

このよう VMware プロダクトを世に広げる活動を仕事ではなくプライベートとして発信したりする活動が増えれば増えるほど、vExpert 受賞が近づいてきます。まだ受けていない人は是非応募チャレンジしてください。

ESXi Arm Edition version 1.11 — October 26, 2022 が登場していた・・・

ESXi Arm Edition は vSphere 7.0 0 ベースでそれ以上進化しないのでチェックがおろそかになっていましたが、久しぶりに見てみたところ、ESXi Arm Edition version 1.11 — October 26, 2022、Build 20693597 になっていました。でも、相変わらずvSphere 7.0 0 ベース。。。。。

ESXi Arm Edition version 1.11

 

 


flings.vmware.com

インストールは

チェックしていなかった 1.10 からアップグレードインストールができるようになっていました。フレッシュインストール不要になるのでようやく楽になります。ただ vCenter Server は相変わらず vCenter Server Appliance(VCSA)7.0 Update 1 は使えますが、FT や HA を使いたい、または DRS を使う場合は vCenter Server Appliance(VCSA)7.0.0c または 7.0.0d が必須になるため、vmware-fdm-7.0c-16620014.arm64.vib または vmware-fdm-7.0d-16749671.arm64.vib を組み込んだ vCenter Server Appliance(VCSA)7.0.0c (Build 16620007) または7.0.0d (Build 16749653) が必要になります。vmware-fdm-7.0c-16620014.arm64.vib または vmware-fdm-7.0d-16749671.arm64.vib の組み込み方はドキュメント ESXi-Arm-Fling-Doc.pdf の27 ページからある「10. Enabling vSphere HA」を参照して行ってください。

既に Intel プラットホームの方は vSphere 8 になっているので、ESXi Arm Edition もそろそろ vSphere 8 に移行してもらいたいところですが、それよりも前に vSphere 7 の Update 1 ~ Update 3 までにも対応できていない時点で今は無理なんだろうなぁと感じています。私が ESXi Arm Edition 熱冷めてチェックを失念するようになったのも、vSphere の Update に全然追いついていないということが原因でもあります。 

なにが変わったの?

1.8 より後の変更点をまとめて記載します。以下が新しく変わった点です。すべて修正や改善のみです。

2022 年 3 月 31 日 - v1.9 ビルド 19546333 (VMware-VMvisor-Installer-7.0.0-19546333.aarch64.iso)

  • このバージョンはアップグレードインストール不可。新規インストールのみサポートなのは 1.8 までと同じで、フレッシュインストール時に「Preserve VMFS」オプションを選択すると、あとで既存の仮想マシンの再登録が可能。
  • Marvell Octeon TX2 CN92xx/CN93xx/CN95xx/CN96xx/CN98xx プラットフォームの実験的サポート
  • PL011 UART のサポートの改善
  • ID_AA64ISAR2_EL2 の VMM サポート、新しい Linux カーネルでの VM クラッシュの修正 (>= 5.17-rc2)
  • PCIe 拡張割り当てのサポート
  • PCIe のロギングの改善
  • MSI 仮想化の改善      

 

2022 年 7 月 20 日 - v1.10 ビルド 20133114 (VMware-VMvisor-Installer-7.0.0-20133114.aarch64.iso)

  • v1.9 以前の ESXi-Arm 1.x Fling リリースからのアップグレードをサポート
  • Arm DEN0115 のサポート (ファームウェア インターフェイス経由の PCIe config  スペースへのアクセス、Raspberry Pi での検証済み)
  • Ampere eMAG の L3 キャッシュ情報のレポート
  • 非キャッシュ coherent DMA サポート改善(マイナーな改善)
  • Raspberry Pi NIC (genet) 統計
  • GOS: VNXNET3 と PVSCSI を freebsd12 のデフォルトとして使用
  • RK3566 SBC (Quartz64 など) のサポート
    • PCIe サポート (現時点では NVMe は未サポート)
    • EQOS (オンボード) NIC のサポート
  • Intel igbn NIC ドライバーの修正と安定性を向上
  • VM からの未知の sys_reg(3, 0, 0, x, y) アクセスに対してゼロを返すように修正
  • テレメトリ レポート - Fling が実行されているシステムの種類に関する統計を収集し評価する範囲を拡大
    • 収集対象は次のとおり(PII は収集されない)
      • CPU 情報: コア数、NUMA、メーカーなど
      • ファームウェア情報: ベンダー、バージョン
      • プラットフォーム情報: ベンダー、製品、UUID、PCIバイス リスト
      • ESXi-Arm 情報: バージョン、パッチ レベル、製品ビルド
      • /bin/telemetry スクリプトは、すべての起動時と毎週土曜日の 00:00 に実行される

 

2022 年 10 月 26 日 - v1.11 ビルド 20693597 (VMware-VMvisor-Installer-7.0.0-20693597.aarch64.iso)

  • v1.9 以前の ESXi-Arm 1.x Fling リリースからのアップグレードをサポート
  • ビルトイン ESX サービス用の CPU アクセラレーション暗号 (NEON、Armv8 暗号化拡張機能など) をサポート
  • macOS (または任意の OS 上の最新のターミナル) の Terminal.app が esxtop を適切にレンダリングされるよう ESXi xterm-256color terminfo を修正
  • Apple シリコンの VMware Fusion で使用されるバージョンと一致するように仮想 UEFI ROM を修正・更新
  • 仮想 HTTP ブートのサポート
  • 仮想 TPM、仮想セキュア ブート、および暗号化された VM のサポート
  • 物理 GICv4 システムのサポート
  • Windows 用の VMware Tools を追加
  • ixgben ドライバーの問題を修正
  • 既知の問題点:
    • AHCI ディスクを使用すると、Ampere Altra ベースのシステムで PSOD が発生する場合がある
    • Ubuntu 22.04 LTS インストーラーのグラフィックが機能しない(解決策:Ubuntu 22.10 を使用する)
    • Windows SVGA ドライバーが機能しないため、svgaバイスを使用する環境にはインストールしない (または、インストール後にセーフ モードを使用し svgaバイスをアンインストールする)

 ダウンロード情報

ダウンロードには My VMware アカウントが必要です。My VMware アカウントは個人でも作成できるので、リンクから My VMware アカウントを作成の後に、

ESXi Arm Edition | VMware Flings からイメージをダウンロードしてください。なお、リリースノートは以下の URL で見ることができます。またイメージ以外のドキュメントは Flings のページからダウンロードします。多くのドキュメントがありますが使用するハードウエアに合わせたものだけダウンロードすれば問題ありません。私の場合は Raspberry Pi 4 を使うのでイメージダウンロードページから VMware-VMvisor-Installer-7.0.0-20693597.aarch64.iso, vmware-fdm-7.0c-16620014.arm64.vib, vmware-fdm-7.0d-16749671.arm64.vib の 3つをダウンロードし、あとは Flings のページから ESXi-Arm-Fling-Doc.pdfFling-on-Raspberry-Pi.pdf だけをダウンロードしています。またイメージも vmware-fdm-7.0c-16620014.arm64.vib, vmware-fdm-7.0d-16749671.arm64.vib は新しくなっていませんので、以前ダウンロードしている場合はこちらはダウンロード不要です。

ESXi Arm Edition version 1.11 — October 26, 2022、Build 20693597

flings.vmware.com

この記事から読み始めた方のための補助情報

ESXi Arm Edition は単体でも使うことができますが、vCenter Server 配下でも

使うことができます。使用できる vCenter Server には以下の要件があります。

  • ESXi-Arm ホストの管理には、vCenter Server Appliance(VCSA)7.0 以降が必要です。
  • ESXi-Arm ホストで vSphere HA および vSphere FT を有効にしたいときは、vCenter Server Appliance(VCSA)7.0.0c または 7.0.0d を使います。また、vSphere DRS が必要な場合は VCSA7.0.0c または 7.0.0d を使用するとともに、VCSA7.0c の場合は vmware-fdm-7.0c-16620014.arm64.vib を、VCSA7.0d の場合は vmware-fdm-7.0d-16749671.arm64.vib をダウンロードし適用する必要があります。
    ※ vCSA によって適用する vib が異なりますので注意してください。
    ※vCSA 7.0.0c / 7.0.0d は VMware サイトの製品のダウンロードからダウンロードできます。
  • vCenter Server Appliance(VCSA)7.0 Update 1以降を使用することは可能ですが、いくつかの制限があります。
    • vSphere DRSは機能が動作しません。
    • vCLS(vCenter Cluster Services)対策が必要です。(現在の vCenter Server Appliance は x86 ベースの仮想マシンのため、vCLS により分散コントロールプレーンサービスをESXiホストにデプロイしようとしてもできないため、ファイルの削除処理が走るとともに再度のデプロイ処理も走るため、延々と処理が続いているような状態になります。)

VCSA 7.0 U1 以降を使う場合は

どうしても VCSA 7.0.0c または VCSA 7.0.0d が入手できず VCSA 7.0 U1 以降を使わざるを得ない場合は、以下の KB を参考にして vCLS を無効にしてください。これにより、vCLS の動作が停止してメッセージも出なくなります。

kb.vmware.com

この vCLS 停止は既存の x86 の vSphere 7.0x でも有効なので、vCLS を使用しない場合はこの設定をするのもよいかもしれません。

vCentr Server Appliance は x86 ベースしかないので、ESXi Arm Edition 以外に最低 1台の x86 ESXi が必要になります。でも、それを準備すれば安価に vSAN まで使える vSphere 環境が得られるのは、家ラボやっている人には朗報です。ただし、私のように Raspberry Pi 4 で環境を作っている場合はそのホストのメモリーが 8GB しかないので、できることは最低限になります。例えば vSphere の資格を取るための勉強用としては良いかもしれませんが、本格的に vSphere ノウハウを習得するために家ラボを作る場合には、やはり x86 ホストは必要になるかなと思います。

どんなことに使えるの

もともと Raspberry Pi 4 は最大 8GB しかメモリーがありません。そのため、Raspberry Pi 4 の上で Arm ベースの仮想マシンは数動かせません。あくまでも vSphere 7 をテストしてみたい、または ARM 版の ESXi を体験したいなどの用途がメインになると思います。あとは、VMware の資格を取るための勉強の環境という使い方もあるでしょう。本番としては使うなとも書かれていますので、あくまでも評価という使い方になります。

過去の ESXi Arm Edition の記事

今までの記事のリストがここで見られますので、併せてご覧ください。

imaisato.hatenablog.jp

VMware Workstation Pro 17 の中身を見る : ゲスト OS 識別編

本記事は、「vExperts Advent Calendar 2022」の最終日用として書いた記事です。
2022年の年の瀬も迫ってきていろいろと忙しくなる時期ですが、そんなときに限って好きなことや興味を持ったことをいろいろと調べ Dive deep したりしてしまいます。
昨年は

imaisato.hatenablog.jp

こんなことを、その前の年は

imaisato.hatenablog.jp

なことをやっていましたが、今年は日本で二人、社員さんを除けば唯一の「vExpert Desktop Hypervisor

vExpert Desktop Hypervisor

にもなったことだし、2年連続の ESXi Arm Edition からはなれて Desktop Hypervisor ネタで締めようと思います。ESXi Arm Edition は最新 version 1.11 になっていますが、vSphere 8 も出てきているのに vSphere 7 ベースのままなので、もうちょっと進化するまでちょっと待ち状態にしています。
ということで、今年は VMware Workstation Pro 17 の中身を見るというテーマで記事を書いてみます。

VMware Workstation Pro 17 とは

2022年11月17日、実際には2022年11月18日に公開された VMware Workstation 16 の後継です。

VMware Workstation Pro 17


この記事執筆の時点の最新版は
VMware-workstation-full-17.0.0-20800274.exe で、以下のページからダウンロードができます。

www.vmware.com

このバージョンの詳細は以下の記事に書いていますのでそちらを参照してください。

imaisato.hatenablog.jp

VMware Workstation Pro 17 の中身を見る」とは

私自身 VMware 創業時から VMware Workstation を使い続けていて、新しいバージョンが出るたびにいろいろな機能が追加されていくということと、それに伴って vmx ファイルに記述されるパラメーターが増えているのがずっと気になっていました。これ、プログラムの中でどのように読み取っているのかなと。また、それぞれのパラメーターの設定はどんなのがあるのかなということも気になっていて、いろいろな情報をあさってみたのですがなかなか細かく書かれてるものにたどり着けません。いくつかの情報は以下のようなサイトに書かれているのですが最新のものは見当たらない。

今年の春に IT 仕事はいったん引退した時点で暇な時間ができたので vmx ファイルを紐解こうと始めたのですが、如何せん調べる範囲が多すぎてなかなかまとめることができません。なので、情報として見つけられたものから徐々にブログに記事として書いていこうと始めたのが今回から始める「VMware Workstation Pro 17 の中身を見る」になります。

この「VMware Workstation Pro 17 の中身を見る」の流れの一部にもなりますが、上に紹介した以前書いた記事を参考に見ていただくと、どのようなことを調べて書いていきたいかが見えてくると思います。

VMware Workstation Pro 17 でゲスト OS を識別するには

VMware Workstation Pro 17 の vmx ファイルには「guestOS」というパラメータがあります。これには以下のように = の後ろに仮想マシンで動作させるゲスト OS を記述します。

guestOS = "windows11-64"

このゲスト OS はどのようなものがあるかは先の記事VMware Workstation 17 Pro 17.0.0 Build 20800274 登場の中の「VMware Workstation 17 Proで利用できるゲスト OS は?」に記述してあります。そして仮想マシンを作成する際に「ゲスト OS の選択」で適切なものを選択されるだけで自動的に設定されます。

ゲスト OS の選択

そして、この「ゲスト OS の選択」は適当なものを選んでも仮想マシンを作成することが出来、また起動することもできてしまいます。これ、何の役に立っているのと疑問に思ったりしながら「Windows 11 無いけれど Windows 10で作っちゃえ」とかやっていたと思います。しかし、VMware Workstation Pro 17 の内部ではこの設定を読み取って設定された ゲスト OS 特有の機能がある場合はそれを動かすようになっています。このゲスト OS の文字列をいちいちプログラムの中で評価していたらそれは大変なので実際には 16進のコードが割り当てられています。VMware Workstation Pro 17 に設定されているコードは以下の通りです。

ゲスト OS

ゲスト OS ID

almaLinux-64 

 0x5030

amazonlinux2-64

 0x5083

amazonlinux3-64

 0x5084

arm-almaLinux-64

 0x5031

arm-debian10-64

 0x503D

arm-debian11-64

 0x503D

arm-debian12-64

 0x503D

arm-Fedora-64

 0x5031

arm-freeBSD13-64

 0x504A

arm-freeBSD14-64

 0x504D

arm-other-64

 0x5037

arm-other5xlinux-64

 0x5031

arm-other6xlinux-64

 0x5034

arm-rhel9-64

 0x5041

arm-rockyLinux-64

 0x5031

arm-ubuntu-64

 0x5031

arm-vmkernel7

 0x5070

arm-vmkernel8

 0x5072

arm-vmware-photon-64

 0x5074

arm-windows10-64

 0x5016

arm-windows11-64

 0x5018

arm-windows12-64

 0x501A

asianux3

 0x5029

asianux3-64

 0x502A

asianux4

 0x5029

asianux4-64

 0x502A

asianux5-64

 0x502C

asianux7-64

 0x502C

asianux8-64

 0x502C

asianux9-64

 0x5030

centos

 0x507C

centos-64

 0x507D

centos6

 0x507E

centos6-64

 0x507F

centos7-64

 0x5080

centos8-64

 0x5081

centos9-64

 0x5082

coreos-64

 0x502C

CRXPod1-64

 0x5086

CRXSys1-64

 0x5085

darwin

 0x5054

darwin-64

 0x5055

darwin10

 0x5056

darwin10-64

 0x5057

darwin11

 0x5058

darwin11-64

 0x5059

darwin12-64

 0x505A

darwin13-64

 0x505B

darwin14-64

 0x505C

darwin15-64

 0x505D

darwin16-64

 0x505E

darwin17-64

 0x505F

darwin18-64

 0x5060

darwin19-64

 0x5061

darwin20-64

 0x5062

darwin21-64

 0x5063

darwin22-64

 0x5064

darwin23-64

 0x5065

debian10

 0x503B

debian10-64

 0x503C

debian11

 0x503B

debian11-64

 0x503C

debian12

 0x503B

debian12-64

 0x503C

debian4

 0x503B

debian4-64

 0x503C

debian5

 0x503B

debian5-64

 0x503C

debian6

 0x503B

debian6-64

 0x503C

debian7

 0x503B

debian7-64

 0x503C

debian8

 0x503B

debian8-64

 0x503C

debian9

 0x503B

debian9-64

 0x503C

dos

 0x5001

eComStation

 0x5023

eComStation2

 0x5024

Fedora

 0x5029

Fedora-64

 0x502A

flatcar-64

 0x5030

freeBSD

 0x5042

freeBSD-64

 0x5043

freeBSD11

 0x5044

freeBSD11-64

 0x5045

freeBSD12

 0x5046

freeBSD12-64

 0x5047

freeBSD13

 0x5048

freeBSD13-64

 0x5049

freeBSD14

 0x504B

freeBSD14-64

 0x504C

linux

 0x5025

linuxMint-64

 0x5087

longhorn

 0x500C

longhorn-64

 0x500D

mandrake

 0x5029

mandrake-64

 0x502A

mandriva

 0x5029

mandriva-64

 0x502A

netware4

 0x5068

netware5

 0x5069

netware6

 0x506A

nld9

 0x5029

nt4

 0x5006

oes

 0x5029

openserver5

 0x5066

openserver6

 0x5066

opensuse

 0x5029

opensuse-64

 0x502A

oraclelinux

 0x5075

oraclelinux-64

 0x5076

oraclelinux6

 0x5077

oraclelinux6-64

 0x5078

oraclelinux7-64

 0x5079

oraclelinux8-64

 0x507A

oraclelinux9-64

 0x507B

os2

 0x5022

os2experimental

 0x5022

other

 0x5035

other-64

 0x5036

other24xlinux

 0x5027

other24xlinux-64

 0x5028

other26xlinux

 0x5029

other26xlinux-64

 0x502A

other3xlinux

 0x502B

other3xlinux-64

 0x502C

other4xlinux

 0x502D

other4xlinux-64

 0x502E

other5xlinux

 0x502F

other5xlinux-64

 0x5030

other6xlinux

 0x5032

other6xlinux-64

 0x5033

otherlinux

 0x5035

otherlinux-64

 0x5036

redhat

 0x5029

rhel2

 0x5027

rhel3

 0x5027

rhel3-64

 0x5028

rhel4

 0x5029

rhel4-64

 0x502A

rhel5

 0x5029

rhel5-64

 0x502A

rhel6

 0x503E

rhel6-64

 0x503F

rhel7

 0x503E

rhel7-64

 0x503F

rhel8-64

 0x503F

rhel9-64

 0x5040

rockyLinux-64

 0x5030

sjds

 0x5027

sles

 0x5029

sles-64

 0x502A

sles10

 0x5029

sles10-64

 0x502A

sles11

 0x5029

sles11-64

 0x502A

sles12

 0x5029

sles12-64

 0x502A

sles15-64

 0x502C

sles16-64

 0x5030

solaris10

 0x5051

solaris10-64

 0x5052

solaris11-64

 0x5053

solaris6

 0x504E

solaris7

 0x504E

solaris8

 0x504F

solaris9

 0x5050

suse

 0x5029

suse-64

 0x502A

turbolinux

 0x5029

turbolinux-64

 0x502A

ubuntu

 0x5038

ubuntu-64

 0x502A

unixware7

 0x5067

vmkernel

 0x506B

vmkernel5

 0x506C

vmkernel6

 0x506D

vmkernel65

 0x506E

vmkernel7

 0x506F

vmkernel8

 0x5071

vmware-photon-64

 0x5073

whistler

 0x5008

win2000

 0x5007

win2000AdvServ

 0x5007

win2000Pro

 0x5007

win2000Serv

 0x5007

win31

 0x5002

win95

 0x5003

win98

 0x5004

windows11-64

 0x5017

windows12-64

 0x5019

windows2019srv-64

 0x501E

windows2019srvNext-64

 0x501F

windows2022srvNext-64

 0x5020

windows7

 0x5010

windows7-64

 0x5011

windows7srv-64

 0x501B

windows8

 0x5012

windows8-64

 0x5013

windows8srv-64

 0x501C

windows9

 0x5014

windows9-64

 0x5015

windows9srv-64

 0x501D

winHyperV

 0x5021

winMe

 0x5005

winNetBusiness

 0x500A

winNetDatacenter

 0x500A

winNetDatacenter-64

 0x500B

winNetEnterprise

 0x500A

winNetEnterprise-64

 0x500B

winNetStandard

 0x500A

winNetStandard-64

 0x500B

winNetWeb

 0x500A

winNT

 0x5006

winServer2008Cluster-32

 0x500C

winServer2008Cluster-64

 0x500D

winServer2008Datacenter-32

 0x500C

winServer2008Datacenter-64

 0x500D

winServer2008DatacenterCore-32

 0x500C

winServer2008DatacenterCore-64

 0x500D

winServer2008Enterprise-32

 0x500C

winServer2008Enterprise-64

 0x500D

winServer2008EnterpriseCore-32

 0x500C

winServer2008EnterpriseCore-64

 0x500D

winServer2008SmallBusiness-32

 0x500C

winServer2008SmallBusiness-64

 0x500D

winServer2008SmallBusinessPremium-32

 0x500C

winServer2008SmallBusinessPremium-64

 0x500D

winServer2008Standard-32

 0x500C

winServer2008Standard-64

 0x500D

winServer2008StandardCore-32

 0x500C

winServer2008StandardCore-64

 0x500D

winServer2008Web-32

 0x500C

winServer2008Web-64

 0x500D

winVista

 0x500E

winVista-64

 0x500F

winXPHome

 0x5008

winXPPro

 0x5008

winXPPro-64

 0x5009

ちなみにこのリストを ゲスト OS ID 順に並べると

ゲスト OS ID

ゲスト OS

 0x5001 dos
 0x5002 win31
 0x5003 win95
 0x5004 win98
 0x5005 winMe
 0x5006 nt4
 0x5006 winNT
 0x5007 win2000
 0x5007 win2000AdvServ
 0x5007 win2000Pro
 0x5007 win2000Serv
 0x5008 whistler
 0x5008 winXPHome
 0x5008 winXPPro
 0x5009 winXPPro-64
 0x500A winNetBusiness
 0x500A winNetDatacenter
 0x500A winNetEnterprise
 0x500A winNetStandard
 0x500A winNetWeb
 0x500B winNetDatacenter-64
 0x500B winNetEnterprise-64
 0x500B winNetStandard-64
 0x500C longhorn
 0x500C winServer2008Cluster-32
 0x500C winServer2008Datacenter-32
 0x500C winServer2008DatacenterCore-32
 0x500C winServer2008Enterprise-32
 0x500C winServer2008EnterpriseCore-32
 0x500C winServer2008SmallBusiness-32
 0x500C winServer2008SmallBusinessPremium-32
 0x500C winServer2008Standard-32
 0x500C winServer2008StandardCore-32
 0x500C winServer2008Web-32
 0x500D longhorn-64
 0x500D winServer2008Cluster-64
 0x500D winServer2008Datacenter-64
 0x500D winServer2008DatacenterCore-64
 0x500D winServer2008Enterprise-64
 0x500D winServer2008EnterpriseCore-64
 0x500D winServer2008SmallBusiness-64
 0x500D winServer2008SmallBusinessPremium-64
 0x500D winServer2008Standard-64
 0x500D winServer2008StandardCore-64
 0x500D winServer2008Web-64
 0x500E winVista
 0x500F winVista-64
 0x5010 windows7
 0x5011 windows7-64
 0x5012 windows8
 0x5013 windows8-64
 0x5014 windows9
 0x5015 windows9-64
 0x5016 arm-windows10-64
 0x5017 windows11-64
 0x5018 arm-windows11-64
 0x5019 windows12-64
 0x501A arm-windows12-64
 0x501B windows7srv-64
 0x501C windows8srv-64
 0x501D windows9srv-64
 0x501E windows2019srv-64
 0x501F windows2019srvNext-64
 0x5020 windows2022srvNext-64
 0x5021 winHyperV
 0x5022 os2
 0x5022 os2experimental
 0x5023 eComStation
 0x5024 eComStation2
 0x5025 linux
 0x5027 other24xlinux
 0x5027 rhel2
 0x5027 rhel3
 0x5027 sjds
 0x5028 other24xlinux-64
 0x5028 rhel3-64
 0x5029 asianux3
 0x5029 asianux4
 0x5029 Fedora
 0x5029 mandrake
 0x5029 mandriva
 0x5029 nld9
 0x5029 oes
 0x5029 opensuse
 0x5029 other26xlinux
 0x5029 redhat
 0x5029 rhel4
 0x5029 rhel5
 0x5029 sles
 0x5029 sles10
 0x5029 sles11
 0x5029 sles12
 0x5029 suse
 0x5029 turbolinux
 0x502A asianux3-64
 0x502A asianux4-64
 0x502A Fedora-64
 0x502A mandrake-64
 0x502A mandriva-64
 0x502A opensuse-64
 0x502A other26xlinux-64
 0x502A rhel4-64
 0x502A rhel5-64
 0x502A sles10-64
 0x502A sles11-64
 0x502A sles12-64
 0x502A sles-64
 0x502A suse-64
 0x502A turbolinux-64
 0x502A ubuntu-64
 0x502B other3xlinux
 0x502C asianux5-64
 0x502C asianux7-64
 0x502C asianux8-64
 0x502C coreos-64
 0x502C other3xlinux-64
 0x502C sles15-64
 0x502D other4xlinux
 0x502E other4xlinux-64
 0x502F other5xlinux
 0x5030 almaLinux-64 
 0x5030 asianux9-64
 0x5030 flatcar-64
 0x5030 other5xlinux-64
 0x5030 rockyLinux-64
 0x5030 sles16-64
 0x5031 arm-almaLinux-64
 0x5031 arm-Fedora-64
 0x5031 arm-other5xlinux-64
 0x5031 arm-rockyLinux-64
 0x5031 arm-ubuntu-64
 0x5032 other6xlinux
 0x5033 other6xlinux-64
 0x5034 arm-other6xlinux-64
 0x5035 other
 0x5035 otherlinux
 0x5036 other-64
 0x5036 otherlinux-64
 0x5037 arm-other-64
 0x5038 ubuntu
 0x503B debian10
 0x503B debian11
 0x503B debian12
 0x503B debian4
 0x503B debian5
 0x503B debian6
 0x503B debian7
 0x503B debian8
 0x503B debian9
 0x503C debian10-64
 0x503C debian11-64
 0x503C debian12-64
 0x503C debian4-64
 0x503C debian5-64
 0x503C debian6-64
 0x503C debian7-64
 0x503C debian8-64
 0x503C debian9-64
 0x503D arm-debian10-64
 0x503D arm-debian11-64
 0x503D arm-debian12-64
 0x503E rhel6
 0x503E rhel7
 0x503F rhel6-64
 0x503F rhel7-64
 0x503F rhel8-64
 0x5040 rhel9-64
 0x5041 arm-rhel9-64
 0x5042 freeBSD
 0x5043 freeBSD-64
 0x5044 freeBSD11
 0x5045 freeBSD11-64
 0x5046 freeBSD12
 0x5047 freeBSD12-64
 0x5048 freeBSD13
 0x5049 freeBSD13-64
 0x504A arm-freeBSD13-64
 0x504B freeBSD14
 0x504C freeBSD14-64
 0x504D arm-freeBSD14-64
 0x504E solaris6
 0x504E solaris7
 0x504F solaris8
 0x5050 solaris9
 0x5051 solaris10
 0x5052  
 0x5053 solaris11-64
 0x5054 darwin
 0x5055 darwin-64
 0x5056 darwin10
 0x5057 darwin10-64
 0x5058 darwin11
 0x5059 darwin11-64
 0x505A darwin12-64
 0x505B darwin13-64
 0x505C darwin14-64
 0x505D darwin15-64
 0x505E darwin16-64
 0x505F darwin17-64
 0x5060 darwin18-64
 0x5061 darwin19-64
 0x5062 darwin20-64
 0x5063 darwin21-64
 0x5064 darwin22-64
 0x5065 darwin23-64
 0x5066 openserver5
 0x5066 openserver6
 0x5067 unixware7
 0x5068 netware4
 0x5069 netware5
 0x506A netware6
 0x506B vmkernel
 0x506C vmkernel5
 0x506D vmkernel6
 0x506E vmkernel65
 0x506F vmkernel7
 0x5070 arm-vmkernel7
 0x5071 vmkernel8
 0x5072 arm-vmkernel8
 0x5073 vmware-photon-64
 0x5074 arm-vmware-photon-64
 0x5075 oraclelinux
 0x5076 oraclelinux-64
 0x5077 oraclelinux6
 0x5078 oraclelinux6-64
 0x5079 oraclelinux7-64
 0x507A oraclelinux8-64
 0x507B oraclelinux9-64
 0x507C centos
 0x507D centos-64
 0x507E centos6
 0x507F centos6-64
 0x5080 centos7-64
 0x5081 centos8-64
 0x5082 centos9-64
 0x5083 amazonlinux2-64
 0x5084 amazonlinux3-64
 0x5085 CRXSys1-64
 0x5086 CRXPod1-64
 0x5087 linuxMint-64

ゲスト OS ID は対象となるゲスト OS のプロダクトに対して値が割り当てられていますが、実は 1 対 1 になっているようでなっていないのがこのゲスト OS ID を見ると分かります。例えば Windows 2000 と付くものはすべて 0x5007で、Windows Server 2008 の 32ビットは 0x500C のようになっています。これらは VMware Workstation Pro 17 の中では同じものとして扱われますが、しかし同じ Windows 名称でも異なる ゲスト OS ID を付与されているものがあり windows 2019 は 2種類 0x501E と 0x501F が使われています。これは現在のバージョンと次の機能追加されたバージョンのように一部変更があった場合に付与されて識別されるようになっていて、例えば 同じな名前でもベースのカーネルが変わったりした場合に識別できるようにしているようです。また逆に別のゲスト OS ID が割り当てられているけれど同じとして扱われるものもいくつかあり、例えば Windows 95, Windows 98 そして Windows ME はすべて Win9x 、arm はゲスト OS が何であっても同じ 0x5031 として扱われています。つまり、ゲスト OS の名前は違っていても基本部分は同じなので別々のものとして処理せずにまとめちゃえという感じです。この ゲスト OS ID は vmx ファイルに記述される guestOS パラメーターにはしっかり意味があることがわかります。例えば仮想マシン作成時のデフォルト設定などに使われ、特にゲスト OS 固有の機能を使う仮想マシンを作る際には適切な値を設定して使うことが重要になります。またこのゲスト OS ID が付与されていないオペレーティングシステムVMware Workstation Pro 17 で動かすことは可能ですが、それらは 0x5000 の ゲスト OS ID が振られて扱われるようになっているようです。

vmx ファイルはどこで読み取られるの?

VMware Workstation Pro 17 が起動される最初のプログラムは、フォルダー C:\Program Files (x86)\VMware\VMware Workstation にある vmware.exe です。このプログラムでは VMware Workstation Pro 17 自体の起動と各種動作に必要なサブプログラムのコントロールなどを行っています。なので、この vmware.exe の中には vmx ファイルにある関する情報は扱いません。vmx ファイルにある情報を扱うのはあくまでもフォルダー C:\Program Files (x86)\VMware\VMware Workstation\x64 にある vmware-vmx.exe 他が行います。このフォルダー内には仮想マシンを起動する際に使用される ROM、仮想インターフェースの ROM などが含まれており、VMware Workstation Pro 17 で仮想マシンを実行する際の重要なファイルが集められています。(Docker などはフォルダー C:\Program Files (x86)\VMware\VMware Workstation\bin に、kvm は C:\Program Files (x86)\VMware\VMware Workstation に含まれていたりしますが、これらはメインではなくて後々に追加されたものなのでバラバラなのか、それとも意図してそこに置いてあるのかはわかりません。)

※これら2つはそれぞれ VMware KVM Mode、VMware Workstation Container という別の機能になりますので別においているのだと考えています。この二つはいずれ記事にしていく予定です。

なんで VMware Workstation Pro 17 の実行ファイルは vmware.exe なの?

これは VMware が創業した際に製品名につけた名前が VMware だった名残でしょう。この辺りは以前の記事に書いてありますのでご興味あればご覧ください。

imaisato.hatenablog.jp

VMwareBroadcom への買収が EU の反トラスト法調査で 2023年5月11日まで延命しました。それでもその合併吸収の後は VMNware という会社名は消滅し VMware というソフトウエア製品群の総称に変わることが発表されています。四半世紀前に創業した際のソフトウエアの名前が VMware、そしてそこから四半世紀後に会社が消滅してソフトウエア製品群の総称になるということは、人の人生で 60歳で還暦を迎え出生時に還りを迎え心機一転というのがありますが、VMware も四半世紀でソフトウエア名に還り心機一転という感じ、今回の件はなんとなくそんな感じに思えてしまいます。
私のこのブログでの VMware ネタ、合併吸収までの間で次回以降どんなネタを書いていくか・・・・・それとも今回で終わりになるかそれ以降も書くかは、これからの VMware の動きや自分の気分次第暇あり次第ということで。。。。。

vExpert 2023の応募が始まっています

Apply to be a vExpert 2023

 

いよいよ今日から 2022年は世界では 2514人、日本では 93人しかいない vExpert の 2023 年度の応募受付が始まりました。締め切りは 2023年1月13日です。

 

 vexpert.vmware.com 

vExpert とは

vExpert のサイトの中、「Program Overview」に書かれている通り、

VMware vExpertプログラムは、VMwareのグローバルなエバンジェリズムおよびアドボカシープログラムです。このプログラムは、VMwareマーケティング リソースをお客様のアドボカシー活動に活用することを目的としています。記事のプロモーション、VMware のグローバル イベントでの露出、共同広告、トラフィック分析、ベータ プログラムや VMware のロードマップへの早期アクセスなどがあります。この賞は、企業ではなく個人を対象としており、期間は1年間です。お客様とパートナー企業の両方の従業員が受賞できます。応募にあたっては、前年度のさまざまなコミュニティ活動に加え、今年度(下半期の応募に限る)の活動も考慮して受賞者を決定します。私たちは、あなたが活動していただけでなく、あなたが選んだ道で今も活動していることを見ています。 

のように、VMware に個人としてどのような貢献活動をしたかによって、vExpert 対象かどうかを判断され、vExpert として適切と評価された人に対しアワードが送られて、翌年 1年間の vExpert としての活動ができるようになります。

vExpert に必要な要件(基準)

サイトの中の「Criteria」に、vExpert に応募できる基準が以下のように書かれています。

vExpertになることに興味があるなら、基準はシンプルです。VMwareの知識を共有し、それをコミュニティに還元してくれるITプロフェッショナルを求めています。
「還元」という言葉は、本業を超えて貢献することと定義されています。自分の知識を共有し、コミュニティに参加する方法はいくつかあります。例えば、ブログ、本の執筆、雑誌への寄稿、Facebookグループでの活動、フォーラム(VMTNやその他のVMware以外のプラットフォーム)、スピーチ、VMUGのリーダーシップ、ビデオなどが挙げられます。VMware Social Media Advocacyは、オリジナルコンテンツではないため、賞の対象にはなりません。

ここで特に重要なのは「本業を超えて貢献することと定義されています」という部分で、仕事で VMware 製品を使っていて、仕事で会社のブログに書いたり本を出したり、外部講演に登壇をしたりだけでは vExperet にはなれません。「VMwareの知識を共有し、それをコミュニティに還元してくれるITプロフェッショナル」であることが必要になり、その行動を応募時に証明しなければなりません。私の場合は会社の仕事は Google Cloud Platform と Microsoft Azure をメインにクラウド関連の業務を行っているので VMware 製品は個人の範疇と社内で時々支援程度になっているので、VMware の知識を還元するためにはそれなりに個人の時間を割いて学習したり検証したりする必要がありました。でも、そういう活動が vExpert になるためには必要だということになります。

vExpert への応募

時期になるとサイトの中の左上、Welcome の下に申請できるリンクが現れます。

vExpert 2023 応募

このバナーをクリックし、次の画面でログインまたは新規応募ならアカウントを作成し、応募ページに移動します。既に vExpert サイトにログインしている場合は、この画面は出ずにプロフィールの確認ページに移ります。

f:id:imaisato:20211208080527p:plain

ログイン/アカウント作成画面

ここからが 2022 年までの入力画面と異なっており、今までは小さな枠に書き込んだり入力できるのがひとつだけだったのが、より多くのことを記載できるようになりました。どのように入力するかは画面右上に「SHOW EXAMPLE APPLICATION」ボタンがありますので、それをクリックして参照しながら書いていきます。

SHOW EXAMPLE APPLICATION

もちろん記入はすべて英語で書くことになります。どのような内容を書くのかというと、vExpert に応募できる「資格」、つまり基準を満たしている証跡を入力していきます。いくつか書く場所があるのでそれぞれに該当する部分だけ記入して行きます。該当しない部分は空白で構いません。

最初は「1. Content Creation」、なにかコンテンツを作っている場合はここに記入します。ブログを書いている人はブログの URL を、本を執筆している人はその本がわかることを書きます。YouTube などで動画配信している場合も同様です。ここは昨年までは最大 3つまでしか書けない制限がありましたが、今年はテキストでのフリー入力になっていますので枠を拡大して十分書くことができます。

次に「2. Events and Speaking」、これは個人活動としてイベントのスピーカーとして登壇したりイベントの手伝いをしをした場合にはその役割などを書いていきます。自分が勤務する会社の自社イベントや社内イベントでの登壇は仕事なので評価対象になりません。また、VMware 主催のイベントでお金を出して登壇する場合も評価対象にはなりません。あくまでも個人の活動というのが重要です。ここもテキストでフリー入力になっていますので、活動内容をしっかりアピールしながら記載していきます。

次の「3. Online communities, tools, and resources」、ここはどのオンラインコミュニティに参加して活動したかを記載します。どんな活動をしたかがわかるもの、例えばステータス レベル、ポイント、またはバッジなどがあればそれを記載します。コミュニティーに対するツールを作ったりしていた場合は、そのオンラインツール、リソース、ディレクトリ、またはリポジトリをリストアップし、自分の役割も記入します。

その次の「4. VMware Programs」はVMUG のリーダーシップ、アドバイザリー・ボード、リファレンス・プログラム、カスタマー評議会、VMware Partner Network などの VMware のプログラムで自分が担務した役割を記入する場所で、ほとんどの人は該当しないと思います。

その次の「What other activities in the last year should we take into account?」はアピールの場所です。どのようなことをしてきたのかを追加で記入します。※がついているので必須項目です。

最後の「Reference」は、この活動をするうえで支援してもらった VMware 社員がいれば、そのメールアドレスを記入します。その下の「vExpert Pro」はほとんどの人が関係ないので何もしなくて大丈夫です。

記入ができたらあとは確認をして、SAVEするだけです。これで締め切り後に審査が行われ、2023 年度の vExpert が決まります。今年の締め切りは 2023年1月13日、遅れないように申請しましょう。
SAVE が問題なく終了すると Application sent! が表示されます。これで申請は終了です。vExpert への申請は、期間内であれば何度も修正することができます。なので、追記したいことや修正したことがあれば、期間内に何度も直していきましょう。精査することで vExpert に認定される可能性は上がっていくと思います。申請した内容の修正や追記したい場合には、再度 APPLICATIONS ARE OPEN から入りなおして内容を直します。

Application sent!



vExpertの証明

vExpert になると以下のような証明書とバッジを受け取れます。証明書はプロファイルで入力する表示名が入ります。下の年号の下の部分ですね。

vExpoet 2022 証明書

バッジは

vExpert 2022

のようなもので、定められた条件のもとに使うことができます。複数年継続して取得している人向けに、年度ではなくてその部分に vExpert を取得した数が★で表示されているバッジもあり、両方を使い分けできます。

vExpert になるメリットは

vExpert になるメリットは「vExpert Program Benefits」に以下のように書かれています。

  1. 2,500 人以上の vExpert とのネットワークを構築できる。
  2. 8 つの VMware 公式ビジネスユニット主導の vExpert サブプログラムに応募できる
  3. プライベート vExpert #Slack チャンネルに招待され参加ができる
  4. VMware CEOが署名した vExpert 証明書がもらえる
  5. vExpertのロゴをカードやウェブサイトなどで1年間使用できる
  6. 様々なVMwareパートナーからの限定ギフトを入手できる機会がある
  7. NFRだけでなく、VMwareパートナーとのプライベートウェビナーへの参加
  8. プライベートベータへのアクセス(ベータチームへの登録が必要)
  9. ホームラボやクラウドプロバイダー向けに、ほとんどの製品の365日間の評価版ライセンスを提供
  10. VMworld の前に行われるブロガー ブリーフィングを通じたプライベート プレローンチ ブリーフィング(製品チームの許可が必要)
  11. 公開されたvExpertオンライン・ディレクトリに名前が掲載される
  12. お客様のソーシャル・チャネル向けに用意されたVMwareおよび仮想化コンテンツへのアクセス
  13. VMworld US および VMworld Europe の両イベントでの毎年の vExpert パーティ
    VMworld US と VMworld EU の両方で vExpert として認められる

このようにいろいろあるのですが、やはり個人として VMware 製品の啓もう活動に必要になるのは個人で使えるライセンスがあること。なので、上のメリットの中の 9. が一番のメリットになるかなと思います。

vExpert の分布は?

日本にいる vExpert はどういう組織に分布しているかが気になるかと思いますので、vExpert 2022 の 93名の所属を調べてみました。ソースは vExpert サイトにある Directory で、だれでもアクセスして情報を見ることが出来ます。

所属組織 人数
FUJI SOFT INCORPORATED  13
VMware  9
SB C&S Corp.  9
Dell Technologies  7
FUJITSU CLOUD TECHNOLOGIES LIMITED  6
Techvan Co.,Ltd.  4
Amazon Web Services Japan  4
Net One Systems Co., Ltd.  3
NTT DATA Corporation  2
Networld Corporation  2
JGC Corporation  2
IBM  2
Google Cloud Japan G.K.  2
FUJISOFT INCORPORATED  2
非公開 2
Veeam Software Company  1
Uniadex, Ltd.  1
tanium.jp  1
Seijo University  1
Red Hat Japan  1
Pasona Group Inc.  1
NVIDIA Corporation  1
NRI System Techno, Ltd.  1
NEC Solution Innovators,Ltd  1
Mitsubishi Jisho Community co., ltd.  1
Microsoft Japan  1
Meiji Yasuda System Technology Company Limited  1
Lenovo Japan  1
LAC Co., Ltd.  1
JBCC Nagaoka  1
ITOCHU Techno-Solutions Corporation  1
Internet Initiative Japan Inc.  1
Hewlett Packard Enterprise (HPE)  1
Fuji Electric IT Center Co.,Ltd  1
Dell EMC Inc.  1
DaaS Ltd.  1
Cloudflare Japan K.K.  1
Central Tanshi FX Co.,Ltd.  1
BIGLOBE Inc.  1
合計 93

富士ソフト株式会社がダントツですね。そして次はB C&S株式会社だったのと同率に、何故かユーザーではない VMware が来ています。あとは富士通株式会社が 0 になり、Amazon Web Services Japan は 2022年初登場で今現在は 1減 1増で変わらず。他にも少し動きがありました。2023年はどのように変わるのかが気になるところです。

vExpert の話をもっと聞きたいなら=>VMUGへ

vExpert になっている人の多くは VMUG (VMware User Group) に参加している人が多いので、もし vExpert についてもう少し情報が欲しいという場合、まず VMUG に参加しその中にあるコミュニティで聞いてみるのもよいかもしれません。

VMUG 会員には 2つのタイプがあり、一般会員は無料で誰でもなれます。そのため、まずは vExpert の方とコミュニケーションしたいということであれば VMUG の一般会員に入り、Japan VMUG コミュニティに入ることからスタートするのが良いかもしれません。

なお残念ながら vExpert の Criteria に満たない場合は、次年度に向けていろいろ活動をしておくようにしてください。アピールできる活動が増えれば増えるほど、vExpert 受賞が近づいてきます。