flings で公開されていた多くのツール類は既に入手不能になっており、例えば NUC で vSphere を動かすために必要だった USB デバイスのドライバやネットワークインターフェースどのドライバ類も入手が不可能になってしまっています。困った困った。 でも、いくつかの flings にあったものはそれぞれ個別にホストされているものもあり、ESXi Arm Edition は VMware の Customer Connect でホストされているため、現在でも入手が可能です。
ESXi Arm Edition のある場所は
ESXi Arm Edition の最新版は Customer Connect のダウンロードから入手することが出来ますが、普通に Customer Connect に行っても見つけることが出来ません。URL に「get-download?downloadGroup=ESXI-ARM」を追加することで初めて ESXi for ARM のダウンロード先に行くことが出来ます。
ESXi Arm Edition の最新版は
今日時点でのESXi Arm Edition の新しいバージョンは version 1.14 で、今回もまだ vSphere 7.0 0 ベースで、Build 22346715 です。登場は 2023年 9月1日なので、2か月前のリリースでした。
Mar 17, 2023 - v1.12 Note: Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases using either ESXi-Arm ISO or Offline Bundle
Virtualization Improvements
Various fixes related to Arm SystemReady compliance for virtual hardware exposed to guests
Compatibility fixes related to secure boot
Host Support Improvements
New platforms
EXPERIMENTAL support for HPE ProLiant RL300 Gen11 servers
EXPERIMENTAL support for Marvell OCTEON 10 based platforms
NVME
Support for NVMe on non-cache coherent PCIe root complexes (eg. Rockchip RK3566 systems like Pine64 Quartz64 and Firefly Station M2)
Add a workaround for devices with PCI vendor/device ID 126f:2263 (e.g. Patriot M.2 P300) that report non-unique EUI64/NGUID identifiers which prevented more than one disk from being detected on systems with multiple devices present
When upgrading a system from 1.12 from a prior Fling release with one of these devices, datastores from the device will not be mounted by default. Please refer to this blog post on how to mount the volumes after the upgrade is complete
Miscellaneous
ESXi-Arm Offline Bundle (zip) now available
Fixed cache size detection for Armv8.3+ based systems
Relax processor speed uniformity checks for DVFS enabled systems
Ampere Altra-based systems may PSOD when AHCI disks are used
In 1.11 we mentioned that the kernel included with the Ubuntu for Arm 22.04.1 LTS installer had an issue that prevented graphics from initializing properly. Ubuntu for Arm 22.04.2 LTS has since been released and includes a fix for this issue.
FreeBSD 13.1-RELEASE has a known bug with PVSCSI support and large I/O requests. There are a few ways to work around this issue:
Upgrade to FreeBSD 13.2-RC1 or later, which includes a fix
Set the tunable kern.maxphys=”131072″ to limit the maximum I/O request size
Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
Experimental support for Marvell Octeon TX2 CN92xx/CN93xx/CN95xx/CN96xx/CN98xx platforms
Improved support for PL011 UARTs
VMM support for ID_AA64ISAR2_EL2, fixing VM crashes with newer Linux kernels (>= 5.17-rc2)
Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
Experimental support for Pine64 Quartz64 board
Support for VMwareSVGA driver (compatible with Fusion on AS, e,g, fixes Fedora F35 black screen issue)
NUMA-aware VMM, improving performance for dual-socket Ampere Altra machines
Improved compatibility for systems without an IORT
Fix performance issues in newer Linux kernel guest OSes like Debian 10 and Photon 4
This release does not contain a new ESXi-Arm build, it is to announce new hardware enablement. The previous ESXi-Arm build can be used with the mentioned hardware platforms below. For more information, please
Experimental Support for Ampere Altra-based BM.Standard.A1.160 shapes from Oracle Cloud Infrastructure
Experimental Support for Marvell Armada A8040 / Octeon TX2 CN9132 chipsets
Experimental Support for Socionext SynQuacer Developerbox
August 6, 2021 - v1.5 Note:
Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
UI: Disable datastore browsing when no datastores are present
PSCI: Fix missing context_id argument for CPU_ON calls
vCenter Server Appliance(VCSA)7.0 Update 1以降を使用することは可能ですが、いくつかの制限があります。
vSphere DRSは機能が動作しません。
vCLS(vCenter Cluster Services)対策が必要です。(現在の vCenter Server Appliance は x86 ベースの仮想マシンのため、vCLS により分散コントロールプレーンサービスをESXiホストにデプロイしようとしてもできないため、ファイルの削除処理が走るとともに再度のデプロイ処理も走るため、延々と処理が続いているような状態になります。)
この vCLS 停止は既存の x86 の vSphere 7.0x でも有効なので、vCLS を使用しない場合はこの設定をするのもよいかもしれません。
vCentr Server Appliance は x86 ベースしかないので、ESXi Arm Edition 以外に最低 1台の x86 ESXi が必要になります。でも、それを準備すれば安価に vSAN まで使える vSphere 環境が得られるのは、家ラボやっている人には朗報です。ただし、私のように Raspberry Pi 4 で環境を作っている場合はそのホストのメモリーが 8GB しかないので、できることは最低限になります。例えば vSphere の資格を取るための勉強用としては良いかもしれませんが、本格的に vSphere ノウハウを習得するために家ラボを作る場合には、やはり x86 ホストは必要になるかなと思います。
どんなことに使えるの
もともと Raspberry Pi 4 は最大 8GB しかメモリーがありません。そのため、Raspberry Pi 4 の上で Arm ベースの仮想マシンは数動かせません。あくまでも vSphere 7 をテストしてみたい、または ARM 版の ESXi を体験したいなどの用途がメインになると思います。あとは、VMware の資格を取るための勉強の環境という使い方もあるでしょう。本番としては使うなとも書かれていますので、あくまでも評価という使い方になります。
ちなみに ESX は数ギガバイトに肥大と書きましたが、その大部分をサービスコンソールが占めていました。全体の 9割以上がサービスコンソールだったので、その部分を切り捨てることで ESXi は USB メモリーや SD カードにインストールすることが出来るようになり、各ハードウエアベンダーから USB DOM を使ったブートや SD カードを使ったブートができる製品が登場することになります。
vCenter Server Appliance(VCSA)7.0 Update 1以降を使用することは可能ですが、いくつかの制限があります。
vSphere DRSは機能が動作しません。
vCLS(vCenter Cluster Services)対策が必要です。(現在の vCenter Server Appliance は x86 ベースの仮想マシンのため、vCLS により分散コントロールプレーンサービスをESXiホストにデプロイしようとしてもできないため、ファイルの削除処理が走るとともに再度のデプロイ処理も走るため、延々と処理が続いているような状態になります。)
この vCLS 停止は既存の x86 の vSphere 7.0x でも有効なので、vCLS を使用しない場合はこの設定をするのもよいかもしれません。
vCentr Server Appliance は x86 ベースしかないので、ESXi Arm Edition 以外に最低 1台の x86 ESXi が必要になります。でも、それを準備すれば安価に vSAN まで使える vSphere 環境が得られるのは、家ラボやっている人には朗報です。ただし、私のように Raspberry Pi 4 で環境を作っている場合はそのホストのメモリーが 8GB しかないので、できることは最低限になります。例えば vSphere の資格を取るための勉強用としては良いかもしれませんが、本格的に vSphere ノウハウを習得するために家ラボを作る場合には、やはり x86 ホストは必要になるかなと思います。
どんなことに使えるの
もともと Raspberry Pi 4 は最大 8GB しかメモリーがありません。そのため、Raspberry Pi 4 の上で Arm ベースの仮想マシンは数動かせません。あくまでも vSphere 7 をテストしてみたい、または ARM 版の ESXi を体験したいなどの用途がメインになると思います。あとは、VMware の資格を取るための勉強の環境という使い方もあるでしょう。本番としては使うなとも書かれていますので、あくまでも評価という使い方になります。
今年の春に IT 仕事はいったん引退した時点で暇な時間ができたので vmx ファイルを紐解こうと始めたのですが、如何せん調べる範囲が多すぎてなかなかまとめることができません。なので、情報として見つけられたものから徐々にブログに記事として書いていこうと始めたのが今回から始める「VMware Workstation Pro 17 の中身を見る」になります。
この「VMware Workstation Pro 17 の中身を見る」の流れの一部にもなりますが、上に紹介した以前書いた記事を参考に見ていただくと、どのようなことを調べて書いていきたいかが見えてくると思います。
そして、この「ゲスト OS の選択」は適当なものを選んでも仮想マシンを作成することが出来、また起動することもできてしまいます。これ、何の役に立っているのと疑問に思ったりしながら「Windows 11 無いけれど Windows 10で作っちゃえ」とかやっていたと思います。しかし、VMware Workstation Pro 17 の内部ではこの設定を読み取って設定された ゲスト OS 特有の機能がある場合はそれを動かすようになっています。このゲスト OS の文字列をいちいちプログラムの中で評価していたらそれは大変なので実際には 16進のコードが割り当てられています。VMware Workstation Pro 17 に設定されているコードは以下の通りです。
ゲスト OS ID は対象となるゲスト OS のプロダクトに対して値が割り当てられていますが、実は 1 対 1 になっているようでなっていないのがこのゲスト OS ID を見ると分かります。例えば Windows 2000 と付くものはすべて 0x5007で、Windows Server 2008 の 32ビットは 0x500C のようになっています。これらは VMware Workstation Pro 17 の中では同じものとして扱われますが、しかし同じ Windows 名称でも異なる ゲスト OS ID を付与されているものがあり windows 2019 は 2種類 0x501E と 0x501F が使われています。これは現在のバージョンと次の機能追加されたバージョンのように一部変更があった場合に付与されて識別されるようになっていて、例えば 同じな名前でもベースのカーネルが変わったりした場合に識別できるようにしているようです。また逆に別のゲスト OS ID が割り当てられているけれど同じとして扱われるものもいくつかあり、例えば Windows 95, Windows 98 そして Windows ME はすべて Win9x 、arm はゲスト OS が何であっても同じ 0x5031 として扱われています。つまり、ゲスト OS の名前は違っていても基本部分は同じなので別々のものとして処理せずにまとめちゃえという感じです。この ゲスト OS ID は vmx ファイルに記述される guestOS パラメーターにはしっかり意味があることがわかります。例えば仮想マシン作成時のデフォルト設定などに使われ、特にゲスト OS 固有の機能を使う仮想マシンを作る際には適切な値を設定して使うことが重要になります。またこのゲスト OS ID が付与されていないオペレーティングシステムは VMware Workstation Pro 17 で動かすことは可能ですが、それらは 0x5000 の ゲスト OS ID が振られて扱われるようになっているようです。
vExpertになることに興味があるなら、基準はシンプルです。VMwareの知識を共有し、それをコミュニティに還元してくれるITプロフェッショナルを求めています。 「還元」という言葉は、本業を超えて貢献することと定義されています。自分の知識を共有し、コミュニティに参加する方法はいくつかあります。例えば、ブログ、本の執筆、雑誌への寄稿、Facebookグループでの活動、フォーラム(VMTNやその他のVMware以外のプラットフォーム)、スピーチ、VMUGのリーダーシップ、ビデオなどが挙げられます。VMware Social Media Advocacyは、オリジナルコンテンツではないため、賞の対象にはなりません。
ここで特に重要なのは「本業を超えて貢献することと定義されています」という部分で、仕事で VMware 製品を使っていて、仕事で会社のブログに書いたり本を出したり、外部講演に登壇をしたりだけでは vExperet にはなれません。「VMwareの知識を共有し、それをコミュニティに還元してくれるITプロフェッショナル」であることが必要になり、その行動を応募時に証明しなければなりません。私の場合は会社の仕事は Google Cloud Platform と Microsoft Azure をメインにクラウド関連の業務を行っているので VMware 製品は個人の範疇と社内で時々支援程度になっているので、VMware の知識を還元するためにはそれなりに個人の時間を割いて学習したり検証したりする必要がありました。でも、そういう活動が vExpert になるためには必要だということになります。
ここからが 2022 年までの入力画面と異なっており、今までは小さな枠に書き込んだり入力できるのがひとつだけだったのが、より多くのことを記載できるようになりました。どのように入力するかは画面右上に「SHOW EXAMPLE APPLICATION」ボタンがありますので、それをクリックして参照しながら書いていきます。
次に「2. Events and Speaking」、これは個人活動としてイベントのスピーカーとして登壇したりイベントの手伝いをしをした場合にはその役割などを書いていきます。自分が勤務する会社の自社イベントや社内イベントでの登壇は仕事なので評価対象になりません。また、VMware 主催のイベントでお金を出して登壇する場合も評価対象にはなりません。あくまでも個人の活動というのが重要です。ここもテキストでフリー入力になっていますので、活動内容をしっかりアピールしながら記載していきます。
次の「3. Online communities, tools, and resources」、ここはどのオンラインコミュニティに参加して活動したかを記載します。どんな活動をしたかがわかるもの、例えばステータス レベル、ポイント、またはバッジなどがあればそれを記載します。コミュニティーに対するツールを作ったりしていた場合は、そのオンラインツール、リソース、ディレクトリ、またはリポジトリをリストアップし、自分の役割も記入します。