自然の赴くままに・そのときの 気分次第で・なんとなく

興味を持ったことを、なんとなく気の向くまま書いています。

VMware という会社が明日無くなることが決定しました

Broadcom による VMware の買収完了へ

先程中国の国家市場規制総局のからの発表で、条件付きで Broadcom による VMware の買収を承認するとの発表がありました。

www.samr.gov.cn

これがインターネットで流れている最初の情報でしたが、それからどんどんいろいろなと頃から記事が出るようになります。次はここ

www.streetinsider.com

その次がここで、

seekingalpha.com

その次がここ、
www.businesswire.com

どんどん記事が出てきます。

www.ft.com

www.bloomberg.com

ここでいよいよ本家の Broadcom の発表がありました。

investors.broadcom.com

この本家の情報を見ると、買収完了は US時間の 11月22日に決定したようです。長かったトンネルもいよいよこれで終わりを迎え、会社としての VMware から Broadcom のソフトウエア部門としての VMware がスタートです。1998年 2月 10日に創業し 25年という歴史を刻んだ VMware の終止符がいよいよやってきました。

追記

VMware からもようやく発表が。

news.vmware.com

 

VMware vSphere ベースのクラウドって、どんなのがあるの?

数年前からクラウド関係の仕事をしていて、今のクラウドコンピューティングは大きく分けて Linux KVM ベースのものと VMware vSphere ベースの 2つに分けられているといっても良さそうだねと思ったのと、その中の VMware vSphere のクラウドサービスプロバイダーはどんなサービスを提供しているのかをちょっと調べてみました。 

VMware Cloud

VMware vSphere ベースのクラウドベンダーはどういうのがあるの?

VMware vSphere ベースのクラウドは自社データセンターの中に展開した vSphere のリソースを切り出し利用者に提供(貸し出す)方式、利用者専有の物理サーバーを用意してそれを利用者に貸し出す方式とあります。そして後者の場合は利用者占有のサーバー自体の管理も一部制限はありますが利用者に開放している方式と、利用者占有のサーバーはクラウドサービスベンダーが管理して、ハイパーバイザー上の環境のあるレベルから利用者に貸し出す方式(マネージドサービスですね)とに分かれています。

vSphere のリソースを切り出し利用者に提供(貸し出す)方式をとっているクラウドサービスベンダーはどこ?

以前は多くのベンダーがこの方式を採用し利用者に提供していましたが、現在はだいぶ少なくなってきています。今この方式をとっている代表的クラウドサービスベンダーは以下の通りです。

などがあります。

これらの特長としては、オンプレミスのようにハードウエアやファシリティーを所有することなく、またクラウドに移行してもクラウドベンダー側で用意する決められた仕様の物理ハードウエアによる無駄などの心配することなく、必要なリソースを必要な時に必要な分だけ利用できる、パブリッククラウドのような柔軟な利用形態になっているところです。これは将来的にクラウドに移りたいけれど vSphere ベースが慣れているのでそのままであれば助かるというような用途に向いています。ただし他の利用者のリソースと共有する環境上で区分けされた自分のリソースを使うわけで、その環境を使う際の仕様に合わせてオンプレミスで動かしてきた仮想マシンの設定などを変える必要も出てきます。この辺りはオンプレミスではなく、そしてリソースを占有しているわけではないので仕方がないところです。

利用者専有の vSphere が動く物理サーバーを用意し貸し出す方式をとっているクラウドサービスベンダーはどこ?

これはメガクラウドと呼ばれる外資クラウドサービスベンダーが提供をしています。上記のvSphere のリソースを切り出し利用者に提供(貸し出す)方式を提供しているクラウドベンダーでも提供している場合があります。

外資クラウドベンダーで提供をしているのは、提供開始の順番で、

などがあります。これらの外資クラウドベンダーは VMware と密に連携しながらサービスを提供しているので、VMware のサイトにもサービスが掲載されています。

同じようなサービスは日本のクラウドサービスベンダーでも提供はしているのですが、vSphere のリソースを切り出し利用者に提供(貸し出す)方式と同じ名称でオプションのような位置づけになっているのが多いようです。例えば

などです。

なお、この専有にはもう一つの形があり、利用者のデータセンターに物理サーバーを配置してしまうサービスというものもあります。これは

意外にVMware vSphere ベースのクラウドは色々なサービスが提供されているというのがわかるかと思います。

今回はあくまでも VMware vSphere ベースのクラウドの「さわり」を書きましたが、次回以降はもう少し深く書いていこうと思います。

 

vExpert 2024の応募が始まっています

Apply to be a vExpert 2023

 

いよいよ今日から 2023年は世界では 1518人、日本では 55人しかいない vExpert の 2024 年度の応募受付が始まりました。締め切りは 2024年1月19日です。

 

 vexpert.vmware.com 

vExpert とは

vExpert のサイトの中、「Program Overview」に書かれている通り、

VMware vExpertプログラムは、VMwareのグローバルなエバンジェリズムおよびアドボカシープログラムです。このプログラムは、VMwareマーケティング リソースをお客様のアドボカシー活動に活用することを目的としています。記事のプロモーション、VMware のグローバル イベントでの露出、共同広告、トラフィック分析、ベータ プログラムや VMware のロードマップへの早期アクセスなどがあります。この賞は、企業ではなく個人を対象としており、期間は1年間です。お客様とパートナー企業の両方の従業員が受賞できます。応募にあたっては、前年度のさまざまなコミュニティ活動に加え、今年度(下半期の応募に限る)の活動も考慮して受賞者を決定します。私たちは、あなたが活動していただけでなく、あなたが選んだ道で今も活動していることを見ています。 

のように、VMware に個人としてどのような貢献活動をしたかによって、vExpert 対象かどうかを判断され、vExpert として適切と評価された人に対しアワードが送られて、翌年 1年間の vExpert としての活動ができるようになります。

vExpert に必要な要件(基準)

サイトの中の「Criteria」に、vExpert に応募できる基準が以下のように書かれています。

vExpertになることに興味があるなら、基準はシンプルです。VMwareの知識を共有し、それをコミュニティに還元してくれるITプロフェッショナルを求めています。
「還元」という言葉は、本業を超えて貢献することと定義されています。自分の知識を共有し、コミュニティに参加する方法はいくつかあります。例えば、ブログ、本の執筆、雑誌への寄稿、Facebookグループでの活動、フォーラム(VMTNやその他のVMware以外のプラットフォーム)、スピーチ、VMUGのリーダーシップ、ビデオなどが挙げられます。VMware Social Media Advocacyは、オリジナルコンテンツではないため、賞の対象にはなりません。

ここで特に重要なのは「本業を超えて貢献することと定義されています」という部分で、仕事で VMware 製品を使っていて、仕事で会社のブログに書いたり本を出したり、外部講演に登壇をしたりだけでは vExperet にはなれません。「VMwareの知識を共有し、それをコミュニティに還元してくれるITプロフェッショナル」であることが必要になり、その行動を応募時に証明しなければなりません。私の場合は会社の仕事は Google Cloud Platform と Microsoft Azure をメインにクラウド関連の業務を行っているので VMware 製品は個人の範疇と社内で時々支援程度になっているので、VMware の知識を還元するためにはそれなりに個人の時間を割いて学習したり検証したりする必要がありました。でも、そういう活動が vExpert になるためには必要だということになります。

vExpert への応募

時期になるとサイトの中の左上、Welcome の下に申請できるリンクが現れます。

vExpert 2023 応募

このバナーをクリックし、次の画面でログインまたは新規応募ならアカウントを作成し、応募ページに移動します。既に vExpert サイトにログインしている場合は、この画面は出ずにプロフィールの確認ページに移ります。

f:id:imaisato:20211208080527p:plain

ログイン/アカウント作成画面

ここからが入力画面になります。より多くのことを記載できるようになりましたので、自己アピールをしっかり書いてください。どのように入力するかは画面右上に「SHOW EXAMPLE APPLICATION」ボタンがありますので、それをクリックして参照しながら書いていきます。

SHOW EXAMPLE APPLICATION

もちろん記入はすべて英語で書くことになります。どのような内容を書くのかというと、vExpert に応募できる「資格」、つまり基準を満たしている証跡を入力していきます。いくつか書く場所があるのでそれぞれに該当する部分だけ記入して行きます。該当しない部分は空白で構いません。

Application Form

最初は「1. Content Creation」、なにかコンテンツを作っている場合はここに記入します。ブログを書いている人はブログの URL を、本を執筆している人はその本がわかることを書きます。YouTube などで動画配信している場合も同様です。ここは昨年までは最大 3つまでしか書けない制限がありましたが、今年はテキストでのフリー入力になっていますので枠を拡大して十分書くことができます。

次に「2. Events and Speaking」、これは個人活動としてイベントのスピーカーとして登壇したりイベントの手伝いをしをした場合にはその役割などを書いていきます。自分が勤務する会社の自社イベントや社内イベントでの登壇は仕事なので評価対象になりません。また、VMware 主催のイベントでお金を出して登壇する場合も評価対象にはなりません。あくまでも個人の活動というのが重要です。ここもテキストでフリー入力になっていますので、活動内容をしっかりアピールしながら記載していきます。

次の「3. Online communities, tools, and resources」、ここはどのオンラインコミュニティに参加して活動したかを記載します。どんな活動をしたかがわかるもの、例えばステータス レベル、ポイント、またはバッジなどがあればそれを記載します。コミュニティーに対するツールを作ったりしていた場合は、そのオンラインツール、リソース、ディレクトリ、またはリポジトリをリストアップし、自分の役割も記入します。

その次の「4. VMware Programs」はVMUG のリーダーシップ、アドバイザリー・ボード、リファレンス・プログラム、カスタマー評議会、VMware Partner Network などの VMware のプログラムで自分が担務した役割を記入する場所で、ほとんどの人は該当しないと思います。

その次の「What other activities in the last year should we take into account?」はアピールの場所です。どのようなことをしてきたのかを追加で記入します。※がついているので必須項目です。

最後の「Reference」は、この活動をするうえで支援してもらった VMware 社員がいれば、そのメールアドレスを記入します。その下の「vExpert Pro」はほとんどの人が関係ないので何もしなくて大丈夫です。

記入ができたらあとは確認をして、SAVEするだけです。これで締め切り後に審査が行われ、2024 年度の vExpert が決まります。今年の締め切りは 2024年1月19日の太平洋時 9時です。遅れないように申請しましょう。
SAVE が問題なく終了すると Application sent! が表示されます。これで申請は終了です。vExpert への申請は、期間内であれば何度も修正することができます。なので、追記したいことや修正したことがあれば、期間内に何度も直していきましょう。精査することで vExpert に認定される可能性は上がっていくと思います。申請した内容の修正や追記したい場合には、再度 APPLICATIONS ARE OPEN から入りなおして内容を直します。

Application sent!



vExpertの証明

vExpert になると以下のような証明書とバッジを受け取れます。証明書はプロファイルで入力する表示名が入ります。下の年号の下の部分ですね。

vExpert 2023 証明書

vExpert のバッジは

 

vExpert 2023

のようなもので、定められた条件のもとに使うことができます。複数年継続して取得している人向けに、年度ではなくてその部分に vExpert を取得した数が★で表示されているバッジもあり、両方を使い分けできます。

vExpert になるメリットは

vExpert になるメリットは「vExpert Program Benefits」に以下のように書かれています。

  1. 2,500 人以上の vExpert とのネットワークを構築できる。
  2. 8 つの VMware 公式ビジネスユニット主導の vExpert サブプログラムに応募できる
  3. プライベート vExpert #Slack チャンネルに招待され参加ができる
  4. VMware CEOが署名した vExpert 証明書がもらえる
  5. vExpertのロゴをカードやウェブサイトなどで1年間使用できる
  6. 様々なVMwareパートナーからの限定ギフトを入手できる機会がある
  7. NFRだけでなく、VMwareパートナーとのプライベートウェビナーへの参加
  8. プライベートベータへのアクセス(ベータチームへの登録が必要)
  9. ホームラボやクラウドプロバイダー向けに、ほとんどの製品の365日間の評価版ライセンスを提供
  10. VMworld の前に行われるブロガー ブリーフィングを通じたプライベート プレローンチ ブリーフィング(製品チームの許可が必要)
  11. 公開されたvExpertオンライン・ディレクトリに名前が掲載される
  12. お客様のソーシャル・チャネル向けに用意されたVMwareおよび仮想化コンテンツへのアクセス
  13. VMworld US および VMworld Europe の両イベントでの毎年の vExpert パーティ
    VMworld US と VMworld EU の両方で vExpert として認められる

このようにいろいろあるのですが、やはり個人として VMware 製品の啓もう活動に必要になるのは個人で使えるライセンスがあること。なので、上のメリットの中の 9. が一番のメリットになるかなと思います。

vExpert の分布は?

日本にいる vExpert はどういう組織に分布しているかが気になるかと思いますので、vExpert 2023 55名の所属を調べてみました。ソースは vExpert サイトにある Directory で、だれでもアクセスして情報を見ることが出来ます。

所属組織 人数
SB C&S Corp. 6
VMware 5
Dell Technologies 5
TechVan Co., Ltd. 4
Amazon Web Services 3
Other 3
Networld Corporation 2
Net One Systems Co.,Ltd. 2
NEC 2
JGC CORPORATION 2
Google Cloud 2
FUJITSU CLOUD TECHNOLOGIES LIMITED 2
Central Tanshi FX Co.,Ltd. 2
TIS Inc. 1
Seijo University 1
Red Hat Japan 1
PagerDuty Japan 1
PASCO CORPORATION 1
NTT DATA Corporation 1
Microsoft Japan 1
Meiji Yasuda System Technology Company Limited 1
Mannari hospital 1
IBM Japan, Ltd. 1
Fuji Electric IT Center Co.,Ltd 1
FUJI SOFT INCORPORATED 1
DMM.com LLC 1
Classmethod, Inc. 1
BIGLOBE Inc. 1
合計 55

昨年度は富士ソフト株式会社がダントツだったのですが、今年は昨年 2位だった SB C&S がダントツでした。そして今日時点ではまだ独立した会社の VMwareVMware の親会社の Dell Technologies, TexhVan と続いています。富士ソフトは人が居なくなってしまったのかトップから一気に 16位に陥落。一昨年誰もいなくなった富士通を思い起こさせます。Other は私もそこに入っていますが所属非公開の人です。

vExpert の話をもっと聞きたいなら=>VMUGへ

vExpert になっている人の多くは VMUG (VMware User Group) に参加している人が多いので、もし vExpert についてもう少し情報が欲しいという場合、まず VMUG に参加しその中にあるコミュニティで聞いてみるのもよいかもしれません。

VMUG 会員には 2つのタイプがあり、一般会員は無料で誰でもなれます。そのため、まずは vExpert の方とコミュニケーションしたいということであれば VMUG の一般会員に入り、Japan VMUG コミュニティに入ることからスタートするのが良いかもしれません。

なお残念ながら vExpert の Criteria に満たない場合は、次年度に向けていろいろ活動をしておくようにしてください。アピールできる活動が増えれば増えるほど、vExpert 受賞が近づいてきます。

 

※一覧表の名寄せを訂正しました。

flings が無くなっていた・・・・その他の flings の入手先は

VMwareBroadcom に買収されるのが表に出てからそろそろ買収完了の最後の締め切り日 11月26日になりますが、実際どのようになるのかがまだわからないみたい・・・・に見えますね。

そのような VMware がバタバタしている中、ESXi Arm Edition があった flings.vmware.com が消えてしまっているのに気づきました。当初の買収完了日 10月末にほど近い 10月24日に flings.vmware.com が削除されてしまい、

Code Samples and PowerCLI Example Scripts | VMware - VMware {code}

 へのリンクに変っています。

ESXi Arm Edition 以外の flings に合ったツールはどこに行ったの?

flings にあったツールで現在個別にホストされているものは別途入手が可能です。

 

その他の flings については Internet Archive を使用して入手するしか今の所方法はありません。

これらのツールについては今まで通りの VMware flings ライセンスが適用されます。

これからはどうなるの?

flings を提供していたVMware の CTO 室 によって閉鎖されているので、今後 Broadcom による買収完了後も復活するのは望み薄です。VMware Developer でも公開されるのは望み薄ではないかと思うので、痒い所に手が届くツールが更新されなくなって最新プロダクトに対応しなくなっていく・・・・将来しか見えないのが残念です。

新生 VMware Software 部門はどのようにやっていってくれるのでしょうか。気になるところです。(その前に、11月26日の合併吸収が完了するのかも気になりますね。)

flings が無くなっていた・・・・vSphere の Arm Edition 最新版(v1.14)の入手先は

VMwareBroadcom に買収されるのが表に出てからそろそろ買収完了の最後の締め切り日 11月26日になりますが、実際どのようになるのかがまだわからないみたい・・・・に見えますね。

そのような VMware がバタバタしている中、ESXi Arm Edition があった flings.vmware.com が消えてしまっているのに気づきました。当初の買収完了日 10月末にほど近い 10月24日に flings.vmware.com が削除されてしまい、

Code Samples and PowerCLI Example Scripts | VMware - VMware {code}

 へのリンクに変っています。

ESXi Arm Edition はどこに行ったの?

flings で公開されていた多くのツール類は既に入手不能になっており、例えば NUC で vSphere を動かすために必要だった USB デバイスのドライバやネットワークインターフェースどのドライバ類も入手が不可能になってしまっています。困った困った。
でも、いくつかの flings にあったものはそれぞれ個別にホストされているものもあり、ESXi Arm Edition は VMwareCustomer Connect でホストされているため、現在でも入手が可能です。

ESXi Arm Edition のある場所は

ESXi Arm Edition の最新版は Customer Connect のダウンロードから入手することが出来ますが、普通に Customer Connect に行っても見つけることが出来ません。URL に「get-download?downloadGroup=ESXI-ARM」を追加することで初めて ESXi for ARM のダウンロード先に行くことが出来ます。

ESXi Arm Edition の最新版は

今日時点でのESXi Arm Edition の新しいバージョンは  version 1.14 で、今回もまだ vSphere 7.0 0 ベースで、Build 22346715 す。登場は 2023年 9月1日なので、2か月前のリリースでした。

f:id:imaisato:20210403190605p:plain

ESXi Arm Edition version 1.14

https://customerconnect.vmware.com/downloads/get-download?downloadGroup=ESXI-ARM

インストールは

残念ながら flings のページとドキュメントが消え去ってしまっていますが、置いてあったドキュメントの最終版と思われるものはここから入手できます。

VMware ESXi-Arm Documentation

ここに置いてある esxi-arm-docs.zip をダウンロードし展開することで以下のドキュメントファイルを得ることが出来ますので、その中を参照しながらインストールをしてください。

  • ESXi-Arm-Fling-Doc.pdf
  • Fling-on-Ampere-Altra-based-Serv.pdf
  • Fling-on-Ampere-Altra-from-OCI.pdf
  • Fling-on-Ampere-eMAG-8180.pdf
  • Fling-on-Arm-Neoverse-N1-System.pdf
  • Fling-on-Marvell-Armada-A8040-Octeon-TX2.pdf
  • Fling-on-NVIDIA-Xavier-AGX-Devel.pdf
  • Fling-on-NVIDIA-Xavier-NX-Devel.pdf
  • Fling-on-NXP-LS1046A-FRWY.pdf
  • Fling-on-NXP-LS1046A-RDB.pdf
  • Fling-on-PINE64-Quartz64-Model-A.pdf
  • Fling-on-Raspberry-Pi.pdf
  • Fling-on-Socionext-SynQuacer.pdf
  • Fling-on-SolidRun-HoneyComb-LX2K.pdf

なにが変わったの?

こちらも修正履歴が記載されているページが消えているので確認することはできないのですが、過去からチェックしている Change log がありましたので、それを英語の原文まま記載しておきます。

Sep 1, 2023 - v1.14
Note: Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases using either ESXi-Arm ISO or Offline Bundle

  • Fix SMP boot issues on some micro-architectures.
  • Improve high physical addresses memory nodes support.
  • Add support for 3 kinds of USB NIC adaptors:
    • Realtek RTL8153 serial 1G USB Network Adaptor
    • Realtek RTL8152 serial 100M USB Network Adaptor
    • ASIX AX88179/AX88178A serial 1G USB Network Adaptor
    • See this blog post for the complete list of USB Network Adaptors

      Build 22346715
      VMware-VMvisor-Installer-7.0.0-22346715.aarch64.iso
      VMware-ESXi-7.0.0-22346715-depot.zip

Jun 14, 2023 - v1.13
Note: Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases using either ESXi-Arm ISO or Offline Bundle

  • Adds support for AHCI SATA controllers that do not support 64-bit addressing on systems with memory located above 4GB
  • Fixes a PSOD on GIGABYTE’s Ampere Altra and Altra Max systems with ASM1164 based SATA HBAs when one or more SATA disks are present
  • Virtual NVMe device data corruption fix
  • Virtual UEFI ACPI tables now only shows configured serial ports. An ACPI SPCR table is created for the first one found
  • UEFI real-time clock (RTC) support is now enabled on Rockchip based systems
  • Fixes a possible hang at shutdown on Rockchip based systems when using the onboard network interface
  • Upgrades using image profiles with the Offline Bundle (zip) are now possible on all systems
  • Fixes vVols connection failures
  • High Availability for vCenter Server 8.0+ (See blog post for more details)

      Build 21921575
      VMware-VMvisor-Installer-7.0.0-21921575.aarch64.iso
      VMware-ESXi-7.0.0-21921575-depot.zip
      vmware-fdm-8.0.0-20519528.arm64.vib (VC 8.0 Build 20519528)
      vmware-fdm-8.0.0-20920323.arm64.vib (VC 8.0a Build 20920323)
      vmware-fdm-8.0.0-21216066.arm64.vib (VC 8.0b Build 21216066)
      vmware-fdm-8.0.0-21457384.arm64.vib (VC 8.0c Build 21457384)
      vmware-fdm-8.0.1-21560480.arm64.vib (VC 8.0u1 Build 21560480)
      vmware-fdm-8.0.1-21815093.arm64.vib (VC 8.0u1a Build 21815093)

Mar 17, 2023 - v1.12
Note: Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases using either ESXi-Arm ISO or Offline Bundle

    • Virtualization Improvements
      • Various fixes related to Arm SystemReady compliance for virtual hardware exposed to guests
      • Compatibility fixes related to secure boot
    • Host Support Improvements
      • New platforms
        • EXPERIMENTAL support for HPE ProLiant RL300 Gen11 servers
        • EXPERIMENTAL support for Marvell OCTEON 10 based platforms
      • NVME
        • Support for NVMe on non-cache coherent PCIe root complexes (eg. Rockchip RK3566 systems like Pine64 Quartz64 and Firefly Station M2)
        • Add a workaround for devices with PCI vendor/device ID 126f:2263 (e.g. Patriot M.2 P300) that report non-unique EUI64/NGUID identifiers which prevented more than one disk from being detected on systems with multiple devices present
          • When upgrading a system from 1.12 from a prior Fling release with one of these devices, datastores from the device will not be mounted by default. Please refer to this blog post on how to mount the volumes after the upgrade is complete
      • Miscellaneous
        • ESXi-Arm Offline Bundle (zip) now available
        • Fixed cache size detection for Armv8.3+ based systems
        • Relax processor speed uniformity checks for DVFS enabled systems
        • Support additional PHY modes in the mvpp2 driver
        • Fixed IPv6 LRO handling in the eqos driver
        • Identify some new CPU models

Known Issues:

      • Ampere Altra-based systems may PSOD when AHCI disks are used
      • In 1.11 we mentioned that the kernel included with the Ubuntu for Arm 22.04.1 LTS installer had an issue that prevented graphics from initializing properly. Ubuntu for Arm 22.04.2 LTS has since been released and includes a fix for this issue.
      • FreeBSD 13.1-RELEASE has a known bug with PVSCSI support and large I/O requests. There are a few ways to work around this issue:
        • Upgrade to FreeBSD 13.2-RC1 or later, which includes a fix
        • Set the tunable kern.maxphys=”131072″ to limit the maximum I/O request size
        • Use AHCI instead of PVSCSI      

 Build 21447677      

 VMware-VMvisor-Installer-7.0.0-21447677.aarch64.iso      

 VMware-ESXi-7.0.0-21447677-depot.zip

Oct 26, 2022 - v1.11
Note:

       Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases
      • Support CPU accelerated crypto (e.g. NEON, Armv8 Cryptographic Extensions) for built-in ESX services
      • Fixed ESXi xterm-256color terminfo. Terminal.app in macOS (or any modern terminal, on any OS) now properly renders esxtop
      • Updated the virtual UEFI ROM to match the version used by VMware Fusion for Apple silicon
      • Support for virtual HTTP boot
      • Support for virtual TPM, virtual Secure Boot, and encrypted VMs
      • Support for physical GICv4 systems
      • Added VMware Tools for Windows
      • Fixed issue with ixgben driver

Known Issues:

      • Ampere Altra-based systems may PSOD when AHCI disks are used
      • Ubuntu 22.04 LTS installer graphics do not work. Please use Ubuntu 22.10
      • Windows SVGA driver does not work and must not be installed (or use safe mode to uninstall the svga device)      

 Build 20693597     

 VMware-VMvisor-Installer-7.0.0-20693597.aarch64.iso

July 20, 2022 - v1.10
Note:

       Upgrade is NOW supported from earlier ESXi-Arm 1.x Fling releases
      • Upgrade from earlier ESXi-Arm 1.x Fling is now supported
      • Support for Arm DEN0115 (PCIe config space access via firmware interface, tested with Raspberry Pi)
      • Report L3 cache info for Ampere eMAG
      • Minor improvements to non-cache coherent DMA support
      • Raspberry Pi NIC (genet) statistics
      • GOS: use VNXNET3 and PVSCSI as default for freebsd12
      • Support for RK3566 SBCs (e.g. Quartz64)
        • PCIe support (NVMe not supported at this time)
        • EQOS (onboard) NIC support
      • Fix missing barriers for Intel igbn NIC driver, improving stability
      • Return zero for unknown sys_reg(3, 0, 0, x, y) accesses from VMs
      • Telemetry reporting - Collect statistics on what kind of systems the Fling is being run on, to best gauge interest
        • No PII is collected. Here are items collected:
          • CPU info: core count, NUMA, manufacturer, etc.
          • Firmware info: vendor, version
          • Platform info: vendor, product, UUID, PCI device list
          • ESXi-Arm info: version, patch level, product build
          • The /bin/telemetry script runs on every boot and at 00:00 every Saturday      

 Build 20133114      

 VMware-VMvisor-Installer-7.0.0-20133114.aarch64.iso

March 31, 2022 - v1.9
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Experimental support for Marvell Octeon TX2 CN92xx/CN93xx/CN95xx/CN96xx/CN98xx platforms
      • Improved support for PL011 UARTs
      • VMM support for ID_AA64ISAR2_EL2, fixing VM crashes with newer Linux kernels (>= 5.17-rc2)
      • PCIe Enhanced Allocation support
      • Improvements to logging for PCIe
      • Improvements to MSI virtualization      

 Build 19546333      

 VMware-VMvisor-Installer-7.0.0-19546333.aarch64.iso

December 17, 2021 - v1.8
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • ACPI fix to support OpenBSD guests
      • Improved handling of ITS device ID width in implementations without indirect table support
      • Improvements to VMkernel TLB handling
      • Improvements to NUMA handling (Especially around error reporting)     

 Build 19076756      

 VMware-VMvisor-Installer-7.0.0-19076756.aarch64.iso

December 7, 2021 - v1.7
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Experimental support for Pine64 Quartz64 board
      • Support for VMware SVGA driver (compatible with Fusion on AS, e,g, fixes Fedora F35 black screen issue)
      • NUMA-aware VMM, improving performance for dual-socket Ampere Altra machines
      • Improved compatibility for systems without an IORT
      • Fix performance issues in newer Linux kernel guest OSes like Debian 10 and Photon 4
      • Recognise CA55
      • Improve TLBI handling in VMM/VMK
      • Improve contention for atomic ops     

 Build 19025766      

 VMware-VMvisor-Installer-7.0.0-19025766.aarch64.iso

October 6, 2021 - v1.6
Note:

       This release does not contain a new ESXi-Arm build, it is to announce new hardware enablement. The previous ESXi-Arm build can be used with the mentioned hardware platforms below. For more information, please 

download the hardware specific PDF guides

      • Experimental Support for Ampere Altra-based BM.Standard.A1.160 shapes from Oracle Cloud Infrastructure
      • Experimental Support for Marvell Armada A8040 / Octeon TX2 CN9132 chipsets
      • Experimental Support for Socionext SynQuacer Developerbox


August 6, 2021 - v1.5
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Minor VM performance improvement
      • Support BCM2848 ACPI ID for the USB OTG port (affects newer UEFI firmware versions)      

 Build 18427252      

 VMware-VMvisor-Installer-7.0.0-18427252.aarch64.iso

June 15, 2021 - v1.4
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Improved PMU virtualization
      • Fix virtual AHCI support for some ACPI OSes
      • Improve time virtualization
      • Experimental support for NVIDIA Tegra Xavier AGX and NVIDIA Tegra Xavier NX (PCIe, USB, NVMe, SATA)
      • Experimental support for 2P Ampere Altra-based servers (Mt. Jade)
      • Improved VM performance for multi-socket Arm servers
      • Fix virtual NVMe support in UEFI and some OSes
      • Improve interrupt controller virtualization
      • Improve virtualization performance
      • Improve compatibility with newer guest OS linux kernels
      • Improve USB stability issues, especially with RTL8153-based USB NICs (a common chipset) and especially on Raspberry Pi and Tegra Xavier
      • Updated documentation for ESXi-Arm Fling, Raspberry Pi, Ampere Altra, NVIDIA Xavier AGX & NVIDIA Xavier NX (See download for details)      

 Build 18175197      

 VMware-VMvisor-Installer-7.0.0-18175197.aarch64.iso

April 02, 2021 - v1.3
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • Improved hardware compatibility (various bug fixes/enhancements)
      • Add support for Experimental Ampere Altra (single socket systems only) (please see Requirements for more details)
      • ACPI support for virtual machines
      • NVMe and PVSCSI boot support in vEFI
      • Workaround for ISO boot on some Arm servers
      • Address VMM crash with newer guest OSes and Neoverse N1-based systems
      • Improved guest interrupt controller virtualization
      • Improved (skeletal) PMU virtualization
      • Improved big endian VM support      

 Build 17839012     

 VMware-VMvisor-Installer-7.0.0-17839012.aarch64.iso

November 30, 2020 - v1.2
Note:

       Upgrade is NOT possible, only fresh installation is supported. If you select "Preserve VMFS" option, you can re-register your existing Virtual Machines.
      • UI: Disable datastore browsing when no datastores are present
      • PSCI: Fix missing context_id argument for CPU_ON calls
      • GICv2: Always enable SGIs, as GIC-500
      • arm64: Support for big-endian guests
      • Remove requirements/restrictions on initrd for UEFI-less VMs      

 Build 17230755     

 VMware-VMvisor-Installer-7.0.0-17230755.aarch64.iso

October 22, 2020 - v1.1

      • Fix for https://flings.vmware.com/esxi-arm-edition/bugs/1098 (PSOD adding to VDS)
      • Support for Arm N1 SDP platform
      • Support for VMs on Neoverse N1 CPU
      • Pass-thru stability improvements to LS1046A and LX2160A platforms
      • Fix for vCenter/DRS incorrect CPU usage
      • Fix for VM crash when VM storage fills up
      • Stability fix for non-coherent DMA device support
      • Installer: tolerate RAM size within 4% of 4GB instead of 3.125 (for the otherwise unsupported RK3399 boards)
      • Serial port handling improvements (for unsupported/unknown boards, to be a bit more resilient of firmware configuration errors)
      • Documentation Updates:
        • Moved and expanded iSCSI doc for Pi doc to main ESXi-Arm Fling doc
        • Added LS1046ARDB docs (including ref to it from main ESXi-Arm doc and Fling website)
        • Fixed Ampere server name and links (its HR330A/HR350A, not SR-something)
        • Added Arm N1SDP document (including ref to it from main ESXi-Arm doc)
        • Updated GuestOSes known to work with ESXi-Arm including new "Verified" section
        • Updated instruction to update EEPROM for Pi doc      

 Build 17068872      

 VMware-VMvisor-Installer-7.0.0-17068872.aarch64.iso

October 06, 2020 - v1.0 (Initial Release)    

 Build 16966451      

 VMware-VMvisor-Installer-7.0.0-16966451.aarch64.iso

 ダウンロード情報

ESXi for ARM v1.14

ダウンロードには Customer Connect アカウントが必要です。 Customer Connect アカウントは個人でも作成できるので、リンクからCustomer Connect アカウントを作成し

 Customer Connect にログイン後、  ESXi for ARM からイメージをダウンロードしてください。なお、リリースノートは以下の URL で見ることができます。

この記事から読み始めた方のための補助情報

ESXi Arm Edition は単体でも使うことができますが、vCenter Server 配下でも

使うことができます。使用できる vCenter Server には以下の要件があります。

  • ESXi-Arm ホストの管理には、vCenter Server Appliance(VCSA)7.0 以降が必要です。
  • ESXi-Arm ホストで vSphere HA および vSphere FT を有効にしたいときは、vCenter Server Appliance(VCSA)7.0.0c または 7.0.0d を使います。また、vSphere DRS が必要な場合は VCSA7.0.0c または 7.0.0d を使用するとともに、VCSA7.0c の場合は vmware-fdm-7.0c-16620014.arm64.vib を、VCSA7.0d の場合は vmware-fdm-7.0d-16749671.arm64.vib をダウンロードし適用する必要があります。
    ※ vCSA によって適用する vib が異なりますので注意してください。
    ※vCSA 7.0.0c / 7.0.0d は VMware サイトの製品のダウンロードからダウンロードできます。
  • vCenter Server Appliance(VCSA)7.0 Update 1以降を使用することは可能ですが、いくつかの制限があります。
    • vSphere DRSは機能が動作しません。
    • vCLS(vCenter Cluster Services)対策が必要です。(現在の vCenter Server Appliance は x86 ベースの仮想マシンのため、vCLS により分散コントロールプレーンサービスをESXiホストにデプロイしようとしてもできないため、ファイルの削除処理が走るとともに再度のデプロイ処理も走るため、延々と処理が続いているような状態になります。)

VCSA 7.0 U1 以降を使う場合は

どうしても VCSA 7.0.0c または VCSA 7.0.0d が入手できず VCSA 7.0 U1 以降を使わざるを得ない場合は、以下の KB を参考にして vCLS を無効にしてください。これにより、vCLS の動作が停止してメッセージも出なくなります。

kb.vmware.com

この vCLS 停止は既存の x86 の vSphere 7.0x でも有効なので、vCLS を使用しない場合はこの設定をするのもよいかもしれません。

vCentr Server Appliance は x86 ベースしかないので、ESXi Arm Edition 以外に最低 1台の x86 ESXi が必要になります。でも、それを準備すれば安価に vSAN まで使える vSphere 環境が得られるのは、家ラボやっている人には朗報です。ただし、私のように Raspberry Pi 4 で環境を作っている場合はそのホストのメモリーが 8GB しかないので、できることは最低限になります。例えば vSphere の資格を取るための勉強用としては良いかもしれませんが、本格的に vSphere ノウハウを習得するために家ラボを作る場合には、やはり x86 ホストは必要になるかなと思います。

どんなことに使えるの

もともと Raspberry Pi 4 は最大 8GB しかメモリーがありません。そのため、Raspberry Pi 4 の上で Arm ベースの仮想マシンは数動かせません。あくまでも vSphere 7 をテストしてみたい、または ARM 版の ESXi を体験したいなどの用途がメインになると思います。あとは、VMware の資格を取るための勉強の環境という使い方もあるでしょう。本番としては使うなとも書かれていますので、あくまでも評価という使い方になります。

過去の ESXi Arm Edition の記事

今までの記事のリストがここで見られますので、併せてご覧ください。

imaisato.hatenablog.jp

f:id:imaisato:20220206203155p:plain

ESXi for ARM

 

ESXi のサイズ

VMware ESXi が初めて登場したのは 3.5 で 年月日、現在は 11世代後の 8.0 になっています。最初はとても小さくて軽かった ESXi もこの間にどんどん肥大化してきて、現在は ESXi 3.5 の約 5倍のサイズになってしまっていますが、これを調べている Web ページがありますのでご紹介します。

VMware ESXi 3.5 - 8.0 ハイパーバイザーのサイズ比較

VMware ESXi が登場した背景として、当時の ESX と ESXi はどう違うのかなどが記載された資料もまだ公開されているので、見てみると「なるほど」と思うことがあるかもしれません。

VMware ESX および VMware ESXi 本番環境で実績のある、業界をリードするハイパーバイザー

資料を読まないで「どこが違うの?」ということを知りたい方のために簡単に説明すると、VMkernel上で動く CentOS (RHEL) ベースのサービスコンソール (Console Operating System : COS) が ESXi では無くなったことで、ハイパーバイザーとしてのサイズが小さくなる(ESX は当時数ギガバイトにまで肥大していたのが、ESXi になることで 47 MB まで小さくなった)ことでソースの見通しもよくなり、その結果セキュリティインシデントになりがちなバグなども発生しにくくなるメリットがあると説明されっるようになりました。

以下の図は ESXi 登場当時の VMware の資料で良く説明されていた図です。ESXi については、この図の右側のサービスコンソールと呼ばれる部分が無くなっています。この変化についてはサービスコンソール上で行っていた管理系の処理が出来なくなるため、あえて ESXi ではなく ESX を選択するなども当時はありました。

ESX のアーキテクチャ

このソースのサイズが小さくなるという点については ESXi 6.7くらいまでグローバルでの説明資料でも言われ続けていた話で実際私もそのようにプレゼンをしていましたが、5.0 や 5.5 そして 7.0 のように新しい機能を加えたタイミングでサイズはどんどん大きくなり、それとともにバグも頻繁に出てくるようになってしまったのが、今の ESXi の実情ではないかと感じています。

ちなみに ESX は数ギガバイトに肥大と書きましたが、その大部分をサービスコンソールが占めていました。全体の 9割以上がサービスコンソールだったので、その部分を切り捨てることで ESXi は USB メモリーや SD カードにインストールすることが出来るようになり、各ハードウエアベンダーから USB DOM を使ったブートや SD カードを使ったブートができる製品が登場することになります。

ESXi の今後は

ESXi 登場時に使えるようになったUSB メモリーや SD カードは高頻度の Read / Write には不向きでかつ耐久性も低いため、ブートデバイスとして使う場合でも信頼性の低いデバイスでした。そのため vSphere 7 からはそれまで可能だった ESXi 本体を格納する ESXi の OS パーティション(ROM や RAM の部分)をそれらのデバイスに配置するのは vSphere 7 U3 以降非推奨となりました。そして vSphere 8 ではサポート対象外になっていますので、USB や SD カードからのブートをする場合でサポート対象の構成にするにはそれらの媒体の中にはブートに必要なパーティションのみしか配置できません。ということは、今までは最小構成としてブートデバイスのUSB メモリーや SD カードを用意すれば、HDD や SSD は全てデータストアに使えたのですが、今後はブートデバイスに USB メモリーや SD カードを使用したとしても、ESXi の OS 領域のために HDD や SSD が必要になり、その分データストアとして使える分が減る構成にならざるを得ないということになりました。これは VMware のベストプラクティスとされている構成で「USBメモリーや SD カードを使うのは「レガシー」な構成で、今後も長くサポートされるのを期待するなら USBメモリーや SD カードを排除し、HDD や SSD、PCIe の永続的ストレージデバイスを使え」という方向になっています。なので NUC を使ってディスクが足りないから USB ブートと内蔵ディスクでと済ますことが出来た家ラボ環境などでは、今後 vSphere 8 を検証したい場合内蔵 M.2 SSD / NVMe SSD をブートデバイスにして SATA をデータストア用にする、またはその逆にするなどの対応が必要になるでしょう。個人で検証環境を持つには厳しいプロダクトに vSphere はなりつつあります。また vSphere 8 以降はハードウエアについてもさまざまな制限が出てくるようになってきていますので、今までのような古いハードウエアにもインストールできるということが無くなる可能性も考えなければなりません。ということは、vSphere の新しいバージョンが出たら既存の環境でアップグレードができないハードウエアも出てくる可能性も考えられるということで、オンプレミスでの vSphere を運用している場合で vSphere のアップグレードなどを考える場合は十分な注意と検討が必要になってくるかなと感じています。つまり、業務システム側やゲスト OS は変わらないのに、vSphere のサポート関係で vSphere をアップグレードしようとしたら、長期のリース契約や買取の古めのハードウエアでは新しい vSphere がサポート対象外だったということも今後は頻繁に発生することになりそうかなとも感じてます。業務システムやゲスト OS の延命ができるのでプラットホームを仮想化したということも多いはずが、vSphere 8 とかになってくるとプラットホームとしての vSphere 側の都合でハードウエアなどの環境へも影響が出てしまうというのは、海外のように頻繁にプラットホームも取り換えていくならまだしも長期契約でリースコストを下げるとかがメインな今の日本企業の IT インフラにはちょっと厳しすぎるかなと感じます。なので、場合によっては仮想マシンで動く業務システムはそういう影響を受けにくいクラウド利用へリフトアンドシフトも検討したり、いっそのこと全部作り変えてクラウドネイティブへとかも考える必要があるかもしれないですね。

vExpert 2023の応募期間が延長されました

あけましておめでとうございます。

今年のブログ第一号は vExpert への応募の話になりました。

vExpert 2023 への応募期間が延長

Apply to be a vExpert 2023

昨年末にスタートした vExpert の 2023 年度の応募受付ですが、締め切りが延長され 2023年1月27日 になりました。それに伴い vExpert award の発表も 2月17日あたりに延長されました。

Applications are Open!

vExpert 応募に関する情報が以下のブログに掲載されていますので、vExpeert になりたいけれどまだ応募していない人は、参考にしてみてください。応募に関しての Zoom でのミーティングもあるようです。

blogs.vmware.com

vExpert 2023 への応募先は

以下の「vExpert Application Portal」から応募してください。

 vexpert.vmware.com

vExpert の話を日本語で聞きたいなら=>VMUGへ

vExpert になっている人の多くは VMUG (VMware User Group) に参加している人が多いので、もし vExpert についてもう少し情報が欲しいという場合、まず VMUG に参加しその中にあるコミュニティで聞いてみるのもよいかもしれません。

VMUG 会員には 2つのタイプがあり、一般会員は無料で誰でもなれます。そのため、まずは vExpert の方とコミュニケーションしたいということであれば VMUG の一般会員に入り、Japan VMUG コミュニティに入ることからスタートするのが良いかもしれません。また VMUG Japan community では月に 1回程度の周期で Zoom を使用した「Japan VMUG「vExpert が語る」会」というオンラインミーティングが開かれていますので、そちらに参加してセッションを聞いてどのようなことを割いているのかを理解したり直接質問などをしてみることもよいでしょう。また年に 1回年末には「vExperts Advent Calendar」もやっていますので、そちらからどのような人が vExpert になって情報発信活動しているのかを見て切るのもよいでしょう。

Japan VMUG 「vExpert が語る」会

このよう VMware プロダクトを世に広げる活動を仕事ではなくプライベートとして発信したりする活動が増えれば増えるほど、vExpert 受賞が近づいてきます。まだ受けていない人は是非応募チャレンジしてください。