Nvidia の 200 ドルの Jetson Orin Nano ミニコンピューターは、以前のバージョンの 80 倍高速です

Nvidia は、本日のGTC 2022 基調講演で、次世代のエントリーレベルの AI とロボティクスを強化するシステム オン モジュール (SOM) である Jetson Orin Nano の今後のリリースを発表しました。

Nvidia によると、この新しいバージョンは、 99 ドルの Jetson Nanoよりもパフォーマンスが 80 倍向上しています。オリジナル バージョンは 2019 年にリリースされ、特に愛好家や STEM の学生向けに、AI とロボット工学の世界への最低限の入門として使用されてきました。この新しいバージョンは、大幅にパワーアップしているように見えます。

Nvidia の Jetson Orin Nano ロボティクス プロセッサ。

システム オン モジュール (コンピューター オン モジュールとも呼ばれます) は、マイクロプロセッサを搭載した単一のボードを備えています。また、メモリと入出力 (IO) も備えており、通常はキャリア ボードを備えています。これはシステム オン チップ (SOC) と同じではありません。SOM はボード ベースであり、追加のコンポーネントを含めるスペースがある場合があります。 SOC を含めることもできます。つまり、SOM はすぐに使用できるコンピューティング ソリューションですが、完全なコンピューターではありません。

技術的なことは終わったので、Nvidia の最新の開発である Jetson Orin について話しましょう。Jetson Orin は、手頃な価格で AI とロボット工学のアプリケーションを処理するために作られた 6 つの Orin ベースの生産モジュールを搭載しています。その中には、Nvidia Jetson Orin Nano があります。

Jetson SOM の中で最小のフォーム ファクターであるにもかかわらず、Jetson Orin Nano は AI 関連のタスクを 1 秒あたり最大 40 兆操作 (TOPS) 処理できます。 AGX Orin でパフォーマンスが新たな高みに達し、高度な自律型マシンを処理するために 275 TOPS を提供します。

Nvidia の Jetson Orin には、Ampere ベースの GPU、ARM ベースの CPU、およびマルチモーダル センサーのサポートが付属しています。また、Nvidia の Orin NX モジュールと完全に互換性があり、Nvidia の顧客が複数の Jetson モジュールを設計できるようにする完全なエミュレーション サポートが含まれます。その他の特典には、複数の同時 AI アプリケーション パイプラインのサポートが含まれており、高速な入力と出力を備えています。

Jetson Orin Nano モジュールは、8GB メモリで最大 40 TOPS のモデルと、4GB メモリで最大 20 TOPS のモデルの 2 つのバリエーションで提供されます。電力消費に関しては、SOM はほとんど何も必要としません。前者は 7 ワットから 15 ワットを必要としますが、後者は 5 ワットから 10 ワットしか必要としません。

Nvidia Jetson Orin Nano システムオンモジュール。
NVIDIA

Nvidia は、これらのモジュールが、エッジ AI アプリケーションを扱うエンジニアからロボティクス オペレーティング システムの開発者まで、さまざまな顧客によって使用されると予測しています。わずか 199 ドルからの低価格により、このテクノロジはより幅広いユーザーに利用しやすくなります。 Nvidia は、Jetson Orin Nano のアーリー アダプターとして、Canon、John Deere、Microsoft Azure などを挙げています。

Nvidia の組み込みおよびエッジ コンピューティング部門のバイス プレジデントである Deepu Talla は、次のように述べています。 .

Nvidia は、Jetson Orin が前世代の Jetson SOM よりも 80 倍のパフォーマンス向上をもたらすと主張しています。リーズナブルな価格で大幅なステップアップです。モジュールは 2023 年 1 月から利用可能になります。