ToFとLiDAR:違いは何ですか?

最近、新しいAppleデバイスのLiDARの周りで非常に多くの話題があり、モバイル拡張現実が他の方法で機能することを忘れがちです。しかし、特にToFツールがSamsungの携帯電話で新たな高みに到達した場合、それは可能であり、実際にそうなります。

開発者であれ、新しいデバイスの市場であれ、あるいは単に好奇心が強い人であれ、これらの頭字語を開梱して、携帯電話の深度検知の詳細を学ぶことは価値があります。

ToFとは何ですか?

ToFはTimeofFlightの略です。

技術的には、ToFは、光(または音)の速度を使用して距離を決定することを指します。光(または音)がデバイスを離れ、オブジェクトまたは平面で跳ね返り、デバイスに戻るまでにかかる時間を測定します。すべて2で割ると、デバイスからオブジェクトまたは平面までの距離がわかります。

したがって、関係は、すべてのLiDARが一種の戦闘時間であるということですが、すべての飛行時間はLiDARであるとは限りません。簡単にするために、「ToF」とは、LiDARを含まない光学距離測定を意味します。

では、LiDARと光学非LiDAR ToFの両方が距離決定と3Dマッピングに光を使用する場合、それらはどのように異なりますか?

LiDARとは何ですか?

LiDARは、 Light Detection andRangingの略です。このテクノロジーは、上記の方程式の光源として、レーザーまたはレーザーのグリッドを使用します。

単一のLiDAR読み取り値を使用して部屋の幅などを測定できますが、複数のLiDAR読み取り値を使用して「点群」を作成できます。これらを使用して、オブジェクトの3次元モデルまたはエリア全体の地形図を作成できます。

LiDARはモバイルデバイスにとっては新しいかもしれませんが、テクノロジー自体はかなり前から存在しています。モバイル以外の環境では、LiDARを使用して、水中環境のマッピングから遺跡の発見まで、あらゆることを行います。

LiDARとToFはどのように異なりますか?

LiDARと他の形式のToFの機能の違いは、LiDARがパルスレーザーを使用して点群を構築し、それを使用して3Dマップまたは画像を構築することです。 ToFアプリケーションは、通常、標準のRGBカメラを介して、光検出に基づいて「深度マップ」を作成します。

LiDARに対するToFの利点は、ToFに必要な特殊な機器が少なくてすむため、より小型で安価なデバイスで使用できることです。 LiDARの利点は、深度マップと比較して、コンピューターが点群を簡単に読み取ることができることです。

デプスAPI 、GoogleがAndroidデバイス用に作成されたことは、深度マップを作成し、認識することによって、TOF-対応デバイスと作品で最高の作品「特徴点を。」これらの特徴点は、多くの場合、異なる光強度間の障壁であり、環境内の異なる平面を識別するために使用されます。これにより、基本的に低解像度の点群が作成されます。

ToFとLiDARがモバイルARでどのように機能するか

デプスマップとポイントクラウドはかっこいいですし、一部の人やアプリケーションにとってはそれで十分です。ただし、ほとんどのARアプリケーションでは、このデータをコンテキスト化する必要があります。 ToFとLiDARはどちらも、モバイルデバイス上の他のセンサーと連携してこれを行います。具体的には、これらのプラットフォームは、電話の向きと動きを理解する必要があります。

マップされた環境内のデバイスの場所を理解することは、同時ローカリゼーションとマッピング、または「SLaM」と呼ばれます。 SLaMは自動運転車などの他のアプリケーションに使用されますが、モバイルベースのARアプリケーションでは、物理環境にデジタルオブジェクトを配置する必要があります。

これは、ユーザーが操作していないときにその場所にとどまるエクスペリエンスや、物理的な人やオブジェクトの背後にあるように見えるデジタルオブジェクトを配置する場合に特に当てはまります。

LiDARベースとToFベースの両方のアプリケーションにデジタルオブジェクトを配置する際のもう1つの重要な要素には、「アンカー」が含まれます。アンカーは、デジタルオブジェクトが「アタッチ」される物理世界のデジタルポイントです。

ポケモンゴーのような世界規模のアプリケーションでは、これは「ジオタギング」と呼ばれる別のプロセスを通じて行われます。ただし、モバイルベースのARアプリケーションでは、デジタルオブジェクトはLiDARポイントクラウド内のポイントまたは深度マップ上のフィーチャポイントの1つに固定されます。

LiDARはToFよりも優れていますか?

厳密に言えば、LiDARはTime ofFlightよりも高速で正確です。ただし、これは、より技術的に高度なアプリケーションでより重要になります。

たとえば、ToFとGoogleのDepth APIは、白い壁のような大きくてテクスチャの少ない平面を理解するのが困難です。これにより、この方法を使用するアプリケーションが、物理世界の一部の表面にデジタルオブジェクトを正確に配置することが困難になる可能性があります。 LiDARを使用するアプリケーションでは、この問題が発生する可能性は低くなります。

ただし、より大規模またはよりテクスチャが変化する環境を含むアプリケーションでは、この問題が発生する可能性はほとんどありません。さらに、ほとんどのモバイルベースの消費者向けARアプリケーションでは、ユーザーの顔や体にARフィルターを使用します。これは、テクスチャのない大きな表面のために問題が発生する可能性が低いアプリケーションです。

AppleとGoogleが異なる深度センサーを使用するのはなぜですか?

Appleは、LiDAR互換デバイスをリリースする際に、「より多くのプロワークフローを開き、プロの写真およびビデオアプリをサポートする」ために、センサーやその他のハードウェアを組み込んだと述べました。このリリースでは、LiDAR互換のiPad Proを「拡張現実向けの世界最高のデバイス」と呼び、Appleの測定アプリを宣伝しました。

Googleは、DepthAPIとサポートデバイスの新しいラインがLiDARを使用しない理由についてそのような率直な説明をしていません。 LiDARを回避し、Androidデバイスをより軽量で手頃な価格に保つことに加えて、アクセシビリティの大きな利点もあります。

Androidは複数の会社が製造したモバイルデバイスで動作するため、LiDARを使用すると、他のすべてのモデルを犠牲にしてLiDAR互換モデルが優先されます。さらに、標準のカメラのみが必要なため、DepthAPIはより多くのデバイスと下位互換性があります。

実際、GoogleのDepth APIはデバイスに依存しません。つまり、 GoogleのARエクスペリエンス構築プラットフォームを使用する開発者は、Appleデバイスでも機能するエクスペリエンスを開発できます。

深度検知を検討しましたか?

この記事では、主にモバイルベースのAR体験におけるLiDARとToFに焦点を当てています。これは主に、これらのより複雑な経験が最も多くの説明を必要とするためです。それはまた、これらの経験が最も楽しく、最も有望だからです。

ただし、このような深度検知アプローチは、あまり考えずに毎日使用する可能性のある、よりシンプルで実用的な多くのエクスペリエンスとツールの基礎です。うまくいけば、ToFとLiDARを読んで、これらのアプリケーションについてもう少し理解できるようになるでしょう。