Nvidiaは、2018年12月3日に開催されたイベントにて、AIを使い、現実の動画から3D仮想空間を自動構築できる技術を発表しました。
人の手は不要、AIだけで3D空間を構築
3DCGによる仮想空間を作る場合、ゲームであれ映画であれ、3D空間のオブジェクトを人の手で作り、組み合わせていく必要があります。今回発表された技術デモでは、現実のビデオをもとに『建物』や『樹木』『車』といったオブジェクトをニューラルネットワークに学習させることで、これらの3DCGを自動でレンダリングすることに成功させました。
VRやゲームのための3D空間を構築
通常3DCGを作る場合、参考資料やデザインを用意し、またそこからテクスチャや3Dポリゴンなどひとつひとつ作っていくため、それだけに多くの労力を要します。グラフィックの向上により、3Dがより写実的になればなるほどその作業は増えていき、多くの労力とそれに見合う費用が必要になります。
Nvidiaは、この技術をVRやゲームに利用できる、3D仮想空間を即座に構築できる可能性が生まれるとしています。
自動車、建築、ロボティクスにも応用できる
Nvidiaはこの技術はVRやゲームだけでなく、自動車や建築、ロボティクスのためにも利用できる可能性があるとしています。現実空間を基にした3D空間でテストをできる可能性や、視覚情報から現実空間を認識する技術を活かすことで、ロボットや自動車のAIの視覚能力にも用いることができそうです。
現実をもとにしたVRMMOも構築できるかも?
今後この技術が実用レベルまで発展すれば、現実の動画を用意するだけで自動に世界が構築できるため、今まででは考えられなかったレベルの広大な世界を構築することができる様になります。
他の多くの技術の発展と合わされば、まさに漫画やSF小説に出てくる様な、人の手では到底作れないレベルのリアルさと広大な広さを持つ3D空間で楽しめるVRMMOだったり、自分が見たい夢を再現できるようなサービスが生まれるかもしれません。