パッケージ
Star Wars バトルフロント公式サイトへ
読者の評価
62
投稿数:6
レビューを投稿する
準備中
お気に入りタイトル/ワード

タイトル/ワード名(記事数)

最近記事を読んだタイトル/ワード

タイトル/ワード名(記事数)

LINEで4Gamerアカウントを登録
PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」
特集記事一覧
注目のレビュー
注目のムービー

メディアパートナー

印刷2017/08/16 15:40

イベント

PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」

ドアオープン直後のRTL会場。場所はElectronic Theaterと同じだが,RTLは例年,会期3日めの夜に行われる
画像集 No.002のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」
 SIGGRAPHには,Electronic Theaterと列ぶ人気イベントに「Real-Time Live!(以下,RTL)がある。
 SIGGRAPH 2010で初めて行われたシアターでのイベントなのだが,上映するのはプリレンダリングされたムービーではなく,すべてリアルタイムかつインタラクティブな映像だ。その内容は多岐にわたり,科学技術系のシミュレーションからゲームのプレイまで,実にさまざまなものがあって面白い。
 SIGGRAPHのシアター系イベントの中では,唯一撮影が許可されている催し物であること,一部の上映作は参加者のPCでも試せることなどにより,今や定番の人気イベントと言えよう。

ドアオープン直後のRTL会場(左)。場所はElectronic Theaterと同じだが,RTLは例年,会期3日めの夜に行われる。優秀作品の審査をイベントの真っ最中に行うのが,受賞作を決めてから行うElectronic Theaterとは違うRTLの面白いところだ。左写真の人物は,最優秀賞を発表するRTL代表のCristobal Cheng
画像集 No.002のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」 画像集 No.003のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」

 残念ながら,今年のRTLに日本勢の出品はなかったが,さまざまなRTL出展作の中から,4Gamer読者の関心が高そうなグラフィックス関連の作品を簡単に紹介しよう。


広大な水面の動きを表現する新手法が登場


 Institute of Science and Technology Austria(IST Austria)とNVIDIAによる共同研究グループは,水面の表現をテーマにしたデモ「Large-scale Interactive Water Simulation With Directional Waves」を披露した。これは,共同研究グループによる論文「Water Wave Packets」をもとに,同チームが実装したデモソフトウェアによるものだ。

画像集 No.005のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」

 水面の表現は,ゲームグラフィックスにとって長年ホットであり続けてきたテーマである。
 水面の表現というものは,どこまでミクロに,あるいはマクロに表現するかによって,適用するシミュレーションの手法が変わってくるのがポイントだ。たとえば,水をコップに注いだり,風呂桶や水槽の水をかき混ぜたりして水塊が動く表現ならば,流体シミュレーション系のアプローチが適する。一方,池や湖,川や海のように広い水面に対しては,波動シミュレーションを適用するのが一般的といった具合だ。
 共同研究グループによるWater Wave Packetsは,どちらかといえば後者の表現用のテクニックになる。論文の詳細は,こちらのリンク先を参照してもらうとして,ここではデモの説明を続けよう。

 Water Wave Packetsの概念は,ちょうど10年前のSIGGRAPH 2007で,Texas A&M UniversityのCem Yuksel氏らが発表した「Wave Particle」のアイデアを拡張したものといえる。Wave Particle自体は,実際のゲームでもよく使われている手法で,たとえば日本でも「ロスト プラネット 2」が採用したことが,CEDEC 2010のセッションで明らかにされたことがある。

Wave Particleのデモ
画像集 No.006のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」
 Wave Particleでは,表現したい波動を頂点アニメーションの集まりとして扱い,これを表現対象となる水面上にたくさん適用することで,複雑な波の表現を行おうとするものだ。たとえば,凹凸が上下移動を繰り返すような無数のWave Particleを水面上で重ね合うように配置すると,複雑な波が水面に現れているように見えるだろう。
 ここで,水面上を走るボートの後ろに水を掻き分けるような頂点アニメーションのWave Particleを付けると,ボートが波をかき分けて走っているように見えるはずだ。つまりWave Particleは,物理的に正しいシミュレーションというよりも,疑似物理とも言えるプロシージャルアニメーションの手法に近いものだった。

 一方,Water Wave Packetsでは,Wave Particle自体を動かしたり,拡大縮小したりできるし,シミュレーション結果に基づいて波の形状を変形させることも可能だ。
 たとえば,波が障害物に当たれば反射波が発生するし,障害物に対して回り込むような回折波が生じることもあるだろう。そうした現象をそれぞれのWave Particleに反映しながら,Wave Particle全体を動作させる。これにより,Wave Particleによる波表現が,よりリアルなシミュレーションベースの表現に近づくというわけだ。


 RTLでの実演では,浅瀬では波の高さが低くなる一方で,波の速度は速くなる様子や,水辺で波の反射が起きる様子を披露した。また,水面に大量の箱を投げ込んだり,たくさんの船を走らせたりして,リアルな波の動きを再現できるというデモも実演された。
 波の表現がリアルに見えるゲームでも,岸辺に反射する波の表現までも行っているものは,今のところほとんどない。Water Wave Packetsでは,そういった表現が可能になるという点に感動した。
 応用範囲の広そうな技術だけに,今後はゲームグラフィックスでの採用も進んでいくと期待できる。



PS VR用「X-wing VR Mission」は,リアルタイムに解像度を切り替える


画像集 No.009のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」
 PlayStation 4(以下,PS4)版「Star Wars バトルフロント」(以下,SWBF)の無料DLC「Star Wars Battlefront Rogue One: X-wing VR Mission」(関連記事,以下 X-wing VR Mission)は,PlayStation VR(以下,PS VR)対応のVRゲームとして評価が高い。そのX-wing VR Missionで使われたレンダリングテクニックの一部を,ゲームプレイを実演しながら解説するトークセッションがRTLで行われた。

 セッションを担当したのは,本DLCの開発を担当したCriterion GamesのエンジニアであるAngel Munoz Berbel氏。余談だが,Criterion Gamesは,BurnoutシリーズやNeed For Speedシリーズの開発元としても知られている。

 セッションの冒頭で語られたのは,動的な可変解像度レンダリングテクニックについてだ。
 SWBFのゲームエンジンは,Electronic Arts作品で汎用的に使われている「Frostbite」を用いており,ゲーム中のフレームレートは60fpsになるよう設計されているそうだ。一方,X-wing VR MissionはVRゲームなので,プレイヤーの頭の動きに対する遅延を減らすために,映像のフレームレートを120fpsに上げているという。
 この60fpsから120fpsへとフレームレートを上げるプロセスに,VRコンテンツでは定番のTime Warp(タイムワープ,PS VRではTime Reprojectionと呼ぶ)処理を使うことで,映像表示が間に合わないときに,頭の動きに合わせて既存のフレームを動かす手法を取り入れていることは,言うまでもないだろう。

 そんなX-wing VR Missionのレンダリングテクニックとして興味深いのは,ゲーム中の映像を,基準となる解像度より最大で1.4倍ほど高い解像度で描画しているというところだ。その理由は,GPUで映像を普通に描いたうえで,PS VRの接眼レンズに合わせた歪みを除去する映像処理を行うと,結果的に映像が縮小変形されてしまうので,解像度が不足した映像に見えてしまうのを避けるためであるという。
 ただ,ゲーム中,常に約1.4倍の解像度による描画を継続できるわけではない。敵機や隕石などのオブジェクトや,爆発やビームなどのエフェクトが多いときは,フレームレートが60fpsを下回る可能性がある。そこで,高負荷時には,解像度のスケール値を約1.4倍から1倍まで,リアルタイムに下げる機構を備えているというのだ。

 会場で披露されたデモでは,最大解像度時に「x1.3991791×1007」と表示されていた。約1.4倍で表示する場合,GPUは映像を2119×1191ドットで描画したうえで,レンズ歪みに合わせた加工を行い,1791×1007ドットの映像に変換する。これをPS VRの有機ELパネルに表示するときに,1920×1080ドットにアップスケールして表示しているわけだ。
 2119×1191ドットという解像度は,ずいぶんと中途半端な数字に思えるだろうが,1791×1007ドットの総ドット数を約1.4倍すると,この数字になる。なぜ1791×1007ドットという半端な解像度を選んだのかは分からないが,おそらくは,60fpsを死守できる最適な解像度として算出されたものなのだろう。

標準では約1.4倍にあたる1791×1007ドットで描画しているが(左),負荷が高いシーンでは,動的に解像度倍率を下げている(右)
画像集 No.011のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」 画像集 No.012のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」

 デモの様子を撮影したムービーでは,4:09あたりから倍率と解像度が数値で表示されるので,映像と倍率の変化に注目してほしい。


 セッションではもう1つ,「テンポラルアンチエイリアシング」(※テンポラルスーパーサンプリングとも呼ぶ)の有効性についても触れられていた。

 Frostbiteエンジンは,グラフィックスエンジン部分に物理ベースレンダリングを採用しているのだが,この方式では,輝度の高い光源で照らされてできた1ドット以下の高輝度ハイライトがちらついて見える現象が発生しがちだ。
 そうした問題は,X-wing VR Missionでも同様だったようで,過去フレームを参照してサンプリングとブレンドを行うテンポラルアンチエイリアシング処理を実装して,この問題を軽減したという。
 ムービーの2:23あたりから,テンポラルアンチエイリアシングの効果を比較しているシーンがあるのでチェックしてみよう。

 物理ベースレンダリングと時間方向のちらつきについては,シリコンスタジオがCEDEC 2014で行ったセッションレポートで詳しく説明しているので,詳細を知りたい人はそちらも参照してほしい。


UE4ベースの短編映像作品「The Human Race」がRTLの最優秀賞を獲得


 本稿の最後に取り上げるのは,米国の自動車ブランドとして名高い「Chevrolet」(シボレー)を代表する車種「Camaro」(カマロ)の誕生50周年を記念して作られた短編映画作品「The Human Race」だ。
 本作は,Unreal Engine 4(以下,UE4)を使って作られているため,GDC 2017でEpic Gamesが行ったセッション(関連記事)の中でも紹介されたことがある。

 デモの解説を担当したのは,The Human Raceを制作したイギリスの大手CGプロダクションであるThe MillのJoji Tsuruga氏だ(関連リンク)。わずか90秒という作品だが,Tsuruga氏が「短編映画」と称するだけのことはあり,見事にRTLの最優秀賞に当たる「Best Real-Time Graphics & Interactivity Award」を受賞していた。

セッションタイトル(左)と講演者のJoji Tsuruga氏(右)
画像集 No.013のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」 画像集 No.004のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」

 舞台は,現代に極めて近い近未来。人工知能の「AXA」(アジャ)が運転するコンセプトカーと,人類最速のレーサーであるLouis(※架空の人物)が運転する現行世代のCamaroのどちらが速いかを競う峠レースを描いたものだ。登場する車は,Louisが運転するのが「2017 Camaro ZL1」で,AIのAXAが運転するのは,2015年の上海モーターショーで発表となった次世代電気自動車のコンセプトカー「Chevrolet FNR」である。


 本作は,The Millのスタッフが編集ツールやレンダリング工程でUE4を使って制作したものだ。The Millが開発したゲームエンジンベースのリアルタイム映像制作フロー「Cyclops」の習作も兼ねていたそうだが,Epic Gamesも制作に全面協力していたそうだ。
 Cyclopsとは「リアルタイムAR技術を応用した映像制作技術」であるとThe Millは説明しており,これを構築するにあたって,ゲームエンジンのUE4はなくてはならないものだったという。
 Cyclopsの根幹を成す技術は,360度映像カメラで現実世界を撮影したうえで,その360度映像を全方位の環境マップとして扱い,カメラ位置に配置したCGキャラクタをに対して,イメージベースドライティング(IBL,全方位環境マップを全方位の光源と見なしてライティングする手法)でリアルタイム描画するというものだ。実写とCGの合成を,UE4ベースでリアルタイムに行うパイプラインと言い換えてもいいだろう。

 The Human Raceの制作にあたっては,カリフォルニア州の峠道でロケを敢行したそうだが,そこで実際に走らせた車が,The Millが独自に開発した「The Blackbird」である。

ステージに持ち込まれたThe Blackbirdの実車
画像集 No.015のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」

 The Blackbirdは,車体のホイールベース(※前後輪間の長さ)やトレッド(※左右輪間の長さ)を自在に調整できる仕組みを備えた,シャシー剥き出しの自動車だ。ボディの上には,CG合成に使う位置情報検出用のARマーカーや,全方位環境マップを取得するためのカメラを装備しており,見た目は相当に異様である。
 ロケ地で撮影した峠道の風景と,そこに映っているThe Blackbirdに対して,Camaro ZL1やFNRといったCGオブジェクトをリアルタイム合成した映像を,スタジオに戻ることなくロケ現場で確認できるのが,Cyclopsの特徴であるわけだ。

 セッションでは,実際にThe Blackbirdをステージに持ち込んだうえで,さまざまな色をしたCamaro ZL1を合成する様子が披露された。ステージの情景をCGのボディに映り込ませていることを示すために,わざとレフ板をあてて照明状態に変化を付けてみせたり,まったく形状の違う1968年型のCamaroに変更してみせたりするだけに留まらず,自動車でも何でもない動物を重ねてみせる様子も披露して,来場者の笑いを誘っていた。
 デモの様子を撮影したムービーを掲載しておくが,クラシックなCamaroに変わったときには,ちゃんとホイールとタイヤもまったく違うものに置き換わっているところを注意してみてほしい。Cyclopsではボディだけではなく,ホイールやタイヤにまでCGを被せることができるのだ。


 リアルタイムデモであることを示すために,UE4のタイムラインエディタにThe Human Raceのプロジェクトファイルを読み込み,太陽の位置を変更したり,タイヤから出るスモークを増量したり,逆光時のレンズフレアを増やす様子までも実演してみせていた。映像本編もリアルタイムで編集でき,そのまま最終的な映像が完成する様子まで披露しており,映像制作にたずさわる来場者にとっては,なかなか刺激になったのではないだろうか。

 2017年のRTLを制したのはThe Human Raceだったわけだが,振り返ってみると,2016年のRTLで最優秀賞をとったのも,UE4ベースでリアルタイムパフォーマンスキャプチャを行うシステムのデモだった。2年連続で,UE4関連デモが受賞したことになる。UE4はゲーム分野だけでなく,ノンゲーム分野でもその実力を遺憾なく発揮しているといったところか。
 イベント閉幕後,ステージ上に持ち込まれたThe Blackbirdの周辺で,The MillのスタッフにEpic Gamesのスタッフも加わって記念撮影をしている姿が印象的であった。

The Blackbirdに腰掛けて記念撮影に応じているのは,The Human RaceプロジェクトにおけるEpic Games側の担当エンジニアだったGuillaume Abadie氏(左)と,Epic Gamesの創設者兼CEOであるTim Sweeney氏(右)だ
画像集 No.017のサムネイル画像 / PS VR用「X-wing VR Mission」の秘密やUE4ベースの映像制作システムに注目が集まった,SIGGRAPH 2017「Real-Time Live!」

SIGGRAPH 2017のReal-Time Live! 公式Webページ

  • 関連タイトル:

    Star Wars バトルフロント

  • 関連タイトル:

    Unreal Engine

  • この記事のURL:
AD(最終更新日:2022/12/18)
Star Warsバトルフロント 【初回特典】:「Battle of Jakku」先行アクセスコード 同梱
ビデオゲーム
発売日:2015/11/19
価格:¥3,300円(Amazon) / 3584円(Yahoo)
amazonで買う
Yahoo!で買う
4Gamer.net最新情報
プラットフォーム別新着記事
総合新着記事
企画記事
スペシャルコンテンツ
注目記事ランキング
集計:12月26日〜12月27日