【開発者インタビュー】『METAL GEAR SOLID Δ: SNAKE EATER』サウンドチームが語るリメイクの設計思想。20年前の“完成された作品”は、現代の技術でどう進化したのか

【開発者インタビュー】『METAL GEAR SOLID Δ: SNAKE EATER』サウンドチームが語るリメイクの設計思想。20年前の“完成された作品”は、現代の技術でどう進化したのか

2026.01.20 [PR]
注目記事インタビューツール紹介サウンド
この記事をシェア!
Twitter Facebook LINE B!
Twitter Facebook LINE B!

2004年に発売された『METAL GEAR SOLID 3 SNAKE EATER』。原作の世界観やストーリーはそのままに、現代的なグラフィックスやサウンド表現に刷新されたリメイク作『METAL GEAR SOLID Δ: SNAKE EATER』では、三人称視点が追加されたことから従来以上に“自分の周囲で何が起きているのか?”を正確に把握できるサウンド設計が求められました。

今回は、本作の開発を担当したコナミデジタルエンタテインメントのサウンドチーム 2名と、立体音響ソリューション「Sound xR Core」を提供するヤマハの担当者にインタビューを実施。

リメイク版ならではのサウンドデザインの考え方と立体音響の実装背景、そして再生環境がバラバラなマルチプラットフォーム環境においても、サウンドデザイナーが責任を持って制作できる環境について詳しく話を伺いました。

INTERVIEW / TEXT 神山 大輝

目次

オリジナルを継承したリメイクへの挑戦

――自己紹介をお願いします。

蟹川:サウンドデザイナーの蟹川俊介です。これまで『メタルギア』シリーズや『悪魔城ドラキュラ』シリーズを中心に担当してきました。本作ではリードサウンドデザイナーとして、効果音制作や組み込みを中心に、カットシーンMA、音声収録ディレクション、空間音響設計、インゲームミックスなど幅広く関わっています。

大岡:コンポーザーの大岡弘明です。楽曲制作を主軸に、カットシーンMAや空間音響の設計・実装などを担当してきました。本作では「ボム蛇合戦」や「FOX HUNT」の新規楽曲の制作に加え、空間音響や出力・サウンドシステム全般の設計と組み込みを担当しています。本日はよろしくお願いします。

広瀬:ヤマハの広瀬と申します。本作に導入いただいた立体音響ソリューション「Sound xR Core」を提供しています。もともとは省庁に勤めておりましたが、いまはヤマハで立体音響の普及に務めております。

(左から)ヤマハ 広瀬 健治氏、コナミデジタルエンタテインメント 大岡 弘明氏、蟹川 俊介氏

――本作は2004年に発売された『METAL GEAR SOLID 3 SNAKE EATER』を原作としたリメイク作品です。どのようなサウンドが目指されたのでしょうか?

蟹川:本質を変えずに進化させる」。これが、サウンドに限らず制作チーム全体で共有していた目標です。

グラフィック表現でも、原作の雰囲気を大切にしながら、空間の奥行きや光の反射といった画面全体の情報量やディテールを高めることで、現代的な表現へとアップデートしていました。そのためサウンドに関しても、単純に「当時のものをそのまま使う」というわけにはいきませんでした。オリジナル版の開発当時は、メモリ容量や再生環境にさまざまな制約があり、同じ音を使い回さざるを得ない場面も多かったんです。

今回はそうした制約から解放された現代の環境を前提に、オリジナルの意図を踏襲しつつ、リメイク作品としてふさわしいサウンドへと再設計することを目指しました。

蟹川:前提として、私たち開発チームはオリジナル作品を心からリスペクトしています。あの時代において『METAL GEAR SOLID 3 SNAKE EATER』は間違いなく完成された作品でした。

だからこそ今回のリメイクでは「壊す」のではなく、当時の完成度を土台にしながら現代の技術でどこまで体験を拡張できるか、サウンドチームとして挑戦しました。

開発環境はUE5.2×Wwise。立体音響にはSound xR Coreを選択

――オリジナル当時からは開発環境や規模も大きく変わっていると思いますが、サウンドの開発規模と使用した環境・ツール、仕様などを教えてください。

蟹川:開発環境はUnreal Engine 5.2で、サウンドオーサリングツールはWwiseを使用しています。内部プラグインに関しては、立体音響のためのSound xR Core、そして反射や残響にはWwise Spatial Audioなどを組み合わせて使用しています。

インゲームSEの制作とMA(Multi Audio:カットシーンに音をつける作業)はPro Toolsで行っています。ゲーム本編は7.1.4chのサラウンド出力に対応しており、ターゲットラウドネスは-20から-24LUFSに設定しました。

大岡:楽曲制作にはSteinberg NuendoかAbleton Liveを使っています。効果音もNuendoで制作することが多いですね。ちなみにWwiseを採用した理由は、もともと「メタルギア」シリーズがWwiseを使っていたという経緯もありますが、一番はバスルーティングの自由度でした。ここは後ほど詳しくお話しさせてください。

――タイトルに関わったサウンドチームは何名でしょうか。

蟹川:メインメンバーは7名です。リードサウンドデザイナーは私を含めて3名ですね。

大岡:コンポーザーは私を含めて2名です。新規楽曲の制作だけでなく、新録版のアレンジや、インゲームの音楽の組み込みも行っています。

蟹川:残る2名は、インゲームの環境音をデザインして組み込むメンバーと、フォーリーアーティストとしてカットシーンを管理・監修する立場のメンバーです。そのほかにもサポートメンバーを含めると、最終的に12名ほどの規模となっていました。

効果音はほぼ新録。楽曲はオリジナルデータを継承

――本作のアセットは全て新録したのでしょうか?それとも、オリジナルの継承として、当時のデータを流用する部分も多いのでしょうか。

蟹川:最初は原作のサウンドをそのままゲームに実装してみたんです。でも、それでは成立しなかったんですよ。

グラフィックスがすごく立体的なのに、当時のサウンドは圧縮率が高く、どうしても前に張り付いたような音になってしまっていました。結果として距離感が掴みにくかったんです。その時点で「これは全部作り直そう」という判断になりましたね。

――確かに、かなり想像できます。ただ、アセット差し替えの良いガイドにはなりそうですね。

蟹川:そうですね。すでに旧作を遊んでくれているユーザーができるだけ違和感を抱かないようなサウンドに落とし込むという意味でも、とても良い指標になりました。

今回のサウンドリメイクは、単純にアセットを差し替えるのではなく、オリジナルのサウンド表現や設計思想を“コア”として捉えつつ、現代のグラフィック表現に見合う密度や当時は実現できなかった表現を丁寧に積み重ねていくというアプローチでした。

その考え方が分かりやすく表れているのが、物理マテリアルを軸にしたサウンドデザインです。

本作では60種類以上の物理マテリアルが定義されており、足音や跳弾音、薬莢の落下音、ナイフのヒット音など、プレイヤー周囲で発生する接触音をマテリアルごとにすべて作り分けています。例えば薬莢の音ひとつをとっても、落下時と転がり音を分けたうえで、銃弾の種類や各物理マテリアルごとの違いによって鳴り方を変えています。

これは単に音のバリエーションを増やすためではなく、映像の情報量や空間の奥行きが増したぶん、音も同じ粒度と密度で空間を支える必要があるという考え方からきています。

大岡:一つひとつは気の遠くなるような細かい作業だと思いますが、そこまで作り込むからこその没入感もあったと思います。

蟹川:足音や跳弾の音なども分かりやすい例ですが、プレイヤーの周囲で起きている出来事を音で描写するという点では、すべて同じ考え方で設計しています。

どんな材質の場所に立っているのか、周囲のどこで何が起きているのか。そうした情報を音からも自然に受け取れるようにすることで、プレイヤー自身が状況を判断し、次の行動を選ぶ助けになるような音作りを目指しています。

単なる演出として音を足すのではなく、プレイヤーの体験や判断を支える要素としてサウンドをどう機能させるか。その答えとしてこのような作り込みに至ったということですね。

――組み合わせ爆発が起きていそうで、話を聞いているだけでも物量の多さにめまいがしそうです。ということは、実装されたサウンドアセットについてはほぼ全て新録になっているということでしょうか。

大岡:それで言えば、楽曲は基本的に原作のものを流用しています。ただ、当時のパラデータが残っていない楽曲も多かったので、2ch/5.1chのマスター音源を7.1chへアップミックスしてゲームに組み込んでいます。

一方で、新規制作・新規録音した楽曲もあります。 シンシア・ハレル氏による歌唱を新たに収録した「Snake Eater Δ Version」をはじめ、 LA・ベルリン・東京の3拠点でオーケストラ収録を行い、Dolby Atmosミックスを実施しました。インゲームでは、Dolby Atmosミックスしたものを7.1.4chにダウンミックスして再生しています。

蟹川:効果音についても、すべてを刷新したわけではありません。敵に見つかった際のアラート音やケロタンの効果音など、原作の『メタルギア』を象徴するアイコニックなサウンドは一部オリジナルのまま残しています。

あくまで『メタルギア』のサウンドとして成立させること、そしてかつて遊んでくれたユーザーが再びプレイしたときにも、できるだけ違和感の少ない体験になることを目指しました。

「潜入体験」のため、サウンドの位置関係を正確に伝えることが重要に

――本作では「立体的なサウンド表現」がプロモーションのキーワードに含まれていましたが、なぜ立体音響も含めたサウンドの開発にこだわったのでしょうか。

蟹川:本作のコンセプトとして大切にしていたのは「原作の世界観の良さをそのまま引き継ぐ」という点です。そのうえで、どうすれば潜入体験を、より没入感のあるものにできるかを考えた結果、バイノーラルを含む立体的な空間表現に取り組むことにしました。

また、本作では新たに「三人称視点モード」が追加されており、それに伴ってサウンドもよりプレイヤーキャラクターを中心とした音像を構築する必要がありました。敵や環境音が「どの方向に」「どのくらいの距離感で」存在しているのか。そうした空間的な位置関係や方向感を音によって正確に分かりやすく伝えることが、私たちサウンドチームにとって重要なミッションだったんです。

――そこで、先ほどお話に上がった反射や残響、遮蔽などの要素に加え、立体音響も導入したと。実装工数や負荷なども上がるのではと思いますが、それを上回るメリットがあったのでしょうか?

蟹川:いくつかのソリューションを比較・検証した結果、Sound xR Coreであれば、実装や検証の工数が増えるコストを十分に上回るメリットがあると判断しました

まず体験面について、音の方向や距離感を全方向にわたりきわめて細かく表現できること。特に上下方向や後方の定位が、直感的に分かりやすくなります。敵の存在や周囲の状況を音で判断する本作のような潜入アクションでは、体験の質を大きく底上げしてくれる要素でした。

蟹川:もうひとつは運用面です。本作はPCを含むマルチプラットフォームでの発売を想定していたので、再生環境の違いを強く意識せずに設計・調整できる点は大きかったですね。
実際に検証してみても、プラットフォームを問わず安定したクオリティで提供できる手応えがありました。

広瀬:Sound xR Coreについて改めて説明をしておくと、ゲーム業界でも活用が進んでいたViRealを前身としたヘッドホン向けの立体音響ソリューションです。Unity、UE5、Wwise向けプラグインとして提供されているほか、CRI ADXにはヘッドホン立体音響として標準搭載されています。

ヤマハとしては、ヘッドホンで聴いたときに「頭の中で鳴っている音」を、いかに頭の外に感じさせるかという課題からスタートしています。人の耳は全天球的なセンサーのようなもので、左右の耳に届く音の時間差や位相差を手がかりに、音の位置を認識しています。

その知覚の仕組みを数式としてモデル化したものが、いわゆる頭部伝達関数(HRTF)です。モノラルの音源に対して波形変換モデルを畳み込むことで、実際には存在しない位置から音が聴こえるような定位感を擬似的に再現できます。

蟹川:3Dオーディオのソリューション自体は、ほかにもいくつか候補がありましたが、実際にプロジェクトの中でどう使えるかという視点で検証を進めていきました。

R&Dの段階では、簡易的なレベルに音源を配置して楽曲や銃声を鳴らしながらカメラを回し、後方や上下方向の定位感を確認していました。その時点で、サウンドデザイナーの感覚として「これは行ける」という手応えがありましたね。

大岡:開発中期、量産の少し手前のタイミングで採用を決めたと記憶しています。

個人的にはマルチプラットフォーム対応が一番大きかったですね。それまでは、PlayStation 5ではTempest 3Dオーディオ、 XboxではDolby Atmos for Headphonesといったように、 プラットフォームごとに特性の異なるバイノーラルレンダラーがビルトインされていました。

そのため出音の担保という観点で、出力周りをWwise上でどう組むかに苦慮していましたが、Sound xR Coreを導入したことで、全プラットフォームでバイノーラルレンダラーを統一できるようになりました。結果として、「このプラットフォームでは問題ないが、あのプラットフォームでは問題がある」といったトラブルが一気に解消されたんです。このレンダラーの統一は実装面で大きな前進でしたね。

Wwise上でSound xR Core単体の処理負荷を計測したところ、 CPU使用率の増加は約2~3%程度にとどまっていたという。 そのパフォーマンスに加え、音質面の向上やサウンドデザインを一元化できる点も評価され、 導入に踏み切ったそうだ

「Sound xR Core」製品紹介ページ

――定位感や音質、負荷などを比較した結果、Sound xR Coreを選ばれたということですね。実際に組み込んでみて、サウンド制作の進め方や自由度という点ではどのような変化がありましたか?

蟹川:一番大きかったのは「一度組み込んでしまえば、サウンドデザイナー側で落とし所を調整できる」ようになったことですね。

Sound xR Coreは、ゲーム内のパラメータやステートに紐づけた制御や、ダイレクト処理する音の優先度設定など、オーディオミドルウェア側で調整できる余地が非常に多いんです。そのおかげで「このシーンでは発音数が増えて処理負荷が高くなっているから、この音の鳴らし方を整理しよう」とか「この音は体験的に重要だから、優先度を上げて確実に聴かせよう」といった判断や調整をサウンドデザイナー自身の手元で行えるようになりました。

結果として、プログラマーへの負担を掛けずに意図した音に作り込める。そこが、制作の進め方や自由度という意味で非常に大きな変化だったと感じています。

バイノーラル化によるメリット・デメリット

――Sound xR Coreのようなバイノーラル化において、原音忠実性はよく話題に上がります。定位が分かりやすくなることと、音質面のバランスはどのように取っていきましたか?

大岡:Sound xR Coreは音が良く、音痩せしたり、高域がシャリシャリしたりなど音質の変化は最小限です。ただ、そうは言ってもHRTFというフィルターを通すため、必ず変化は発生します。

さらに本作では、定位優先のPCNタイプ(※)を選択していたため、そこからさらに音が変わってしまい、結果的にサウンドデザイナーが意図しない音に変わる、デザインが変わってしまうという課題が発生しました。デモを用意したので、聴いてみてください。

※Sound xR Coreで選択可能なHRTFタイプのひとつ。PCNは定位感を最優先としている。他にも、音質の変化の少なさを優先するTC4などがある。オブジェクトごとに設定が可能

大岡:まずは「原音」を再生します。こちらがサウンドデザイナーが意図したデザインの音、元の音色です。

サウンドデザイナーが意図した通りの「原音」

大岡:次に「定位感最優先の設定にしたSound xR Coreの音」を聴いてください。低域、高域成分が削られて、もとの音から音色が変化していることが分かると思います。

定位感最優先の設定にした「Sound xR Coreの出力音」。定位感は強く感じられるが、原音からは音色が変化している

蟹川:フィルターである以上、Sound xR Coreに限らず音の変化は必ず起こります。サウンドデザイナー側がデザインした音を、そのままユーザーに届けたい。でも後方や上下方向の定位感も欲しい!その悩みを大岡に相談したところ、それを同時に満たすソリューションを持ってきてくれたんです。

大岡氏が提案した運用方針。両者の音をミックスすることで、原音の音色を保ったまま定位感を付加できるように

大岡:何をしているかというと、もともとON/OFFしかなかったWwiseのバス構成を、DRY/WET()を混ぜられるように変更したんです。「割と簡単に実験できますけど、どうですか?」と提案して、いざ試したら音色の再現性の担保をしつつ、方向感も感じられる結果になったので採用となりました。

※DRYはエフェクトが掛かっていない原音、WETはエフェクトが完全に掛かった処理後の音を指す。これらを混ぜて(ミックスして)再生している。
厳密にはDRYとWETの間でディレイ由来の位相差が発生するが、インゲームでは初期反射音も同時に再生されているため、この位相差による音の崩れは知覚されにくく、許容範囲と判断している

本作のWwiseのバス構成。Envは方向感が大切な環境音、Gimmickはステージギミック、Weaponは銃声など、カテゴリごとに分類されている。各カテゴリごとにDRY/WETのミックスができるようになっている

――DRY/WETでの調整は、サウンドデザイナーにとっても納得感のある解決策だと感じます。アセットにもよると思いますが、どのくらいの割合でミックスしていますか?

蟹川:実際にはカテゴリーごとに個別にバランスを調整していったのですが、最終的には、多くの音でDRY70%、WET30%くらいがちょうど良いバランスになりました。このくらいの割合でも後方や上下方向の定位は十分に感じられますし、原音の音色も大きく損なわれない手応えがありました。先ほどの滝のサウンドもほぼ同じ割合で再生しています。

大岡:Sound xR Coreレンダリング用のバスと、原音をそのまま通すバスの2系統を用意し、効果音、環境音、ボイス、カテゴリーごとに2系統の音をミックスして使用するというイメージですね。

バイノーラル化は銀の弾丸ではない。使うべきシチュエーションを適切に選ぶ

――原音の忠実性はルーティングの工夫で担保できたとのことですが、実際の運用面で注意した点はありますか?

大岡:同時発音数が増えると処理が重くなってしまうという課題がありました。 発音数自体は制限していたのですが、それでも「多い、重い!」という状況だったので、Sound xR Coreを適用する音をそもそもある程度絞る必要がありました。

蟹川:限られたリソースを使うならダイレクト音のほうに集中させたいという意図もありました。定位表現力という点では、やはりベッド音よりもダイレクト音のほうが圧倒的に強いですからね。

広瀬:補足すると、立体音響処理にはダイレクト音とベッド音の2つの考え方があります。ダイレクト音は、音源となるオブジェクトごとにHRTFをリアルタイムで変化させ、位置情報を直接反映して再生する方式です。一方、ベッド音は7.1chなどの固定スピーカー構成を想定し、まとめて処理を行う方式です。

ダイレクト音は同時に多くの計算を行うため、再生可能発音数が設定されています。上限を越えた分はベッド音のレンダリングに回されます。Sound xR Coreには、使うべき音、使わなくても良い音が必ずあります。そこはサウンドデザイナーのデザイン哲学によって選定していただきたい部分です。

――つまり、通常のサウンドリストとは別に、どの音でSound xR Coreを有効化するかを管理する必要が出てきたということですね。実際の運用としては、どのような形で対応したのでしょうか。

蟹川:そうですね。確かに、やること自体は増えました。Sound xR Coreを適用する音については、通常のサウンドリストとは別に専用の管理リストを用意して、「どの音に適用するか」を整理しました。いわば、適用方針をまとめた計画書のようなものですね。

そのうえで、実際の適用作業は、インゲームミックスの調整と並行して進めていく形を取りました。

今回は全体のインゲームミックスも含めて私が担当していたので、どの音に適用するかの選定から最終的な調整まで、既存のワークフローの中に自然に組み込めた感じですね。そのため、作業としては特に大きな負担には感じませんでした。

それよりも、最終的にプレイヤーに届ける体験が良くなるのであれば、この手間はかけるべきだと思いましたね。

――没入感を高める上で重要な音とは、具体的にどのようなサウンドでしょうか。

蟹川:処理負荷に対してどれだけ体感的な効果が得られるかという観点で選んでいった結果、 ある程度の音価、つまり音の長さがあるアセットのほうが効果を感じやすい傾向がありました。

例えば、銃の跳弾や弾の通過音にも効果自体はありますが、発音が非常に短い上に短時間で発音が重なりやすいため、そのぶん処理負荷もかさみます。その割に、体感として得られる効果はそこまで高くなかったんですよ。であれば、そういった音にかかる処理負荷を抑えて、より効果の高い音にリソースを回したほうが良いという考え方で整理していきました。

逆に、座標が適度なスピードで動く音、例えば鳥の羽ばたき音や鳴き声のようなものは相性が良かったですね。 また本作はステルスゲームなので、 何よりも重要な敵兵の位置を伝える音―― 敵兵の音声や、銃声のテール音などには積極的に適用しています。

どんな環境でも、サウンドデザイナーが意図したデザインの空間表現を届けたい

――マルチプラットフォーム対応について、もう少し詳しく教えてください。出力先のプラットフォームを問わず、Sound xR Coreで作り込んだ音が出力されることがメリットだと思いますが、具体的にはどのように実装したのでしょうか。

大岡:Sound xR Coreはヘッドホン・イヤホン専用のバイノーラルレンダラーなので必然的に2chの出力になりますが、本作は7.1.4chスピーカー構成にも対応しているゲームです。つまり、最終アウトプットがSound xR Coreの音を、それ以外の環境ではマルチチャンネルの音が再生されるように自動で切り替える必要がありました。これを実現するためにバス構成を設計しました。

画面左側、効果音A、B、C、Dなど、ゲーム内で再生される効果音が、Sound xR Core専用の効果音集約バスにまとめられる。同様に、環境音、ボイスについても専用の集約バスに音がまとまっている。ここからSound xR Coreレンダリングバスに必要な音を送り、バイノーラル化ののちマスターに流れるルーティング

一方で、5.1ch、7.1chなど最終アウトプットが2チャンネル以外の環境では、マルチチャンネルの音を鳴らす必要がある。各カテゴリーの音が集約バスにまとめられるところまでは一緒だが、そこからSound xR Coreレンダリングバスには送らずに、マルチチャンネルバス(Same as parent)バスに音を送り、そこからマスターに出力している

蟹川:2ch出力の場合、サウンドコンフィグで立体音響を有効にするかどうかユーザーに選んでもらうという作り方もできます。ただ今回はできるだけ、そういった“出力設定を意識させる”仕様にはしたくありませんでした。

というのも、ステレオ環境にはヘッドホンだけでなく、ステレオスピーカーも含まれます。そこで「スピーカーで聴くときはONなのか、OFFなのか」といった判断をユーザーに委ねると、体験としてはノイズになってしまいます。そのため、エンドポイントを見て自動的に切り替わる形を選びました。

この設計判断を行ううえでの前提として、先ほどご紹介した原音をMixする運用があります。そもそものSound xR CoreのMix量を抑えているので、ステレオスピーカー環境でもクロストークは、聴感上気にならないレベルに収まっていました。

この手応えがあったからこそ、ヘッドホンかスピーカーかを意識させることなく成立させられると判断して「2chであれば常にSound xR Coreを有効にする」という設計を選択しました。

――Sound xR Coreとその他の立体音響ソリューション、例えばPlayStation 5標準搭載のTempest 3Dオーディオは競合関係にあり、いずれも有効の場合は“フィルターの二度掛け”になると思いますが、どのように対応していますか?

大岡:そうですね、バイノーラル処理が二重にかかると、どうしてもシュワシュワとした音になってしまうので、これは絶対に避ける必要がありました。そこで、Sound xR Coreバスの後段に「Passthrough Mix Setting」という、プラットフォーム側の立体音響処理をバイパスするためのバスを追加しています。

この対策と、先ほど説明したバス切替の仕組みを組み込むことで、最終アウトプットが2chであれば、どの環境でも自動的に、サウンドデザイナーが意図した音や空間表現をそのまま届けられるようになりました

エンドポイントが2chの場合のみSound xR Coreの出力が有効化するように、WwiseのRTPCで制御している

――ありがとうございます。最後に、記事を読んでSound xR Coreに興味を持った方に向けてメッセージをお願いします。

蟹川:今回ご紹介したSound xR Coreの使い方は、あくまで本作における一つの事例になります。ゲームにはそれぞれコンセプトがあり、表現したい方向性も異なります。立体音響もその目的を実現するための手段のひとつであり、プロジェクトごとに最適な使い方は変わってくると思います。

だからこそ、サウンドデザイナーが「どう聴かせたいか」に責任を持ち、最後まで音作りを完結させられる点に、Sound xR Coreならではの大きな魅力と価値があると感じています。

今回の事例が「こういう使い方もある」という一つのヒントとして今後の立体音響デザインや技術検証の一助になれば嬉しいですね。私たち自身も引き続き検証を重ねながら、より良い使い方を模索していきたいと思っています。

大岡:実務的な観点ではありますが、Wwise上でのルーティング管理が非常にしやすくなる点が大きなメリットです。一度組み込んでしまえばバス構成自体をシンプルに保てますし、柔軟性もあります。

今後は、TC系とPCN系(Sound xR Coreで選択できるHRTFの種類)でバスを分けたり、負荷軽減のためにTempest 3Dオーディオを併用する構成を作ったりと、より柔軟な空間表現を目指して研究を行いたいです。今回紹介したバス構成は立体音響の雛形としても活用できると思いますので、ぜひ試していただきたいですね。

広瀬:Sound xR Coreは最近Nintendo Switch 2にも対応しました。マルチプラットフォーム対応においては、サウンドデザイナーにとって有力な選択肢になると考えています。

お試しいただく環境としては、Unity向けプラグインがAsset Storeで公開されていますし、UE5やWwiseに向けたプラグインもお問い合わせ頂ければ試用版をご提供可能です。また、「Sound xR Core遺跡探索デモ」というフォトリアルな作品で立体音響を試せるデモコンテンツもご用意しています。ぜひ、一度音を聴いていただきたいです。

「Sound xR Core」製品紹介ページ『METAL GEAR SOLID Δ: SNAKE EATER』公式サイト
神山 大輝

ゲームメーカーズ編集長およびNINE GATES STUDIO代表。ライター/編集者として数多くのWEBメディアに携わり、インタビュー作品メイキング解説、その他技術的な記事を手掛けてきた。ゲーム業界ではコンポーザー/サウンドデザイナーとしても活動中。

ドラクエFFテイルズはもちろん、黄金の太陽やヴァルキリープロファイルなど往年のJ-RPG文化と、その文脈を受け継ぐ作品が好き。

関連記事

『ダレカレ』サウンド制作事例に、青木 征洋氏のインタラクティブミュージック作曲手法を解説。IGDA日本「SIG-Audio」主催セミナーのスライド資料・動画が公開
2025.11.24
Audiostockの音源約50万点が提供。TRPGオンラインセッションツール「ココフォリア」に「サウンドマスタープラン」が新登場
2025.11.07
フリーBGMを手軽に利用許諾申請できる窓口、「フリーBGM協会」が開設。作曲家との委任契約に基づく、法的信頼性の高い許諾が得られる
2025.10.23
【本日発売】ソニーの密閉型モニターヘッドホン「MDR-M1」、国内販売がスタート。重さ約216g、周波数帯域5Hz~80kHz
2025.09.19
無償サウンドミドルウェア「CRI ADX LE」がSwitchをサポート。今年10月から提供開始予定
2025.09.18
立体音響ボイスチャットがゲームデザインの可能性を広げる!CRI ADX&TeleXusをフル活用したボードゲーム風RPG『VIractal(ヴィラクタル)』におけるサウンド演出【CEDEC2025】
2025.08.21 [PR]

注目記事ランキング

2026.01.13 - 2026.01.20
VIEW MORE

連載・特集ピックアップ

イベントカレンダー

VIEW MORE

今日の用語

マージ(Merge)
マージ 何か複数のものをまとめて1つに融合・統合すること。ゲーム開発において、多くの場合、異なる作業者が同一のファイルを編集したのち、ひとつに統合する作業のこと。
VIEW MORE

Xで最新情報をチェック!