国内外のあらゆるイベントをいち早くレポート! またブランドや製品誕生の秘話に迫るDEEPなインタビューを掲載!
CEDEC(コンピュータ・エンターテインメント・デベロッパーズ・カンファレンス)は、コンピュータエンターテインメントの開発・研究、および関連する業務に関わるすべての方が対象で、例年ゲーム業界関係者が9,000名以上参加するイベント。
ペンタブレットで効果音作成!?tsugiのリリースするGAME SYNTH
絵を描けば音を作れることを、一度想像したことありますか?こちらのGameSynth。Game Synthを使えば、その想像が現実に変わります!今回のCEDECでアピールされていたのが、BtoBでのソフトウェア開発を行ってきたtsugiからリリースされているAudio Middleware、革新的な機能を搭載しています。
GameSynthは、様々なサウンドモデルを複数搭載した、拡張性の高いモジュール形式のツールになっています。一般的なライブラリをもととしたシンセとは違い、サンプルベースではなくプロシージャルオーディオ技術によって音を生成していきます。つまり、特殊なアルゴリズムによって、無限大な可能性に広げることが期待できます!
パッと見ると、UIが非常に特徴的で、ノブがほぼなく、絵を描くスペースが画面の中心に大きく広がっています。ふつうにマウスで描くことはもちろん、WACOM社のペンタブで絵を描くことも可能!X軸・Y軸・プレッシャーの三つの数値に、それぞれVelocityやPan、Cut Offなど異なるパラメータをアサインすれば、自由にサウンドデザインがすることが可能。つまり、ペンひとつで、MIDIコントローラーのフェダーとパンニングとカットオフを同時にコントロールすることができます!
音の種類もたくさんあり、風切り音や天候音など、計8種類のモジュールが選択可能。その中に、VOICE FXは高い柔軟性をもち、多種のエフェクターが用意された上、そのエフェクターのパラメーターを、ペンで自由自在に表せます。
そのほかに、パラメータの数値の範囲と生成される効果音の個数を設定すれば、音のバリエーションを自動で作成できます。
新しいサウンドを探しているあなた、GameSynthを挑戦してみませんか?
サウンドから口パクを自動生成!CRIミドルウェア「ADX LipSync」
Vtuberのみなさん、マイク一本で、キャラクターがリアルタイムで口パクする動画を配信したいと思いませんか?
CRI社が開発した「ADX LipSync」があれば、音声データをリアルタイムで解析し、ナチュラルな口パクデータが作成されます。もちろん、音声データをオフラインで処理することも可能。しかも、老若男女どんな声でも解析できるそうです!
それだけではなく、このアルゴリズムは言語に依存しないため、日本語のほか、英語・中国語などの音声データも解析できます。
残念ながら、現時点で動画配信用の単体ソフトはまだ発売されていませんが、将来的にこの「ADX LipSync」の技術を応用したVtuber向けのソフトウェアが十分期待できます。
LipのMotionデータを元にセリフをトリガーするということはGeme Engineですので想像できますが、それを逆向きに使うという柔軟な発想に驚かされますね。ベースとなる技術の蓄積があるので、高い効果が期待できます。
”驚異”の柔軟性!DirectOut Technologies “PRODIGY.MC”
TAC SYSTEMのブースにはDirectOut Technologies期待の新製品PRODIGY.MCが展示されていました。MC=Modular Converterを意味し、その名の通りモジュラー化されたI/Oを組み合わせ、用途に最適化されたコンバーターを1台で実現します。
たとえば少し複雑な音響システムを考えていて、
「1台だと、微妙にチャンネル数が足りない!」「かといって2台だとチャンネル数が余ってもったいない!」「DanteとSoundGridとAES,MADIまである。。。」
といった状況になってしまった時にぴったりの、まさに痒い所に手が届く製品となっています。
2Uサイズの本体ラックの背面に、
・アナログI/O×8
・MADI I/O×3
・ネットワークオーディオ(RJ45)×1
のスロットがあり、これらを自由に組み合せて使える柔軟性が魅力的です。
Dante、RAVENNA、SoundGridというネットワークオーディオの代表的な3規格に一機種で対応できるのは現時点でPRODIGY.MCだけではないでしょうか!
当初の発売予定より5ヶ月ほど延期しましたが、すでに2019年7月より出荷が始まっています。
来春発売予定のラインナップとして、「MP(マルチチャンネルプロセッサー)」「MX(マトリックス)」も現在絶賛開発中であり、今後もPRODIGYシリーズから目が離せません!
音空間レンダリングで音場を”計算で”再現!? 同志社大学の研究
インタラクティブセッションのコーナーでは、同志社大学大学院情報工学専攻の学生さんによるVR音響のデモが行われていました。
人間の頭部を模したダミーヘッドを用いて音を立体的に録音するバイノーラル録音の技術はすでにご存知の方も多いと思いますが、
この研究は、CE-FDTD(時間領域差分)法と呼ばれる3次元音場計算の手法を用いて、仮想的にバイノーラル録音を行おうという試みです。
私も実際に室内デモモデルを体験させていただきました。デモでは、コの字状の部屋の隅っこにスピーカーが配置されており、聴取ポイントを切り替えてどのように聞こえるかを体験しました。感想としては、壁からの反響音はもちろんのこと、コの字の部分を回析する音、壁を隔てた向こう側から聞こえてくる音までリアルに再現されていて、まさにその部屋の中にいるかのような没入感が得られました。
この研究が進めば、VRの立体音響を制作する際、実際にバイノーラル録音を行わなくても、後からPC上で再現できるので、立体音響制作をより手軽に行えるようになりそうですね。今後のさらなる進展に期待です!
インタラクティブなゲームサウンドを支えるミドルウェア、Audiokinetic Wwise
Audiokineticのブースにはゲーム開発向けサウンドミドルウェア、Wwise(ワイズ)のデモが行われていました。WwiseはUnityやUnreal Engineといったゲームエンジンと連携をしてハイクオリティーなサウンド再現を実現するプラットフォーム=Middlewareです。
ゲームディベロッパーの方々にはすでにお馴染みの定番ソフトですが、オーディオの仕事のみに携わってる方には知らない方も多いのではないでしょうか。わかりやすく簡単に言うならば、ゲームエンジンによってトリガーされるサンプラーといったところでしょうか。ゲーム内で生じる様々なトリガー=出来事に対して発音をするそこで、距離や、どこで(空間)などにより、エフェクトのパラメータを変化させて鳴らすといったことを行います。
普段音楽制作に使うDAWとの最大の違いは、ずばり「インタラクティブかどうか」。
一般的な音楽の場合、時間軸に沿って楽曲の展開が一意に組み立てられますが、ゲームサウンドの場合、プレイヤーの操作に応じて楽曲の内容が変化するように作られていたりします。つまり、プレイヤーが音楽から情報を受け取るだけでなく、音楽がこちらの操作情報を受け取ってそれに対応するという双方向性(インタラクティブ)があるわけですね。
これによって、「例えばプレイヤーのいる場所に応じてゲーム内サウンドの残響感が変化する」「ゲームの盛り上がりに応じて楽曲が展開していく」といった、コンテンツへの没入感をより高める効果が生み出されています。実は、基調講演の中でも紹介されていた「TETRIS EFFECT」のサウンドもこのWwiseが使用されており、そのノウハウがエンハンス武藤氏によるプレゼンされていました。
思い通りに効果音をコントロール、KROTOSプラグイン実践講座
メディア・インテグレーションのブースにて、革新的な技術を開発するKROTOSのDAW用プラグインを使った、思い通りに効果音をコントロールするセミナーが開催されました。KROTOSの代表Orfeas Boteas氏が来日して独自の技術を解説、9/4(水)の本編ではフォーリーをイメージ通りにDAW上で作り上げるReformerと銃器のサウンドに特化したWeaponiserを、9/5(木)の本編では人の声をモンスター・ボイスに変えるDehumaniserとエンジン音に特化したIgniterを使い、思い通りに、しかも素早く、効果音を作り上げるワークフローを実演しました。
(株)ビー・ブルーより 染谷 和孝 氏 と 斉藤 元 氏を講師に迎え、具体的なサウンド作りを実演!
KROTOSを使いこなす講師の実践的なソフトの使用方法と効果音の作成法、特に 「15年後のフェラーリのエンジン音を創る」 という実演が参加者の興味を誘い会場は盛り上がりました! KROTOSの製品は、もはや映画やゲームに必須の即戦力ツールなのではないでしょうか。
記事内に掲載されている価格は 2019年9月6日 時点での価格となります。
最新記事ピックアップ