・曲を選んだ理由
二ヶ月ぶりの Sinsy カバー作品。今回は、リュック・ベッソン監督の映画「フィフス・エレメント」の劇中歌として使われている「The Diva Dance」をカバーしてみた。
この曲を選んだ理由は、1) 歌唱法が Sinsy に向いていそう、2) 曲の長さが短い、3) ドラムの入ったポップスをやりたい、4) だけどギターの打ち込みは避けたい、5) この曲が好き、6) この映画もわりと好き、などいろいろあるのだが、一番の決め手は、この曲が「人間には歌えないように作られた曲」であることだった。
この曲は劇中では異星人のオペラ歌手によって唄われるという設定で、エイリアンの能力を表現するため、わざと普通の人間には歌えないような音域やメロディで作られているのである。だから、Sinsy のようなボーカル・シンセサイザーに歌わせるにはぴったりの曲だと思ったのだ。
もっとも、そう思ったのは私だけではないらしく、私が検索した範囲でも、 巡音ルカ さんに歌わせた先例があった。
でも多分、初音ミク系のボーカロイドよりは Sinsy の方がこの手の曲に向いていると思うので、先例があってもやってみる価値は十分あると思った次第。両者の違いが気になる人は、聴き比べてみるのも一興だろう。
ボーカル・トラックは、基本的に Sinsy の出力をほとんどそのまま使っているが、途中のグリッサンドで3オクターブ一気に駆け上がるところだけは、 VocalShifter というツールで加工した。音域や技巧の問題ではなく、Sinsy にはグリッサンドの機能がないからである。
・音源はサウンドフォントのみ
Sinsy 以外の音源は、実はすべて サウンドフォント である。ハードウェア音源はもちろん、 VST インスツルメントすら使っていない。だから余計な金はほとんどかかっていない。そのワリには悪くない音だと思いませんか?
サウンドフォントは複数の音色がセットになる仕様なので、既成のものをそのまま使ってもなかなか曲に合った音色構成にはならない。
ところが、サウンドフォントを編集する Viena というフリーウェアがあって、これを利用すれば音色の構成も音色自体のパラメータも自由自在に編集できるのだ。もちろん、そのためには Viena の操作方法やサウンドフォント自体のデータ構造を学ばなければならないが。
・音色を探す方法
この手のダンス・ミュージックは、音色がハマってないと死ぬほどダサくなるので、今回は楽譜の打ち込みよりも音作りに時間をかけた。おそらく全製作時間の2/3以上を音色探し・音色選び・音色加工・ミキシングなどに費やしたと思う。
フリーのサウンドフォントを入手できるサイトはいくつかあるが、最も内容豊富なのは Sf2Midi.com だろう。このサイトは登録が必要であり、また無料会員だとダウンロード速度がかなり遅いなどという欠点もあるが、データ量の豊富さでは他サイトの追随を許さない。しかし、それでも気に入った音色が見つからないときはどうするか。
実は、サウンドフォントというのは一種のサンプラーなので、サンプル波形のデータさえあればどんな音にも音程をつけて鳴らすことができる。そういう意味では万能と言ってよい。
サンプル波形を入手できるサイトも多数あるが、私がお勧めしたいのは Freesound である。このサイトは、基本無料であり、ワンクリックでプレビュー再生ができ、タグ検索もあり、類似音検索もあり、データの多くが クリエイティブ・コモンズ ライセンスであることが明記されているなど、数々の長所がある。
今回の曲では、スネアの音色にぴったり来るものが見つからなくて、最終的にはこのサイトで見つけた「地下室で木の板を落とした音」の波形を加工して使わせてもらった。
だから厳密にはスネアではなくて、「スネア的」に使われている音色にすぎないのだが、スネアの音色から類似音検索でこういう波形が見つかったりするところが、このサイトのよいところだ。
また、パーカッション的に使われている「ガチャ」という感じの音も、このサイトで見つけた「電子レンジの扉を開く音」の波形である。
・打ち込みは MuseScore
楽譜の打ち込みには、 DAW はもちろん、単機能の MIDI シーケンサーもほとんど使っていなくて、基本的に MuseScore という楽譜清書用ソフトウェアだけでやっている。
MuseScore は MusicXML 形式で出力できるので Sinsy と相性がよく、また、サウンドフォントを直接読み込んでその音色で曲を再生したり、wav ファイルに変換したりする機能があるので、サウンドフォントとの相性も抜群で他のツールを介入させる必要がほとんどない。
MuseScore の [作成] メニューから [楽器] を選ぶと、付属するサウンドフォントの楽器名が勝手に表示されるので、それ以外は選べないと思っている人もいるかもしれないが、実はここで選択した各パートの音色は [表示] メニューから [ミキサー] を表示すればいくらでも変更可能だ。また楽器名の表示自体も、楽器名を右クリックしてポップアップメニューから [譜表のプロパティ] を選択すれば変更できる。
この機能を利用して wav ファイルを生成して「はい完成」でもよいのだが、今回はもう少し音作りに凝りたかったので、楽器音色ごとに wav ファイルを生成して、それを Audacity 上でミキシングするという方法をとった。MuseScore にはパート譜を生成する機能があるので、この点でも便利だ。
ただし、MuseScore にもグリッサンドの機能がない(厳密に言うと、グリッサンドを譜面に書き込むこと自体は可能だが、再生には反映されない)ので、イントロの「ウィーン」という音がグリッサンドしながら上昇するところだけは、一度 スタンダード MIDI ファイル に出力してから、 Domino に読み込んでピッチシフトを付け、 TiMidity++ 経由で wav ファイルに変換するというやり方をしている。
MuseScore は、登場したばかりの頃はまったく使い物にならなかった記憶があるのだが、当時とは比べ物にならないほどよくなった。 今でもときどきクラッシュしたりはするけれど。
・「ドラムセット」は使わない
MIDI 音源には音色の一種として「ドラムセット」というものが用意されていることが多い。ドラムセットでは、普通の音色のように音階に対して同じ楽器を割り当てるのではなく、各音階に別々の音色を割り当てる。たとえば、真ん中の「ド」の音がバスドラム、「レ」の音がスネアドラムというふうに。
ドラムは音程のない打楽器の集まりなので音階を指定する必要がないし、ドラムの各楽器に別々のチャンネルを割り当てるとチャンネル数が増えていろいろと煩雑になるので、こういう方法が広まった。ちなみに、ドラムセットは GM (General Midi) でも規格化されている。
MuseScore もドラムセットに対応していて、ドラムセット全体を一つの楽器として記譜できるようになっている。だから、この曲も当初はドラムセットを使って打ち込んでいたのだが、いろいろ試行錯誤を重ねた末、最終的にはドラムセットを使うという発想は完全に捨てた。理由はいろいろある。
まず、ドラムセットを使うと、各楽器の音色を別々に選ぶことが難しくなるということ。各楽器の音色がすべて曲に合っているようなドラムセットが見つかればいいけれど、常に見つかるとは限らない。現にこの曲でも見つからなかった。Viena を使えばドラムセットの楽器の音色を個別に差し替えることも可能ではあるけれど、手間がかかりすぎて、いろんな音色を聞き比べることが難しくなる。
また、ドラムセットを使うと、ミキシングの時に各楽器に別々の処理をすることができなくなる。たとえばこの曲でも、ハイハットを右にリバース・シンバルを左にパンしているし、クラッシュシンバルとスネアブラシにだけコーラスをかけ、リバーブの深さも楽器ごとに微妙に変えて奥行きを表現している。ドラムセットを使うと、こういう処理は一切できなくなる。もちろん後述のように、Audacity 上で各楽器の発音タイミングを微妙にずらすことも困難だ。
ドラムセットは確かに、スケッチやプリプロダクションには便利なのだが、本番の打ち込みには絶対に向かない。そのことを今回つくづく悟った。熟練したクリエイターにとっては多分常識の部類だろうが。
・ミキシングは Audacity
前述の通り、ミキシングは Audacity で行った。この曲は比較的シンプルに聞こえるかもしれないが、実は 25 チャンネルもあって、しかもすべてステレオで録ってるのでトラック数だと 50 トラックにもなる。もちろん、その中には SE を一回だけジャンと鳴らして終わり、というようなトラックもあるが、そういうトラックを除いても 20 チャンネルは優にある。つまりこんな感じだ。
だから、うちの非力な PC で全トラック同時にスムーズに再生できるか、少々心配だったのだが、ほとんど杞憂だった。たまに CPU 負荷が高いときなどに再生が乱れることはあるが、余計な負荷さえなければ再生に支障はない。おそらく、最新の PC だったらこの数倍~数十倍のチャンネル数でも平気だろう。
エフェクタに関しても、Audacity は VST プラグインを読み込めるのでいくらでも拡張可能だ。 相性の問題で動作しないプラグインもある が、困るほど多くはない。VST プラグインは有料・無料含めてネット上に腐るほど転がっている。VST プラグインを探す際に便利なサイトとしては、 KVR Audio を挙げておこう。
Audacity ミキシングの最大の欠点は、エフェクタの結果をリアルタイムで確認できないことだろう。しかし、若い頃に 4 チャンネルのカセット MTR でピンポン録音などしていたときのことを思えば、なんてことはない。それを除けば、伝統的な MTR やミキサーとあまり変わらない使い方ができる。
・Audacity の裏技
今回 Audacity を使っていて、ひとつ裏技的なものを発見した。80~90 年代に MIDI シーケンサーで DTM をやっていた方はご存知だと思うが、MIDI の打ち込みというのは、普通にやってると必ずしも自然なグルーブ感がでない。その大きな理由は、MIDI の場合音のタイミングが音量のピーク位置ではなく先頭で合わされてしまうからである。
MIDI というのは、もともと電子楽器をリモコンで操作するための規格だ。だから、楽器に音を出すことを命令するノートオンというイベントはあるが、そのイベントを送られた楽器が実際にどのような エンベロープ で音を出すかまでは操作できない。エンベロープのアタックの速さは音色によって皆違う。打ち込み音楽はタイミングは正確なのになぜかノリが悪かったりする一つの理由はここにあった。
このようなノリの悪さは、Audacity 上で波形を睨みながらトラック全体を数十ミリ秒単位でまとめてずらしてやれば、比較的簡単に修正できることがわかった。もちろん、音のアタックの速さは、音色だけで決まるわけではなく、音域やベロシティによっても違うから、厳密にはトラック単位でずらしても細かいところでずれが残る可能性がある。しかしそれでも、何もしないよりはマシなことは間違いない。
もちろん、こんな「裏技」は気づいてる人はとっくに気づいているだろうが、もし気づいていない方がいたら、是非一度試してみることをお勧めする。いわゆる打ち込み臭さのようなものを、かなり解消できることがわかるだろう。
・IR リバーブは便利
エフェクタは主にコーラスとリバーブを使用したが、今回生まれて初めて IR リバーブ というものを使ってみた。別名 コンボリューション・リバーブ とかサンプリング・リバーブとも言う。2000 年代になって登場したものらしく、昔はこんなものなかったから使いようがなかった。
理科系の人はコンボリューションという名前からなんとなく想像がつくんじゃないかと思うが、IR というのは Inpulse Response (インパルス応答)の略。つまり、インパルス応答から畳み込み演算によってリバーブを計算するエフェクタらしい。
従来のリバーブは、仮想のモデルからシミュレーションによってリバーブを計算していた。たとえば、5m 四方の部屋のシミュレーション、などという風に。一方 IR リバーブは、現実に存在する部屋のインパルス応答を測定し、それを元にしてリバーブを計算するらしい。
だからアナロジーで言えば、従来のリバーブがシンセサイザーだとすれば、IR リバーブはサンプラーのようなものだと言えるかもしれない。サンプリング・リバーブと呼ばれるのもそのせいだろう。
まだ数は多くないが、フリーの VST プラグインとして公開されている IR リバーブがいくつかある。有名なのは Freeverb と SIR1 だ。SIR1 はエフェクトが遅延するという大きな欠点があるが、仕様がシンプルで使いやすい。Freeverb は高度すぎるのか、私には今ひとつ使いこなせなかった。ひょっとしたら、慣れたら Freeverb の方がよいのかもしれないが、今回は SIR1 を採用。
使ってみた感想は、さすがに現実の部屋の特性を反映したものだけあって、「自然」だということ。だから、いくら深くかけてもあまりイヤミにならない。また、パラメータもそんなに多くないので、そういう意味でもあまり悩まずに気楽に使える。
逆に言うと、特殊効果としてアグレッシブな使い方をするのは難しそうだ。基本的に現実に存在する空間の特性しか表現できないので、良くも悪くも、どこかで聴いたような音にしかならない。馬鹿みたいに広いのになぜかものすごく残響の強い空間とか、そういう SF 的なものを表現するには向いていないのではないか。
(厳密には、 シミュレーション・モデルからインパルス応答を生成するツール もあるし、従来のリバーブそのもののインパルス応答を測定することもできるので、原理的には同じことが可能ではあるが。)
今回の曲では、オペラハウスのような豊かな響きを表現したかったので、ほとんどの楽器にこの IR リバーブをかけてみたのだが、その割にうるさい感じにはなっていないと思う。
・動画はキャラみん
音楽だけでも十分時間をとられるので、動画にはあまり時間をかけたくない。そこで、音声データを入力するだけで自動的に動画を生成してくれるようなツールを探した。
最初は MilkDrop というビジュアライザーの画面をキャプチャして使おうかと思っていた。これは Winamp にも採用されている優秀なビジュアライザーで、描画に DirectX を使うので、複雑な 3D 画像を描画しているわりには CPU 負荷が低い。またプリセットが非常に豊富で、センスのよいプリセットが多く、見てて飽きない。ただ、その映像はリズムに合っているだけで、音楽の内容とはあまり関係がないのが欠点だ。
「 キャラみん 」というのも一種のビジュアライザーなのだが、音楽に合わせて CG キャラクターがダンスを踊ってくれる。また CG キャラクタのモデルとしては、 MikuMikuDance のデータをそのまま使える。MMD の振り付けを自分でやるのは大変そうだが、これなら楽だろう、ということで採用した次第。
実際のキャラクタとしては、 Drumaster 氏製作の z7def式改変MEIKO を使わせていただいた。これを選んだのは、映画の中のミラ・ジョボビッチのイメージに似ていたというだけの理由で、それ以上深い意味はない。
このデータを「キャラみん」に読み込ませて、自動生成した動画をそのまま使った。おかげで、動画製作にはほとんど時間をとられなくて済んだ。ありがたいことです。
・ニコニコ動画のエンコードに苦労
むしろ、意外と手間がかかったのはニコニコ動画用のエンコード設定だった。ニコニコ動画は一般会員の場合最高ビットレート 600kbps という制限があり、またアップロードしたファイルが一定の条件に合っていないと、サーバー側で再エンコードされて情けないほど音質が低下してしまう。
この再エンコード処理を食わないようにしながら、なおかつ、音声データに十分なビットレートを割り当てるには、ファイル形式やエンコード方式を慎重に選択する必要がある。
YouTube はニコニコ動画と違って再エンコードで極端に品質が低下するようなことはなく、また、これまでは静止画しか使っていなかったので、この点をあまり意識したことがなかった。
どうもニコニコ動画自体は、このへんの仕様を積極的に公開していないらしく、設定は有志が勝手に調べてくれた情報だけが頼りだった。もっとも参考になったのは、「 ニコニコ動画まとめ wiki 」であった。感謝したい。
最終的には、コンテナは mp4、ビデオデータは H.264 の 300kbps、音声データは AAC の 288kbps でエンコードした。つまり、全帯域幅の半分近くを音声に割り当てたわけだ。
・金がなくてもここまでできる
年寄りの昔話を繰り返して申し訳ないが、私の若い頃に、これと同じ作業のできる環境を調えようと思ったら、100 万円は余裕で必要だったろう。それが今やほとんどフリーウェアだけでできる。お金がかかるのは、PC 購入料金(それも高価なモデルは必要ない)、インターネット接続料金、電気代ぐらいなものだ。
たぶん経済的な意味でもっとも負担が大きいのは、このどれでもなく、私自身の作業時間の機会費用だと思うが、趣味でそういうことを言うのは野暮だからやめておこう。
もしかすると、今の若い人の中にも、 Cubase や ProTools のような高価なソフトウェアを購入しないと音楽製作はできないと思ってる人もいるかもしれないが、フリーウェアだけでも根気と工夫次第で少なくともこのぐらいはできるのである。だから簡単に諦めないでほしい。
・使用ソフトウェア一覧
この作品に使用したソフトウェアを以下にまとめておく。もちろん、これはたまたま私のやり方や好みに合っていただけで、他にもいろんな組み合わせがあると思う。お金のないクリエイター志望者の参考になれば幸いである。
(おまけ)
「人間には歌えない曲」と言ったが、それでも歌ってみようという人はいるみたいで、中にはかなりいい線を行っている人もいるようだ。
VIDEO
VIDEO