MIDIでデータを打ち込むとき、楽譜どおりのタイミングで入力されただけでは、どうしても機械っぽい演奏になることは避けられません。これをいかに音楽的にしていくかを考えることは、私たちが音楽的だと思う音楽とはいったいどのように演奏されるのか、を考えることに他なりません。
例えば、8ビートのリズムでハイハットが「チッチッ・・・」と1小節あたり8回刻んでいるとします。全ての音を同じ音量で打ち込むと、もうまさに機械的なノリになってしまうわけです。このとき各音のヴェロシティ値を「強弱中弱強弱中弱」という感じでばらけさせてみます。すると、かなり人が演奏した雰囲気が出てきます。
楽譜どおりのタイミングで打ち込んでも、音量制御をするだけでかなり音楽的にはなってくるのですが、クラシックのようなアゴーギグの激しい音楽の場合、やはりタイミングもずらしてあげないと不自然な感じにはなってしまいます。
以前も書いたような6/8拍子のリズム感の例もありますし、メロディパートならかなり大胆な制御をしてあげた方がよいでしょう。
いっぽう、アマチュア演奏家にとって最も切実な音楽的スキルは楽譜どおりに演奏するということです。
特にテンポが速くて音符が多いようなパッセージでは、メトロノームを使うなどして、何度も何度も練習します。(合唱の人も、こういう努力が必要だと常々思うのですが・・・)
演奏レベルがそれほど高くない人は、テンポ感も一定ではないし、そもそも楽譜どおりの音を出すことにも難儀します。レベルの差の程度はあれ、実際には世の多くの演奏愛好家は、いかに楽譜どおりに弾けるか、ということが大きな関心事だと想像します。
音楽的な演奏というものを考えるときに、MIDI打ち込み時のアプローチと、自分が演奏するときのアプローチはいわば、全く別方向のベクトルを持っていると私は思うのです。
そういう意味で、この両方を体験することは、音楽の真実を極めようとする人にとって非常に有用ではないでしょうか。
実際のところ、音楽的な演奏を研究するためにMIDIの打ち込みをやっている人というのは聞いたことはありませんが、仕事柄、ものすごく凝りに凝ったMIDIデータを見ることもあり、その中身を見ると、音量、タイミングだけでなく、ピッチベンドによるピッチのブレの表現なども入っていて、びっくりすることもあります。一般的には、仕事でもなくそんなデータを作ること自体、オタクな世界の話で、健全な音楽活動とは思われないフシはありますが、それでもこういう作業は決して無意味なことではないと思うのです。
音楽の世界ではどうしても曖昧で主観的な評価がまかり通ってしまいます。
これはこれで仕方のないことではありますが、どこか心の片隅で、音楽の良さを客観的に評価したい、という気持ちも存在します。そのためには、人間らしい演奏のブレとは何なのか、そういうことを学術的に扱うようなことがもっとあってもいいような気もしますが、それは音楽の神秘性を剥ぎ取るような行為にもつながり、演奏家、評論家にとってはそれほど嬉しいことでもないのかもしれません。
2004年3月28日日曜日
2004年3月22日月曜日
「白い巨塔」の人間模様
全部というわけではないけど、結構見てました。フジテレビでやっていた「白い巨塔」。
最初はなんだか、それぞれのキャラがステレオタイプな人物像のように感じていたけど、だんだんとリアルな感じに思えてきて、なかなか楽しめたテレビドラマだったと思います。
際立ったキャラと言えば、やはり主人公の財前五郎(唐沢寿明)。
出世をすること、そして権力を得ることこそ自らの生きる目標だと考え、その目的のために一途に行動する極めて上昇志向の高い人間。いまどき、こんな見え透いた行動を取る人っているか、と私には感じられるのだけど、もちろんテレビだから極端にするというのはあるけど、意外といるのかもという気もしてきました。
私はメーカーの技術屋さんですが、こういう職場には、あまり財前的な人間はいないのでしょう。しかし、実際に世の中に起きている事件とか見ると、そんな世界もあるのかなあ、という気になってきます。
もちろん、社会の中で生きている以上、なんらかの上昇志向的な気持ちは必要だとは思うわけですが、その気持ちが過剰になると、他人を蹴落としたり、お金で買収したり、手下をコマのように扱い、上におもねるような態度を取ったりするようになる。そういう行動が、典型的に描かれていて、こりゃ誰が見ても嫌われる奴だよなあ、と私には思えるのですが、そうでもないのでしょうかね。
その対極が、財前の友人である里見脩二(江口洋介)。
これもまた極端です。自分の所属する組織に背いてまで、正しい事を曲げようとしない正義の象徴のような人物。これなどは、会社で行われている不正行為などを、自分が見て見ぬふりをできるのか、そういう問題提起を私たちに対して与えているのかもしれません。
しかし、そのために自分の社会的地位が危うくなるのなら、普通は組織に背きませんよね。特に日本的な社会なら。
もっとも今なら、匿名で内部告発というのもアリなので、昔に比べれば多少は精神衛生上良くなっているのかもしれませんが、なかなか職場の人間を敵に回すような行為はそう簡単にはできないでしょう。
このある意味、極端な二人が、なぜか学生時代からの親友で、反発しあいながらも、結局お互いが一番気になる存在だというこの設定、なんとなく女性の視点が感じられます。
女性作家って、結構、男の友情みたいのが好きだったりして。確かに、原作は山崎豊子、脚本も井上由美子と女性ですね。(ちなみに、井上由美子って「北条時宗」の脚本も担当)
それからもう一つ、このドラマの面白さは、やはり癌の専門家である外科医が、最後に癌で死ぬ、その因果というか、誰もが死ぬ間際の財前の気持ちを考えたくなる、そういう部分にあるのかなあ、と私には思えました。
最初はなんだか、それぞれのキャラがステレオタイプな人物像のように感じていたけど、だんだんとリアルな感じに思えてきて、なかなか楽しめたテレビドラマだったと思います。
際立ったキャラと言えば、やはり主人公の財前五郎(唐沢寿明)。
出世をすること、そして権力を得ることこそ自らの生きる目標だと考え、その目的のために一途に行動する極めて上昇志向の高い人間。いまどき、こんな見え透いた行動を取る人っているか、と私には感じられるのだけど、もちろんテレビだから極端にするというのはあるけど、意外といるのかもという気もしてきました。
私はメーカーの技術屋さんですが、こういう職場には、あまり財前的な人間はいないのでしょう。しかし、実際に世の中に起きている事件とか見ると、そんな世界もあるのかなあ、という気になってきます。
もちろん、社会の中で生きている以上、なんらかの上昇志向的な気持ちは必要だとは思うわけですが、その気持ちが過剰になると、他人を蹴落としたり、お金で買収したり、手下をコマのように扱い、上におもねるような態度を取ったりするようになる。そういう行動が、典型的に描かれていて、こりゃ誰が見ても嫌われる奴だよなあ、と私には思えるのですが、そうでもないのでしょうかね。
その対極が、財前の友人である里見脩二(江口洋介)。
これもまた極端です。自分の所属する組織に背いてまで、正しい事を曲げようとしない正義の象徴のような人物。これなどは、会社で行われている不正行為などを、自分が見て見ぬふりをできるのか、そういう問題提起を私たちに対して与えているのかもしれません。
しかし、そのために自分の社会的地位が危うくなるのなら、普通は組織に背きませんよね。特に日本的な社会なら。
もっとも今なら、匿名で内部告発というのもアリなので、昔に比べれば多少は精神衛生上良くなっているのかもしれませんが、なかなか職場の人間を敵に回すような行為はそう簡単にはできないでしょう。
このある意味、極端な二人が、なぜか学生時代からの親友で、反発しあいながらも、結局お互いが一番気になる存在だというこの設定、なんとなく女性の視点が感じられます。
女性作家って、結構、男の友情みたいのが好きだったりして。確かに、原作は山崎豊子、脚本も井上由美子と女性ですね。(ちなみに、井上由美子って「北条時宗」の脚本も担当)
それからもう一つ、このドラマの面白さは、やはり癌の専門家である外科医が、最後に癌で死ぬ、その因果というか、誰もが死ぬ間際の財前の気持ちを考えたくなる、そういう部分にあるのかなあ、と私には思えました。
2004年3月14日日曜日
MIDIを使う -コンピュータは合唱団になれるか-
映画の世界ではCG(コンピュータグラフィックス)がもう一般的になり、SFなどで実写ではあり得ないような映像を作ることが出来るようになりました。ここ10年くらいのCGの進歩は凄まじく、今では素人ではわからないほど、実写のクオリティに近づいているような気がします。俳優はブルーバックのスクリーンの前で演技をするだけ。あとはCGの映像と合体させれば、その場面は完成です。まさに映画作りそのものがバーチャルで完結できるシステムです。
音楽の場合、これまでも言ったようにMIDIのおかげで、早くから人が演奏しなくても音楽が作れる環境が出来ていました。
それに加え、最近はハードディスク内に波形を溜め込んでおき、そこから直接音を出せるようになりました。そのおかげで、大量に波形をコンピュータ内にストックすることが出来るようになり、リアルにサンプリングした音源を使えば、生と違いがわからないくらいのクオリティの音楽製作は可能になっています。
一番難しいと思われるオーケストラサウンドでさえ、各楽器のいろいろな音域、奏法、強弱ごとのサンプリングをしたデータが販売されており(かなり高額なもので素人には手が届きませんが)、これを使えば本物のオーケストラと区別がつかないほどのサウンドを作り出すことが出来ます。実際のところ、最近は映画音楽などでも、本物のオーケストラを使ってないケースも増えているのではないでしょうか。
音楽において、バーチャル化が適用できなかった最後の砦が人間の声です。こればかりは人を集めて、歌わせるしか方法がありませんでした。
ところが、ついに人間の声についても、かなりのクオリティで自動に作れるようになってきています。既にご存知のかたもいるかもしれませんが、ヤマハが発表したVOCALOID(ボーカロイド)がその技術を利用した製品です。
上のページで直接、内容を見てもらえば良いのですが、簡単に内容を紹介すると、MIDIのような楽音情報に加え歌詞情報を与えることによって、実際に歌っている声を自動生成するというソフトなのです。
ここで出てくる声は、歌声ライブラリというデータベースによって変えることが出来ます。この歌声ライブラリとは、例えばある歌手にいくつかのフレーズを歌ってもらって、その中の子音、母音、歌い口などの情報を切り取りデータベース化したものです。ボーカロイドはこのデータベースを元に、音程と歌詞情報から全く別の歌を生成していきます。
ちなみに、これはヤマハの製品として世の中に出されるわけではありません。上で言ったデータベースを作ってくれる他社にライセンスを供与する形になります。従って、実製品はそれぞれの歌声ライブラリを作るメーカから出されることになります。
私も仕事柄、何度か実際の音を聞いたことがあります。(上記のページでもサンプル音を聞くことが出来ます)
もちろん、本物の歌声と区別がつかないほど完璧というわけではありません。特定子音が奇妙に聞こえたり、シラブルの繋がりがおかしかったり、やはり時々電子的な音に聞こえたりします。しかし、従来の電子的に合成された声のような、一本調子な感じとか、奇妙な電子的な感じではありません。うまくピンポイントで使えば、何気なしに音楽を聞いたならコンピュータで合成された音とは気が付かないレベルまで達していると思います。
これを何に使うかは、むしろアーティスト次第です。ボーカルはアーティストらしさの最も基本的な部分ですから、メインボーカルを差し替えるようなことはまれだと思いますが、例えば、実際の音楽製作の現場で、バックコーラスを雇うよりボーカロイドの品質で十分と判断できれば、こちらのほうが制作費が安く上がります。恐らく、そういった現実的なシチュエーションで使われることが多いと思います。
もちろん、この声自体をフューチャーした現代音楽的、実験音楽的な利用もあるでしょう。
まだ歌声ライブラリの数は少ないですが、音楽製作のコストダウンのために使われるのなら、合唱団の歌声ライブラリもいずれ作られると思います。そうなると、パソコン上で、実際に歌ってくれる合唱の打ち込みも可能になります。
実際、合唱の音源って、選曲のための参考資料に使いたい場合がほとんどで、ある程度曲の雰囲気が分かればいいのならボーカロイドで作っちゃえばいいじゃない、という選択肢も十分ありえます。
さて、誰かこの商売してみませんか?(選曲資料用邦人合唱曲シリーズとか^^;)
音楽の場合、これまでも言ったようにMIDIのおかげで、早くから人が演奏しなくても音楽が作れる環境が出来ていました。
それに加え、最近はハードディスク内に波形を溜め込んでおき、そこから直接音を出せるようになりました。そのおかげで、大量に波形をコンピュータ内にストックすることが出来るようになり、リアルにサンプリングした音源を使えば、生と違いがわからないくらいのクオリティの音楽製作は可能になっています。
一番難しいと思われるオーケストラサウンドでさえ、各楽器のいろいろな音域、奏法、強弱ごとのサンプリングをしたデータが販売されており(かなり高額なもので素人には手が届きませんが)、これを使えば本物のオーケストラと区別がつかないほどのサウンドを作り出すことが出来ます。実際のところ、最近は映画音楽などでも、本物のオーケストラを使ってないケースも増えているのではないでしょうか。
音楽において、バーチャル化が適用できなかった最後の砦が人間の声です。こればかりは人を集めて、歌わせるしか方法がありませんでした。
ところが、ついに人間の声についても、かなりのクオリティで自動に作れるようになってきています。既にご存知のかたもいるかもしれませんが、ヤマハが発表したVOCALOID(ボーカロイド)がその技術を利用した製品です。
上のページで直接、内容を見てもらえば良いのですが、簡単に内容を紹介すると、MIDIのような楽音情報に加え歌詞情報を与えることによって、実際に歌っている声を自動生成するというソフトなのです。
ここで出てくる声は、歌声ライブラリというデータベースによって変えることが出来ます。この歌声ライブラリとは、例えばある歌手にいくつかのフレーズを歌ってもらって、その中の子音、母音、歌い口などの情報を切り取りデータベース化したものです。ボーカロイドはこのデータベースを元に、音程と歌詞情報から全く別の歌を生成していきます。
ちなみに、これはヤマハの製品として世の中に出されるわけではありません。上で言ったデータベースを作ってくれる他社にライセンスを供与する形になります。従って、実製品はそれぞれの歌声ライブラリを作るメーカから出されることになります。
私も仕事柄、何度か実際の音を聞いたことがあります。(上記のページでもサンプル音を聞くことが出来ます)
もちろん、本物の歌声と区別がつかないほど完璧というわけではありません。特定子音が奇妙に聞こえたり、シラブルの繋がりがおかしかったり、やはり時々電子的な音に聞こえたりします。しかし、従来の電子的に合成された声のような、一本調子な感じとか、奇妙な電子的な感じではありません。うまくピンポイントで使えば、何気なしに音楽を聞いたならコンピュータで合成された音とは気が付かないレベルまで達していると思います。
これを何に使うかは、むしろアーティスト次第です。ボーカルはアーティストらしさの最も基本的な部分ですから、メインボーカルを差し替えるようなことはまれだと思いますが、例えば、実際の音楽製作の現場で、バックコーラスを雇うよりボーカロイドの品質で十分と判断できれば、こちらのほうが制作費が安く上がります。恐らく、そういった現実的なシチュエーションで使われることが多いと思います。
もちろん、この声自体をフューチャーした現代音楽的、実験音楽的な利用もあるでしょう。
まだ歌声ライブラリの数は少ないですが、音楽製作のコストダウンのために使われるのなら、合唱団の歌声ライブラリもいずれ作られると思います。そうなると、パソコン上で、実際に歌ってくれる合唱の打ち込みも可能になります。
実際、合唱の音源って、選曲のための参考資料に使いたい場合がほとんどで、ある程度曲の雰囲気が分かればいいのならボーカロイドで作っちゃえばいいじゃない、という選択肢も十分ありえます。
さて、誰かこの商売してみませんか?(選曲資料用邦人合唱曲シリーズとか^^;)
2004年3月7日日曜日
MIDIを使う -フランジング問題-
MIDIで打ち込みをするときの具体的なテクニックについて、ちょっと書いてみます。
興味のない人は多いとは思うけど、私は音楽活動を続けるならMIDIを知っていると結構便利だと思っています。これは単に日ごろの音楽活動の中でMIDIを活用するということだけでなく、打ち込みをやっていると、漠然と感じていた音楽性の良し悪しに、数値的な指標を感じることが出来るようになるのです。これって、理系的に音楽を解析したいと思う人にとって、なかなか興味深い経験だと思うのです。
例えば、6/8拍子の曲を楽譜どおりにベタ打ちしたとします。まずは音楽性も何もないつまらない音の羅列です。
次に、1拍目と4拍目の音を少しだけ大きくします(ヴェロシティ値を上げる)。そうすると、少し6/8拍子のリズム感が出てきます。さらに、このリズム感を極めようとするなら、1拍目、4拍目の音符を少し長めに(後ろにだけでなく、少し前のめり気味にも)設定します。もちろん、その分、他の音符は縮まります。
これ、真面目にやるとかなり気が遠くなるような作業ですが、ここまでやればMIDIの表現力は格段にあがるでしょう。ここで得た教訓は、実際の演奏の場で実践することにより自分自身の音楽性も高まるかもしれません。
MIDIで音楽性を高める話題はきりがありません。
また、思いついたときにでも書きますが、今回はフランジング問題について紹介しましょう。
MIDIで打ち込みした人なら経験あるのが、このフランジング問題。
例えば、合唱の打ち込みで、ソプラノとアルトがユニゾンである場合、ソプラノで打ち込んだデータをアルトにコピーすれば、簡単にデータ作成ができます。このとき、ソプラノとアルトを別音色で設定してあれば問題ないのですが、MIDI上で全く同音色に設定すると、ユニゾンで分厚くなるはずの音が、なぜかシュワシュワしたり、パワー感のないふ抜けた音になってしまうのです。
全く同じ音が同時に出るのなら、音量も2倍になって良いはずです。普通はそう思うのですが、ここに電子音ならではの悲しい宿命があるわけです。
原因は二つあります。一つは、シーケンサのデータ上で同時に発音するように設定されていても、実際には同時に発音していないという問題。ソプラノパートの発音情報と、アルトパートの発音情報は、音源に別々に送られてきます。現在のMIDIの転送レートでも 1msec 程度の遅れがあるし、また音源の発音処理スピードによっては、もう少し発音時間に差が出ます。
もう一つの原因は、同じ音色だと、電子楽器なら全く同じ波形を出すという当たり前の事実があります。
これら二つの原因を合わせると、全く同じ波形を少しだけずれたタイミングで発音することになるわけで、このとき特定周波数帯域で波形の干渉が起こってしまうのです。なぜ起こるかは、まあここでは置いておきますが、これは電子楽器ならではの問題と言えるでしょう。
この問題に対する決定的かつ簡単な方法はありません。上の6/8拍子の例のように、涙ぐましい努力で、このフランジングを少しずつ取り除くしか手がないのです。
どのようにして取るかというと、微妙な発音の遅れはどうしようもないので、音色を少し変えたり、ユニゾンであっても、微妙に発音タイミングを変えたりして、データをばらけさせるという地道な作業を行うのです。単純にばらけさせただけでは、フランジングの度合いがしょっちゅう変わるだけで本質的には変わりません(ただし、かなりずらしても音楽的に問題なければ、これも効果的です)。これにプラスして、フィルターで音色の度合いを変えたり、ピッチを微妙に変えてあげたりします。
私の場合、昔はそこまで気合を入れたりしてましたが、最近は面倒で、例えばアルトパートにはコピーせず、ソプラノの音量を少しだけ大きくするなどしてました。ただ、こうすると楽譜情報とMIDIデータが同一でなくなり、例えば、音取りテープの作成などでは逆に不便になってしまいます。
最近は、フランジングももうどうでもいいや、というちょっと投げやりな感じになってきました。(^^;
ちなみに、ものすごい単純で、かなり効果のある方法が一つだけあります。全部、リアルタイムで手弾きで録音するのです。これなら、データは不揃いになるのでかなりフランジングは防げますが、弾けるくらいなら打ち込みなんかしない、という突っ込みはあるかもしれません。
この問題って、意外とメーカー側が本腰で対応しているとは思えないのです。
音源側で対策するのは難しいとしても、シーケンサーの機能で、フランジング対策用の機能とかあればいいのに、とか思ってしまいます。
興味のない人は多いとは思うけど、私は音楽活動を続けるならMIDIを知っていると結構便利だと思っています。これは単に日ごろの音楽活動の中でMIDIを活用するということだけでなく、打ち込みをやっていると、漠然と感じていた音楽性の良し悪しに、数値的な指標を感じることが出来るようになるのです。これって、理系的に音楽を解析したいと思う人にとって、なかなか興味深い経験だと思うのです。
例えば、6/8拍子の曲を楽譜どおりにベタ打ちしたとします。まずは音楽性も何もないつまらない音の羅列です。
次に、1拍目と4拍目の音を少しだけ大きくします(ヴェロシティ値を上げる)。そうすると、少し6/8拍子のリズム感が出てきます。さらに、このリズム感を極めようとするなら、1拍目、4拍目の音符を少し長めに(後ろにだけでなく、少し前のめり気味にも)設定します。もちろん、その分、他の音符は縮まります。
これ、真面目にやるとかなり気が遠くなるような作業ですが、ここまでやればMIDIの表現力は格段にあがるでしょう。ここで得た教訓は、実際の演奏の場で実践することにより自分自身の音楽性も高まるかもしれません。
MIDIで音楽性を高める話題はきりがありません。
また、思いついたときにでも書きますが、今回はフランジング問題について紹介しましょう。
MIDIで打ち込みした人なら経験あるのが、このフランジング問題。
例えば、合唱の打ち込みで、ソプラノとアルトがユニゾンである場合、ソプラノで打ち込んだデータをアルトにコピーすれば、簡単にデータ作成ができます。このとき、ソプラノとアルトを別音色で設定してあれば問題ないのですが、MIDI上で全く同音色に設定すると、ユニゾンで分厚くなるはずの音が、なぜかシュワシュワしたり、パワー感のないふ抜けた音になってしまうのです。
全く同じ音が同時に出るのなら、音量も2倍になって良いはずです。普通はそう思うのですが、ここに電子音ならではの悲しい宿命があるわけです。
原因は二つあります。一つは、シーケンサのデータ上で同時に発音するように設定されていても、実際には同時に発音していないという問題。ソプラノパートの発音情報と、アルトパートの発音情報は、音源に別々に送られてきます。現在のMIDIの転送レートでも 1msec 程度の遅れがあるし、また音源の発音処理スピードによっては、もう少し発音時間に差が出ます。
もう一つの原因は、同じ音色だと、電子楽器なら全く同じ波形を出すという当たり前の事実があります。
これら二つの原因を合わせると、全く同じ波形を少しだけずれたタイミングで発音することになるわけで、このとき特定周波数帯域で波形の干渉が起こってしまうのです。なぜ起こるかは、まあここでは置いておきますが、これは電子楽器ならではの問題と言えるでしょう。
この問題に対する決定的かつ簡単な方法はありません。上の6/8拍子の例のように、涙ぐましい努力で、このフランジングを少しずつ取り除くしか手がないのです。
どのようにして取るかというと、微妙な発音の遅れはどうしようもないので、音色を少し変えたり、ユニゾンであっても、微妙に発音タイミングを変えたりして、データをばらけさせるという地道な作業を行うのです。単純にばらけさせただけでは、フランジングの度合いがしょっちゅう変わるだけで本質的には変わりません(ただし、かなりずらしても音楽的に問題なければ、これも効果的です)。これにプラスして、フィルターで音色の度合いを変えたり、ピッチを微妙に変えてあげたりします。
私の場合、昔はそこまで気合を入れたりしてましたが、最近は面倒で、例えばアルトパートにはコピーせず、ソプラノの音量を少しだけ大きくするなどしてました。ただ、こうすると楽譜情報とMIDIデータが同一でなくなり、例えば、音取りテープの作成などでは逆に不便になってしまいます。
最近は、フランジングももうどうでもいいや、というちょっと投げやりな感じになってきました。(^^;
ちなみに、ものすごい単純で、かなり効果のある方法が一つだけあります。全部、リアルタイムで手弾きで録音するのです。これなら、データは不揃いになるのでかなりフランジングは防げますが、弾けるくらいなら打ち込みなんかしない、という突っ込みはあるかもしれません。
この問題って、意外とメーカー側が本腰で対応しているとは思えないのです。
音源側で対策するのは難しいとしても、シーケンサーの機能で、フランジング対策用の機能とかあればいいのに、とか思ってしまいます。
登録:
投稿 (Atom)