GARAKUTA-DUKUME

k-yuta.com

*

音に関して

      2016/06/08

音楽を構成するものはもちろん音であるので、それに関しては色々と思うところが色々とあるわけです。音以外のもので構成される音楽があるのかという屁理屈はまたの機会があれば。というか音については以前にも書いたのだけれど、消してしまったので再度。最低限のことしか書かないし詳しいことは詳しく書いてる人がいくらでもいるので気になったら調べて欲しい。

【注意】基本的には考えながら書いていくので内容は大して、というか全くまとまっていないものになるだろうことは予め言っておくので忙しい人はWikipediaとかを見たほうがいいと思う。暇な人は考えながら読んでいただいて、遠慮せず「いや、○○はどうなの?」「それはどうかと思う」とかコメントでもTwitterででもツッコミを入れてくれれば嬉しい限りです。

音とは何か

人間が認識する音というのは、まず音を発する物体が振動し、その振動が媒質を伝わって耳へと至り鼓膜を揺らし、聴覚神経が電気信号へと変換して脳に到達する。媒質とか言う言葉を使ったけれど大抵の場合は空気と捉えてもらって構わない。(水中にいたりすれば媒質は空気ではなくて水になる。)脳に到達したとして、意識が認識するかどうかという部分もある。

発音体の振動

媒質(空気など)による伝播

感覚器(耳)による知覚

脳による処理・認識

生の楽器であったり自然界で発生する音であれば耳に入るまでに、風速とか媒質の密度とかあとは反射音なんかに影響を受ける。ヘッドフォンとかイヤフォンというのも耳のすぐそこにスピーカーが合って小さく振動して振動を生み出しているので前述の影響は受けづらい。骨振動なんていうのが一時期出てきてすぐいなくなった気がするけどあれは媒質が人体の骨になったと思えばいいんじゃないか。いずれにしろ、ただ「聞く」という行為においてはその経路について考える必要はあまりない。(「聞く」という点においてオーディオ環境を整えようとする人は発音体までの経路を考える必要がある。)「音を作る」側になるとその経路やその周囲の知識について無いよりはあったほうがいいだろう。マイクを立てて録音する時、ミックスをする時、アレンジをするにあたって音響を考える時、なんかに役に立つ。

波形による表示

媒質、つまりは空気や水というのは無数の細かい粒子でなっていて、そこを音が伝わるときには粒子の密度が変化する。その密度変化を振動と言っているわけだけれども、それをグラフ化したものがよく見る音の波形だ。縦が振幅(振動の大きさ)で、音の大きさを表している。横が時間軸になっていて、細かい波ほど周波数の高い音・横に広がった波ほど周波数の低い音。

周波数は一定時間当たりの振動の回数で、1秒あたりの振動の回数をHzで表している。音叉の音にあるようなA=440Hzの音は、1秒に440回の振動をしている。人間の可聴領域(耳で聞き取れる音の範囲)は個人差はあるもののおよそ20-20000Hzと言われている。音の大きさはdBで表され、その数値の増減と聴覚上の音量の増減は指数的に関係しているのだけど正確な値は忘れたし数字で気にすることも殆ど無いと思う。

マイクはその中に、音によって振動する板があってその振動が電磁気とかコンデンサの原理によって電気信号の波形に変換されて録音機まで伝達され、録音機の録音形式に応じた形に変換されて記録される。子供の頃、レコードの仕組みを知らなかったのだけれども、ある日レコードは波形をそのまま彫り込んであるということを知って頭おかしいと思ったしそりゃ高域の音は削られちゃうよなって思いました。DAWによって録音するのであれば、オーディオインターフェースが電気信号をデジタルなデータに変換してくれてPCにそのデータを渡して記録される。

音量・音高・音色

いわゆる音の三要素。

音量は前述の振幅で表され、波形の縦の広がりで直感的に見ることができる。録音の際に振幅がマイクやオーディオインターフェースなどの受容できる幅を超えるといわゆる音割れが発生する。マイク部分で発生する音割れはアナログな音割れで、マイクに負担がかかる。インターフェースで発生する音割れはデジタルな音割れで、耳に負担がかかる。32bit floatであれば回避できるとかなんとからしいけどやむを得ない場合以外そもそも発生しないようにしたい。音割れが発生してしまうとそれを別の処理で取り除くことは現状できないんじゃないか。時代が進めばわからない。

音の高さ、音高も同様に前述の周波数で表され、波形の横の広がりで見ることはできるが、音量ほど直感的に見ることができるとも言いがたい。理由は後述する。録音の際には44.1kHzとか48kHzといった呪文が登場するが、これはどのくらいの周波数まで正確にデータ化できるかの値で、数値の半分の周波数までは正確にデータ化される。詳しくはwavのサンプリング周波数でググッて。人の可聴領域がおよそ20kHzまでなので44.1とか48あれば十分だろうと考えられてきたが、ちょっと前からハイレゾとか言って96kHzとか192kHzのサンプル周波数のものも出てきた。未だに体験してないのでなんとも言えないけれどそもそもそれに対応した再生機器と再生環境も無いので遠い世界の話だと思っている。

音色はおんしょく、と読んでもいいし、ねいろ、と読んでもいい。単一の音であれば音色によっては波形から見ることも出来なくはないが、基本的には無理だと思う。音色は三要素と一般には言われてはいるけれどその実、音量と音高から成るものだと言っても差し支え無いと考えている。説明に必要な前提知識をまだ説明していないのでこれも後述する。

サイン波

sinewave

聴覚検査で聞き覚えがある音。正弦波とも呼ばれる辺りで当たりがつくように三角関数で出てきたf(x)=sine(x)のグラフの形を持った波形。一番シンプルな形の波形なので周波数の話を掘り下げる前に紹介しておきたかった。サイン波には周波数が一つしか含まれていない。0地点から山>0>谷>0と戻ってくるまでが一回の振動で、一秒間にこの山谷が何個含まれているかが単純に周波数になる。

周波数

少し複雑な波形を見てみる。

wave03

サイン波と同様に、0>山>0>谷>0と大まかにはなっているが、その間にも山と谷が出現している。これは複数の周波数のサイン波が同時に鳴っているような音の波形で、世の中の音はサイン波以外はこのように一つの周波数では表せないようになっている。それでもこの波形の場合は大まかに規則的な起伏になっていて、その周波数を基音と言い、それ以外の細かい起伏を成している周波数を倍音という。音色はつまりはこの基音と倍音の構成によって一つは成っている。

wave02

これはピアノの音の波形。もはや何がなんだかわからない。実はピアノの低音の鍵盤を強く叩いたものなのでかなり高い周波数が混ざっているがためにこうなっている。この波形から周波数を読み解くのは難易度が高い。じっくり見ていけばできるのかもしれないけどやる意味は無い。

wave01

これは曲の一部を切り抜いたもの。一部と言ってもほんの一瞬なのだけれども。曲なのでいろいろな音が同時に鳴っているが、先ほどのピアノより逆に波らしきものが見える。これはキックドラムやベースが鳴っているためにこのようになっている。キックの低い成分はそのキックの種類によりけりではあるけれども40-60Hzくらいの低い周波数成分まであり、かつ音量もそれなりにあるために波形にこのような影響を及ぼす。ベースもこの曲はシンセベースなので60Hzくらいまではあるんじゃないか。ちなみにこの部分、他にギター・シンセ・ハイハット等色々鳴っているのだけれどそれらは細かい波に含まれている。と言っても波形から何の楽器があるかがわかる人が果たしているのだろうか。

周波数に関してもう少し。周波数が2倍になると12音律で言うところのオクターブが一つ上になる。(ドの音の周波数を2倍にすると上のドの音になる。)4倍でオクターブ2つ上、8倍でオクターブ3つ上、という指数関数になっている。なのでEQやスペクトラムアナライザーの周波数を示す軸は対数軸で表されている。周波数と音律の関係も後述する。

周波数によって人間の知覚は感度が異なり、低い音は聞き取りにくく、500Hz-10kHzくらいの音は聞こえやすく、それ以上になるとまた少し聞こえづらくなる。この周波数と耳の感度をグラフ化したものが等ラウドネス曲線でググると出てくると思うので頭の片隅に置いとくと便利。

基音と倍音

様々な周波数が織り重なることによって音色は変化する。その音にどのような周波数が含まれているかはスペクトラムアナライザー(以下スペアナ)を見ることで可視化できる。スペアナで一番低く、かつ音量の大きな周波数を基音と見ていいだろう。基音の音程がその音色の音程となる。中にはシンセで作った音のように基音が一番大きくない、とか基音より下の周波数成分がある、なんてこともあるが、別に基音の定義云々を曲を作る上で考える必要はないのでここまで書いて蛇足だったなって思ってる。倍音は基本的には基音を整数倍した音、と言われるが、実際には整数倍からはずれていたり、シンセで音を作る場合なんかには必ずしもそうとは限らない。

後述するといった音色に関して。音色は「基音と倍音の構成比」「周波数成分の時間的変化」によって成っている。時間的変化というのは音量の変化と周波数そのものの変化を含んでいる。ここまでで前述の三要素を三要素たらしめるべく言い換えるなら、「音量=音量変化」「音色=周波数成分」「音高=基音周波数」といったところか。音色という言葉が色々と含みすぎていてそもそも要素として適当なのかという疑問がある。まぁいいや。

この辺までの知識とシンセの基本的な使い方がわかればシンセで自由に音作りができると思うし、周波数のお話はミックスするときなんかに役立つと思う。

楽音と噪音

ノイズかそうじゃないかって話。あんまり必要はない話。音楽はどんどんノイズ化していると個人的には見ているのでこの先どうなるかは分からない。倍音過多になっていったり、基音周波数がどれだかわからないような複雑な周波数構成の音になると音はノイズ化していく。逆にいうとノイズから特徴を抽出していけば楽音になる。音程を取れるものが楽音、そうでないものを噪音と言ってもいいかもしれない。音程が取れていてもひどく歪んでしまっている音は人によってはノイズになりうるだろうし、噪音でもシンバルの音やスネアの音などは楽音として扱われる。ティンパニーは音程が聞き取れるので太鼓ではあるが楽音か。ブロステップに用いられるワブルベースなんかはかなり歪んでいるのでノイズに近く、モノによっては音程も定かではない。音圧競争なんていう言葉もあるみたいだけれど極端にマキシマイズされた音源はもはやホワイトノイズに近い。IDMなんかはノイズを音楽的に扱っているようなものが多い。

何が言いたいかというのも特に無いのだけれど、楽音と噪音という言葉はあるけれども線引きは人それぞれなので、噪音だからといって音楽に使えないということはないし、逆に音楽を構築する上で排除すべき噪音というものもあるけれど、結局は自分の耳で感じたものが全てなのでやっぱりこの話はなかったことにしていいのかもしれない。

音律(さわりだけ)

果たしてこのページに含むべきかどうかは迷うところではあるけれども音から音楽への入り口として。周波数を2倍するとオクターブが1つ上がるという話をした。440Hzと880Hzは1オクターブ離れており、これは波形でいうと、880Hzの波形の山がちょうど2つ440Hzの波形の山1つに収まる状態。この1オクターブの中を12個に均等に割ったものが12音律における平均律であり、更にそこにドレミだとかハニホだとかCDEといった音名をつけて呼んでいる。均等に割っていると言っても、440/12=36.666…Hzずつ周波数が上がっていっているわけではなく、先に書いたとおり周波数の増減と音高の増減は指数的に対応しているので、無理に指数で表すなら、2^(1/12)Hzずつ周波数は上がっていく。暇な人はlogでも使って計算すれば任意のn音律が作れる。自分は6年ほど前に10音律の周波数を計算してみたものの、その音を出せる環境を構築できなかったしサイン波で和音を試してみたところ、なんとも言えない結果になったのでその後特に何もしていない。

ということで次は音律の辺りから入ってもう少し音楽的なところを書ければと思う。

自分が必要と思う範囲だけさらっと流した内容なので、詳しく知りたい人は詳しく書いてあるページがいくらでもあるのでそちらで調べてください。

 - きょくのつくりかた, 岸本悠太