音なLABO トップページ

◎エクストリーム電子楽器概論

シンセサイザーの歴史

1 ハードウェアから見た軌跡

  1.1 テルミン~ムーグ

  1.2 発音方式の違いと比較 ローズ、ウーリツアー、ハモンド

  1.3 日本3大メーカのそれぞれ DX7、M1、TR808

2 コンピュータモデリングの時代

  2.1 DTMの幕開け MIDI、VST等

  2.2 VA音源、物理モデリングへ

  2.3 これからの音響技術 FFT、グラニュラ、サイドチェーン

3 番外編 その他音響と技術について

  3.1 サンプラー 録音と再生 メロトロン~MPC

  3.2 エフェクタによる音響処理技術

音響合成概論

1 電子楽器の仕組み 電気を音に

  1.1 アナログシンセシス

  1.2 FM~PCM~物理モデル音源

2 音響合成の基本

  2.1 サイン波~矩形波三角波、ノコギリ波

  2.2 AMとLFO

  2.3 ADSR

  2.4 フィルター

  2.5 FM

  2.6 サンプリング

3 複雑化する音響処理 音響プログラミング

  3.1 FFT

  3.2 グラニュラシンセシス

電子楽器インターフェイス概論

1 インターフェイス概論

  1.1 テクノロジーと楽器

  1.2 身体性と音楽

  1.3 電子楽器におけるセンサーの役割

2 MIDI概論

1.1 アナログシンセシス

本日も「音なLABO」へようこそ

第二章で「音響合成の基本」を解説するにあたり、本章ではシンセサイザーの基本的な仕組みを解説いたします。

今回は、シンセサイザーの中でも、主に電気回路の話になります「アナログシンセシス」に関しまして説明いたします。

1 VCO、VCF、VCA

 

アナログシンセサイザーの基本的な構成として、VCO、VCF、VCAというものが存在します。この基本的な構成を兼ねそろえたシンセサイザー「ムーグ」が登場します。

関連記事:テルミン~ムーグ

それでは、その構成要素であるVCO、VCF、VCAを一つづつ解説していきましょう。

・VCO
VCO(Voltage Controlled Oscillator)とは、電圧で音高を制御する発振器のことを指します。
原理は、電気の電圧を上げ下げすることで、音を生成する「発振器」の周波数を変える仕組みとなっています。

まず基本的な話しとなりますが、音の高さを決める要素とは、音の振動(発音体から空気の振動を通じて鼓膜に入るまでの空気の揺れ)の周波数(その空気の揺れがどのくらいの速さで揺れるか)で決まります。
その空気の揺れ(すなわち周波数)が速ければ速いほど、音は高く聞こえます。固有の周波数を司る「発振器(人工的に音の波を作り出す装置)」により、音を作り出します。
その発振器を、電気の電圧制御(電圧を使って発振器が作り出す波を変化させること)することが、VCOの目的となります。

例えば、いわゆるピアノの音階で言うところの「ラ」というものは440Hz(ヘルツ:周波数の単位)で、発振器に440Hzの振動が発生するようなな電圧を与えてあげてみます。するとその発振器から発せられる音は、私たちの感じるところの「ラ」の音になります。
(音階には固有の周波数がそれぞれ存在しますので、その周波数を割り振ることでいわゆる「ドレミファソラシド」という音階を作ることができます。)
申し遅れましたが、周波数というのは1分間で何回振動されるかのことで、440Hzとは1分間に440回振動する音のことを言います。
(ということは、周波数ごとに区切るのであれば「ドレミファソラシド」よりもっと自由な音の変化を与えることができるということになります。)

このVCOの仕組みにより、キーボードをインターフェイスとしたいわゆる「西洋音階」による演奏を実現しています。
また、リボンコントローラやジョイスティックなどにより、ポルタメントや細かいビブラートをかけるといった演奏も、VCOによるパラメーター制御で可能になっています。
因みに、VCO回路が考案されるまでは音階ごとに発振器を取り付けなければなりませんでした。

・VCF
VCF(Voltage Controlled Filter)とは、音色を変化させる為に「フィルター」という装置を音に通しますが、その際の様々なパラメーターを電圧によって制御する仕組みのことを言います。

この「フィルター」にはいくつかの種類があります。
・ローパスフィルター…高い周波数を遮断し、低い音だけを通します。このことで、低音の効いた太いサウンドを作ることができます。また、レゾナンス(共鳴)を加えることで、シンセサイザーに独特の「ミャオン」という音を付加することができます。
・ハイパスフィルター…低い周波数を遮断し、高い音だけを通します。このことで、より高音を強調した金属音のような音を作り出すことができます。
・バンドパスフィルター…ローパスフィルターとハイパスフィルターを組み合わせたもので、ある一定の周波数のみを強調させることができます。

上記のようなフィルターのそれぞれの数値を、電圧によってコントロールしていきます。
例えば、ローパスフィルターのどのぐらい以上の音を切る(カットオフ)のかを決めたり、レゾナンスをどれぐらい強調するのかといったものになります。
これらを全て電子回路で操作することで、VCFを実現しています。

・VCA
VCA(Voltage Controlled Amplifier)とは、電圧で音量を調節すること仕組みのことを言います。
いわゆる「アンプ(アンプリファイア)」のことです。アンプは言い換えるならば、最終的な音量の調節を電圧によって制御する電子回路となります。
これ自体は非常に単純な装置に聞こえますが、この「電圧で音量を制御」する仕組みは、後述の「LFO」や「AM合成」にとって重要な部分でありますので、一旦頭の中に入れておいてください。

2 LFOとAM合成

 

LFO
LFO(Low Frequency Oscillator)とは、低周波を生み出す発振器のことです。低周波とは、具体的に言うと大体1~19Hzの周波数のことを差します。
これは、人間の可聴域(聞くことができる音の範囲)が20Hz~20000Hzぐらいだと言われていいるので、それ以下の周波数ということになります。
(実際音としては聞こえませんが、音量を上げると振動として体で感じることはできます。)

前述の説明通り、LFO自体では人間が聞き取ることはできませんので、音として何の意味もありません。しかし、これを音に加えることで、ある音の現象が発生します。それが音の「うねり」です。
例えば、440Hzの音にこのLFOで作り出した1Hzの振幅を加えてみましょう。すると音にゆっくりとした「うねり」が加わります。
では、10Hzにしてみたらどうでしょう。わりと早いうねりが音に加わります。このうねりを音響合成的に言うと「トレモロ」効果ということになります。

この音の「うねり」すなわち「トレモロ」は、正確に表現すると音の大きさが周期的に上下したことになります。つまり、音量が滑らかに大小の変化しているということです。

・AM合成
AM(Amplitude Modulation)とは、振幅による変調を意味します。???これだけでは何のことだかさっぱりませんので、一旦前述した「LFO」についての説明から発展させて解説いたします。

さて、低周波を生み出す発振器「LFO」ですが、その低周波の意味するところは大体1~19Hzだと説明いたしました。では、試しに19Hzの振幅を音に加えてみましょう。
音の「うねり」が速すぎて、何やら音自体が変化したように聞こえないでしょうか。(因みに19Hzの振幅を加えると、1分間に19回の音のうねりが加わることになります。)
更に早い周期の振幅を与えてみましょう。その音の変化は顕著になりますね。これが振幅による変調を意味し、すなわちシンセサイザーにおける「AM合成」ということになります。

AM合成によって音が変調されると、その音に様々な周波数成分が加わることになります。この音にフィルタなどで周波数を部分的にカットすることで、アナログシンセサイザーの「音色」を決定することができます。

3 EG


EG(Envelope Generator)とは、音にエンベロープを与える為にADSR値を決定し、付加する装置のことを言います。

この「ADSR」とは、それぞれ下記に記すAttack、Decay、Sustain、Releaseの頭文字となります。
・Attack…音の「立ち上がり」を意味し、演奏が開始された時点(ピアノであれば鍵盤を押した瞬間)から最高音量までの到達時間を設定します。(この値が0であると、オルガンのように押した瞬間から最高音量になります。ピアノやギター、打楽器などほとんどの楽器は0ではないが時間設定は瞬時ということになります)
・Decay…音の「減衰」を意味し、AttackからSustainまでに要する時間を設定します。(ほとんどの楽器はAttackの上り方と反比例した直線で減衰していきます。)
・Sustain…音の「減衰後の保持」を意味し、Decay後に演奏が持続している間の音量を設定します。(これが最大になると、オルガンのように音量が変わらない持続音になります。)
・Release…音の「余韻」を意味し、演奏が終了した時点(ピアノであれば鍵盤を離した瞬間)から音が消えるまでの時間を設定します。(リバーブのようなものと捉えることができます。)

これらを駆使して、より楽器らしい音を演奏時に奏でることができるようになります。
(当然この逆もしかりで、通常の楽器ではありえない設定をすることで、電子楽器の本領とも言える聞いたことのないユニークな音を生成することもできます。)

まとめ

 

大まかに言うところのアナログシンセサイザーで出すことのできる音の仕組みは、上記のようになります。
(当然のようにこの他にも、エフェクター等を駆使すればバリエーションに富んだサウンドを生成することができます。)

音響合成の基礎にて、サイン波だけではなく、矩形波三角波などについても解説していきます。

【コラム】80'sジャップインベンション

本日も「音なLABO」へようこそ

1980年代、電子楽器の目まぐるしい進歩と発展と共に、これらが音楽業界に与えた影響はセンセーショナルなものでした。
特に、日本の楽器メーカー、ヤマハ、ローランド、アカイ、コルグの4社もたらした音楽の革命は、それまでのサウンドを一新させてしまうだけの影響力がありました。
シンセサイザー、ドラムマシーン、サンプラーといった全ての電子楽器の分野で、それぞれ名機を生み出しています。)

今回は、後に語られた電子楽器とシーンについての考察をご紹介したいと思います。

証言①


DX7が世界的なロック・ポップミュージックに与えた影響について考察されています。
FM音源による高音の倍音成分を含んだ、金属的なサウンドが当時の音楽関係者たちに多大なる衝撃を与えました。
当時のシンセサイザーとしては圧倒的に安価であったことも、現在でも「最も売れた(普及した)シンセサイザー」を冠している要因の一つでしょう。

また、デジタル制御による設定の呼び出しが瞬時に行えるなど、現場での使い勝手も非常に良かったといえます。
このように、多方面でサウンドの実験が行われ、今日のサウンドの礎となっております。
(現代のシティーポップ再評価などにより、DX7サウンドに再びスポットライトが浴びせられています。)

証言②


ハウスミュージックにTR909は必要不可欠だよね、という話です。
(TR909は、後述のTR808、TB303と共に「3種の神器」として今日でも語られている名機の一つです。)
最後の方にM1がちらっと出ていますが、こちらも90年代ハウスサウンドを少々する一つとなっています。

証言③


ドラムマシーンの歴史について解説、考察を行っていますが、結局のところヒップホップにおいて「TR808とMPCは最高だぜ(今も)!!」ということに収まりそうです。
TR808はあまりにも多くのフォロワーを現在でも生み続けている為、後にTR808の映画が作られたほどです。

一般的に、TR808はドラムフレーズ、TR909はパーカッションとして使用されると言われていますが、現代の刺激的な音楽家たちから言わせれば、その使い方も既に範疇の外にあると言えるでしょう。

証言④


これまた名機「TB303」につていの考察集となっています。ハウス/テクノ、ヒップホップシーンという、当時のアンダーグラウンドなミュージックシーンどちらにも使用された、ベースシンセサイザーの決定版です。

まとめ

日本のテクノロジーがもたらしたサウンド革命は、間違いなく「ジャップインベンション」と言って過言ではないでしょう。遠く離れた異国の地を舞台に発展したシーンとサウンドは、今日でも私たちを魅了し続けています。
そして、更なる発展の期待を待ち遠しく思う音楽ファンとシーンの為に、日夜惜しまず努力を絶え間なく続けてくれている技術者がいることを、我々は忘れてはいけないのかもしれません。

※付録動画

DX7の解説

DX7を使用した楽曲例

Europe - The Final Countdown

Kenny Loggins - Danger Zone

シカゴ・ハウス

Frankie Knuckles - Your Love

MARSHALL JEFFERSON - MOVE YOUR BODY

Mr Fingers - Can You Feel It

デトロイト・テクノ

Rhythm Is Rhythm - Strings Of Life

Model 500 - NO UFO'S

Good Life - Inner City

TR-808の解説

TR-808を使用したHipHop

Afrika Bambaataa - Planet Rock

Beastie Boys - Brass Monkey

M1の解説

M1を使用した楽曲例

Black Box - Ride on Time

【深堀】電子楽器の名機たち(随時更新)

本日も「音なLABO」へようこそ

前回までに、シンセサイザーの歴史ハードウェア編

1.1 テルミン~ムーグ
1.2 発音方式の違いと比較 ローズ、ウーリツアー、ハモンド
1.3 日本3大メーカのそれぞれ DX7、M1、TR808

次に、シンセサイザーの歴史ソフトウェア編

2.1 DTMの幕開け MIDI、VST等
2.2 VA音源、物理モデリングへ
2.3 これからの音響技術 FFT、 グラニュラ、サイドチェーン

そして、これらに加えて番外編をお届けいたしました。

3.1 サンプラー 録音と再生 メロトロン~MPC
3.2 エフェクタによる音響処理技術

今回は、これまでにご紹介しきれなかった、電子楽器の歴史的な名機について一部解説など行っていきます。

1 オンド・マルトノ


https://upload.wikimedia.org/wikipedia/ja/thumb/c/c6/Ondes_martenot.jpg/200px-Ondes_martenot.jpg
オンド・マルトノ Wikipediaより

1928年、フランス人の電気技師であるモーリス・マルトノによって発明された電子(電気)楽器です。
発音形式はテルミンと同じヘテロダイン方式ですが、テルミンよりもいくらか音のバリエーションは増えています。
(ビブラートをかけたりすることができます。)

この楽器が独特だと言われれている所以が二つあります。
一つは、リボンコントローラによるポルタメント奏法を可能にしたことです。そしてもう一つが、独自のスピーカーシステムを持ち合わせていたことです。
それぞれメタリック、パルム、プランシパルと呼ばれるバネやシンバルを装置に組み込むことで独特なサウンドを表現しようとしました。
オンド・マルトノはこの仕組みから、後の世で「スピーカも楽器」と呼ばれることとなりました。

2 RCAミュージック・シンセサイザー


https://upload.wikimedia.org/wikipedia/commons/thumb/3/3b/RCA_Mark_II_Sound_Synthesizer.jpg/337px-RCA_Mark_II_Sound_Synthesizer.jpg
RCAミュージック・シンセサイザー Wikipediaより

1955年、RCAブリストン研究所にてハリー・オルソンによって開発されました。音響合成、演奏、トラックダウンに至る工程を賄う今日のワークステーションの元祖であるといえます。
また、この世で初めて「シンセサイザー」の名を冠した電子楽器でもあります。アナログシンセサイザーの基礎を築き、初期DTMの音源による演奏と同程度のスペックを持ち合わせていました。

大量の真空管を使用して構成されており、パンチテープによってデータの保存を行っていました。
FM変調によるビブラートをかける、一部デジタルによるシュミレートなど、エレクトロニクス技術の粋を駆使して当時としては驚異的な音響表現を可能にしていました。

そして有名なエピソードとしては何を隠そう、かのロバート・ムーグが当時在籍していたコロンビア大学に置かれていたRCAミュージック・シンセサイザーを参考に、後のムーグ・シンセサイザーを開発したことが知られています。

3 ブックラー・シンセサイザー



※ブックラー・シンセサイザーの生みの親、ドン・ブックラーによるコメント動画。

1964年に、ドン・ブックラーによって開発されました。1965年にムーグが登場する前年ということになります。
音源方式はムーグと同様の減算方式を採用し、コードでパッチを繋ぐ方法も酷似しています。
また、この当時の課題であったシンセサイザーの小型化にも、一歩先を出た形のモジュラータイプとなっており、このことにより持ち運びを可能にしました。
(当時はシンセサイザーは巨大すぎて基本的にはスタジオに常設されていました。)
この後に、アープがARP 2500というモジュラータイプのシンセサイザーを開発し、一連の流れとなっていきます。

キーボードとは違い、決められた音階を割り振られていない為、自由に周波数設定を行うことができるタッチ・ボードが採用されていました。
そして、(初めて)アナログシーケンサーが採用され、スプリングリバーブなどの装置も付けられた、現在にも繋がるシンセサイザーの仕組みが集約された楽器と捉えることもできます。


※ブックラーの解説動画。このように、現在でも音響関係者の興味の対象となっている。

4 アープ オデッセイ


https://upload.wikimedia.org/wikipedia/commons/thumb/1/13/Odyssey1.jpg/250px-Odyssey1.jpg
アープ オデッセイ Wikipediaより

アープと言えば、ムーグ最大のライバルです。先のムーグ・シンセサイザー発表の後、アープはモジュラータイプのシンセサイザーARP 2500」を開発しました。
そして、ムーグがコンパクトタイプのシンセサイザーミニムーグ」を発表するやいなや、アープが開発したのがこの「オデッセイ」です。

その後に続くこの両者の熾烈な戦いは、現在におけるシンセサイザーの演奏楽器としての機能を充実させることになります。
このことにより、アナログシンセサイザーの進化はほぼ完成へと近づき、現在の形へと集約されていきました。

5 フェアライトCMI


https://upload.wikimedia.org/wikipedia/commons/thumb/e/ed/Fairlight.JPG/200px-Fairlight.JPG
フェアライトCMI Wikipediaより

現在で言うところの「サンプラー」の礎を築いた初代的な存在です。
その他にも、モニターに直接ライトペンで書きこんで音響合成編集ができたりと、これまた現代の波形編集に繋がる概念を持ち合わせた名機でした。

その正体は、元々グラフィック用に作られたコンピュータ「カーサル」に、サウンド・ボード、サンプリング用のADコンバータなどを付与していき、音楽用のシンセサイザーとしてカスタムされたものでした。
これを、1979の時点で完成させていることに驚きを隠せません。後続に「イミュレーター」というサンプリング方式のシンセサイザーが出現し、これに強い影響を与えました。
そして現在ではこの影響は、PCM音源、サンプラー、コンピュータミュージックの諸々機能へと拡大しております。
(因みに、余談となりますがシンセサイザーの標準的なプリセットである「オケヒ(オーケストラヒット)」が作られたのも、このフェアライトCMIからです。)

 

 

 

3.2 エフェクタによる音響処理技術

本日も「音なLABO」へようこそ

ここからはシンセサイザーの歴史、番外編となり第2回目をお送りいたします。

前回は、録音と再生の技術に着目し、サンプラーの歴史についてお届けいたしました。

3.1 サンプラー 録音と再生 メロトロン~MPC

今回は、音を劇的に変化させる音響処理技術「エフェクタ」について、考察していきます。

1 最初期のエフェクタ

 

エフェクタの原点とも呼べる、最初期の音響処理技術はラジオの為に開発されました。
「コンプレッサー」という、音量のバランスをとる目的で作られた装置でした。コンプレッサーの仕組みは、音量の大きいものは抑え、小さいものを底上げすることで適切な音量の放送にすることでした。

この原理を逆に使用することで「ノイズゲート」と呼ばれる、小音量のノイズを除去する為のエフェクタが生み出されました。
また、コンプレッサーの大きい音量を抑え込む機能のみのエフェクタを「リミッター」といいます。

これらは、しだいに録音などの音響処理の現場へと活用の場を広げることとなります。
そして現在にまで続く、エフェクタを独自のサウンド構築の手段として扱うことが定着していきます。

2 音の現象と電子回路への応用

 

音の現象はとても興味深く、いつの時も人々(特に、波動を扱う物理学者達)の注目を集めてきました。
例えば、救急車のサイレン音が近づくにつれて変化する現象は、ドップラー効果として知られています。
そのドップラー効果を応用して作られたのが、回転式スピーカー「レズリー」です。
レズリーはスピーカーそのものが回転することにより、音に変調を与えることができます。このことにより、独特な「揺れ」のあるサウンドを表現することができます。

ある時レコーディングエンジニアが、オープンリールで録音していた際にテープを遅らせてダブリング(音の重ね)をしていました。
この時、独特なフィルタをかけたような音が発せらました。(後にフランジング効果と呼ばれるサウンド)それを模して作られたのが「フランジャー」というエフェクタの始まりです。
また、前述の「レズリー」をシュミレートしようとして作られたのが「フェイザー」となりました。
(結果的には、フェイザーも独自のサウンドを追求する方向で使われ、現在ではレズリーシュミレータという別のエフェクタが存在しています。)

元々、ホールや教会などの残響音をシュミレートする目的で作られたのが「リバーブ」です。
初期のリバーブは、プレートエコーと呼ばれる巨大な鉄板を使用したものや、スプリングリバーブと呼ばれるばねを利用したものでした。
後に、BBD素子の発明により「ディレイ」が開発されると、それを使ってリバーブを再現する方向へとシフトされました。
(現在のリバーブは救数のディレイ音、つまり反響の塊で構成させる設計となっております。)

 

https://upload.wikimedia.org/wikipedia/commons/thumb/4/48/Reverb-3.jpg/250px-Reverb-3.jpg

スプリングリバーブ Wikipediaより

 

このように、独特な音の現象を研究し、それを音響の現場へと持ち込む為の装置が開発されました。
そして技術の進歩と共に小型化され、現在のエフェクタと呼ばれる電子回路の塊へと変貌を遂げていきます。

3 シンセサイザーからの抜粋

 

電子回路の発達により、シンセサイザーの一部分がエフェクターとして利用されたものもあります。

シンセサイザーLFO低周波を発生させる電子回路)により、音を周期的に変化させることが可能になりました。
この原理を応用して、音量に揺らぎを与えるのが「トレモロ」です。また、フランジャーはディレイタイムを周期的に変化させ、原音にミックスする仕組みとなっています。
(このディレイタイムが長いと、人間の可聴認識で複数の演奏者がいるように聞かせることができ、エフェクタの「コーラス」となります。)

シンセサイザーの音色を変化させるVCF、すなわち「フィルタ」もまたエフェクタとして利用されています。
ローパス、ハイパス、バンドパスなどはシンセイサイザーと同様の使われ方をします。そして、バンドパスフィルタを応用して作られたのが「イコライザー」となります。
(因みに、バンドパスフィルタの周波数をフットペダルでコントロールするのがギターでお馴染みの「ワウワウ」です。)

 

https://upload.wikimedia.org/wikipedia/commons/thumb/7/77/Moogerfoogers.jpg/220px-Moogerfoogers.jpg
Moogerfooger Wikipediaより
※シンセイサイザーから抜粋されたエフェクタの中で有名なのがこのMoogerfooger。ムーグシンセの電子回路がそのまま使われている。

 

ややシンセサイザーの歴史の中では番外編的に語られがちである「ボコーダー」というものもあります。
これは、人間の声と同じ周波数特性を楽器の音に持たせることで、しゃべっているような音に変換するものです。
これと似たような発想の「トーキングモジュレータ」というエフェクタですが、仕組み自体は全くの別物となります。
(但し、音の音色を決める倍音成分を調べると、どちらも非常に似ています。)

4 シュミレーションによる音響処理

 

最近では、ビンテージのアンプをシュミレートした「アンプシュミレータ」などもエフェクタとして登場しております。
このことにより、安価でビンテージサウンドを手にすることが可能になりました。
(特に、ギタリストやベーシストなどアンプによりサウンドが変化する楽器のプレーヤに重宝されています。)
また、ビンテージのスピーカーやマイクを模倣したシュミレータなども存在しています。

シュミレーションの分野で最も興味を持たれている一つに、ステレオイメージ、3D音響というものがあります。
ステレオイメージとは、左右の音のパンニングなど音の動きを疑似的に組み込む仕組みのことです。
バイノーラル録音によって録音された音源をヘッドフォンで聞くと、リアルに音の位置変化を認識できるなどが有名)
3D音響は、その名の通り音を立体的に表現する技法です。映画の音響などではお馴染みとなっております。
(古くは4チャンネルスピーカーを使用した立体音響などがあります。)

そして、現在のDTMおよびDAW技術により、エフェクタはコンピュータ上でシュミレートされることとなります。
各種VSTによってユーザーに提供され、今この時も開発の歩みは止まることなく続けられております。

まとめ

 

エフェクタそのものでは音を生成することはできませんので、電子楽器の歴史の中ではどちらかというと脇役的に扱われがちです。
しかし、音響処理を担う今日の電子楽器の一部であることは忘れてはいけません。
(実際、現在のほとんどのシンセサイザーには内部エフェクタが標準装備となっております。)
また、電子楽器の歴史と深いかかわりがあることも事実です。これからも、新しいサウンドメイキングの一翼となり、私たちに未知のサウンドを届けてくれることでしょう。

3.1 サンプラー 録音と再生 メロトロン~MPC

本日も「音なLABO」へようこそ

ここからはシンセサイザーの歴史、番外編となり第1回目をお送りいたします。

前回までに、シンセサイザーの歴史ハードウェア編

1.1 テルミン~ムーグ
1.2 発音方式の違いと比較 ローズ、ウーリツアー、ハモンド
1.3 日本3大メーカのそれぞれ DX7、M1、TR808

そして、シンセサイザーの歴史ソフトウェア編をお届けいたしました。

2.1 DTMの幕開け MIDI、VST等
2.2 VA音源、物理モデリングへ
2.3 これからの音響技術 FFT、 グラニュラ、サイドチェーン

これまでのシンセサイザーの歴史の中で、お伝えしきれなかった部分にスポットを当てていきます。
今回は、その後のPCM音源などに多大な影響を与えた「サンプラ」について、考察していきます。

1 メロトロンの登場

 

メロトロンは、1962年に発売された鍵盤方式の楽器である。

https://upload.wikimedia.org/wikipedia/commons/thumb/6/65/Mellotron.jpg/250px-Mellotron.jpg

メロトロン Wikipediaより
ビートルズなども使用したことで知られる元祖サンプラ。

それぞれの鍵盤に対応したテープ録音された音源があり、押すとそれらが再生されるしくみである。
当然のように、一度再生された音は、完全に巻き戻るまで使用不可(持続音などどこを切り取っても差支えのない音は使用可能であった)となってしまいます。
一つの音に録音できる長さにも限られており、最初期のモデルでは7.3秒が限界でした。
また、テープの劣化に合わせて音も劣化てしまうという宿命も持ち合わせていました。
(現在では逆にこの音の劣化を好み、ローファイプロセッサとして使用する音響ファンもいるほどです。)

このように、楽器としては問題だらけの代物として始まったサンプラの歴史ですが、メロトロンがなければ今日の音楽の歴史は存在していません。
現在に至るPCM音源の礎になり、音そのものを扱う楽器としてのサンプラの祖であること間違いありません。

2 補足:ミュージックコンクレートとその周辺

 

ミュージックコンクレートとは現代音楽のジャンルで、具体音や電子音などの「非楽音(的な使われ方)」を用いて作られる音楽のことです。


https://upload.wikimedia.org/wikipedia/commons/thumb/2/2b/Psconcer.jpg/200px-Psconcer.jpg
ピエール・シェフェール Wikipediaより

初期はフランスで発展し、1940年代の後半にピエール・シェフェールピエール・アンリらによって広められました。
当然のことながら、このジャンルの音楽のカギとなる技術は「録音」です。このことは広義的な意味で、テープレコーダーを楽器として認識させられるきっかけとなりました。


ビートルズの「Revolution 9」はロック界の衝撃となったあまりにも有名な作品。

その後、ミュージックコンクレートはドイツや日本などに伝わり、独自の発展を遂げました。
1980年頃に、電子音楽との融合であるライブエレクトロニクスが提唱され、この頃まで盛んに作品が発表されていました。

3 MPC

 

メロトロン登場以降、「サンプリング」という技法を電子的に利用できないかという試みが度々行われてきました。
フェアライトCMI、イミュレーターなどのシンセサイザーにその機能が組み込まれてきました。これは間接的に現在のPCM音源の礎を築くことになります。
そして、「サンプラー」の決定版である、MPCが1987年にアカイから発売されました。


※MPCの現行モデルMPC X

楽器としてのサンプラーの地位を確立し、今なおライブなどで活躍しています。特にヒップホップなどのジャンルでは重宝されている機材の一つとなります。


まとめ


言うまでもなく、演奏された楽器の音とプログラムされたトラックとを融合させる技法は、現在ではデファクトスタンダードです。
その際に行われる「録音」という行為とそれを使用するといった行為自体が、大きく見ると「サンプリング」なのかもしれません。
その考え方に多大な影響を与えたこのような技術と概念に改めて敬意を表したいと思います。

2.3 これからの音響技術 FFT、グラニュラ、サイドチェイン

本日も「音なLABO」へようこそ

コンピュータモデリングの時代と銘打ちまして、シンセサイザーの歴史ソフトウェア編、第3回目となります。

前回までに、ソフトウェア化するシンセサイザー、進化する音源方式に関して、ご紹介しました。

2.1 DTMの幕開け MIDI、VST等
2.2 VA音源、物理モデリングへ

今回は、これからの音響技術と現在の複雑化する技法に関して、考察していきます。

1 FFT 音の解析と応用


FFT(Fast Fourier Transform)とはあらゆる周期的な波動(ここでは音波)は正弦波(いわゆるサイン波)の足しあわせで表現が可能という特性を利用し、周波数ごとの成分に分解することです。
???な用語ばかりなので簡単に言い直しますと、どんな音でもサイン波をたくさん重ねることで作り出すことができますよということになります。
(補足として「周期的」とは、ある一定の時間(例えば5秒間)に区切り、繰り返すと想定すると全てOKということになりますので、ここではあってないようなものです。)

ではこれを利用すると、どんなことができるのでしょうか。
いくつかの応用を考えることができますが、まず顕著なのがイコライザーです。
フィルターの応用と違い、音を周波数ごとに変更することができますので、録音時や演奏時にハウリングを起こしてしまう周波数のみを抑えることができます。
また、これと逆の方法を利用するならば、現実の音とかけ離れたサウンドを作りだすことができるようになります。

https://upload.wikimedia.org/wikipedia/commons/thumb/0/0e/LandMap_Max_patcher.jpg/300px-LandMap_Max_patcher.jpg
ビジュアルプログラミング言語 MAX Wikipediaより
※MAXなど、一部の音響処理プログラムでは、オブジェクトとして簡単にFFTを利用することができる。

他にも、既に録音済みの音源から、スネアドラムの音域にだけディレイかけてダブのようなサウンドにする、一定の部分にのみフィルタをかけるなど応用例はアイディアの数だけ実現可能ということになります。

2 グラニュラ 現代のピッチシフター

 

ラニュラ合成、もしくはGranular Synthesisとも言われ、音を物凄く短い(約1msec~10msecほど)粒に切り出し、音の成分を変化させるものです。
イデア自体はヤニス・クセナキスによって1950年代には提唱されていました。

音の粒(グレイン)を長く取るとスライサーのようなサウンドに、短くとるとドローンのようなサウンドを聞くことができます。
このグレインを短くとり、音に変化を与えることによってピッチシフトをさせることができます。

ピッチシフトの基本的な原理は、切り取ったサンプルを遅くすることで音を低くする、また逆の方法で高くするというものです。
(レコードなどで回転数を遅くすると、音が低くなる原理と一緒です。)
しかし、この方法では音の波形が変化してしまうことで、音程の変化と同時に音そのものが変わってしまう現象が起きます。
(補足ですが、楽音(楽器の音)はほとんどがエンベロープ(音を発生させてから減衰する変化値)によって決まりますので、波形が変化すると音の個性が失われます。)

ここで、「グレイン」を使うことにより、波形の変化を防ぎつつ音程を変えることが可能になりました。
また、逆の方法を応用することで、音程を変えることなく音の速さを変更(BPMを早くしたり遅くしたり)することも可能になりました。

但し、独特なドローンサウンドをまとっている為、使う場面には慎重にならざる負えない部分も否めません。
実際、ある種のエフェクター的な使い方や、SF的な効果音などに使用されるなど、やや飛び道具的に使われる場面を目にします。
(現在ではコンピュータ処理がかなり高速化したこともあり、安価にリアルタイムで使用することが可能になりましたので、今後の活躍の場に期待したいところです。)

3 サイドチェイン 複雑化するパラメーター

 

サイドチェインとは、ある音のレベルを検出し、そのパラメーターを使用し他の音に変化を与える仕組みのことです。
具体的には、バスドラムが鳴っている間はベースの音を下げるなどの応用が考えられます。
この仕組みは、ダッカーと呼ばれるエフェクタで館内放送のナレーションが入ってきたときのみBGMを下げる、ディエッサーと呼ばれるエフェクタでボーカルの「サ行」をおさえるなどで古くから使用されてきました。


※この曲中で、バスドラムが鳴った直後全ての音量が一度下がるのがお分かりいただけるだろう。

音を「パラメータ(数値)」として扱うことは、コンピュータの得意分野であり、この数値の取り扱いはコンピュータによって更なる複雑化がされることと予想されます。
(入力と入力を掛け合わせたり、他のデータを使用してパラメータを変化させたりと可能性とアイディアの組み合わせは無限です。)

まとめ

 

上記にご紹介した技術も、やはりコンピュータの出現により可能となった(特に高速でデータを処理できること)技術の一つでした。
ここに、一旦の電子音楽の進化と発展をまとめましたが、これからも多くのアイディアと技術の進歩により新しいサウンドが生み出されていくことでしょう。

2.2 VA音源、物理モデリングへ

本日も「音なLABO」へようこそ

コンピュータモデリングの時代と銘打ちまして、シンセサイザーの歴史ソフトウェア編、第2回目となります。

前回は、コンピュータ上にプログラムとして置き換わりゆくシンセサイザーの形をご紹介しました。

2.1 DTMの幕開け MIDI、VST等

今回は、シンセサイザーの音響的な進展について、考察していきます。


1 VA音源 物理モデリング


VA(Virtual Acoustic)音源とは、ヤマハによって提唱された音源方式となります。
(現在では「物理モデル音源」と呼ばれることの方が一般的かもしれません。)
PCM音源の弱点である、持続音が単調となってしまうことに着目し、より現実的な音を再現することに開発の端を発しました。
(特に、弦楽器の揺らぎや管楽器の息づかいなど音の細かいニュアンスを伝える為)
そこで、物理法則を元に音のモデリングを行うこととなりました。
(弦の運動法則をシュミレートし音に反映させる、ブレスコントローラなどのセンサーを用いてパラメーターを制御するなど)

https://data.yamaha.com/jp_content/cs_image/synth_40th/ind_photo_vl1.jpg
VL1 ヤマハオフィシャルより
ヤマハはVA音源のシンセサイザーとして1993年にVL1、1994年にVP1を発売しました。

 

こうして、当初の目的であるより楽器に近いリアルなサウンドの構築に成功しました。

一方で、この物理法則のシュミレートは「超現実」の音を生み出すきっかけとなりました。
例えば、「10mの長さのサックス」「体育館ほどの共鳴胴をもつバイオリン」などがあります。
材質が高価であったり、再現が不可能な楽器を、電子回路の中でバーチャルに作り出すことができるようになったのです。
これは現代にまでつながる、音の探究者たちへの更なる刺激を与える発明となりました。

 

2 バーチャルアナログ音源

 

バーチャルアナログ音源は、デジタル信号処理を用いて、アナログシンセサイザーを再現する方式です。
VA音源とは明確に区別されており、あくまで電子回路のモデリングを行う形式となっています。

https://upload.wikimedia.org/wikipedia/commons/thumb/3/3b/Clavia_Nord_Lead_2x.jpg/300px-Clavia_Nord_Lead_2x.jpg
Nord Lead Wikipediaより
※1995年にクラビアより発売。もっとも有名なバーチャルアナログ音源のシンセサイザーの一つである。

 

このようにアナログシンセサイザーの再評価に一役買いました。

 

3 ※補足 DSPについて

DSP(digital signal processor)の発明により、電子回路上でシグナル(いわゆるサイン派)を生成し、デジタル信号として扱うことができるようになりました。
これは、複雑なシュミレーションや、高容量なモデリングを実現する為に必須な技術となります。
(なぜデジタル上でシンセサイザーが動くのか、コンピュータで音楽をプログラムするとはといったことに興味がある方は知っておいて損はありません。)

まとめ


やがて、上記のような音源方式はコンピュータ上で様々なサウンドを再現する為の礎となり、現代でも生き続けていきます。
次回は、複雑化する現代の音響、そしてこれからの音の可能性に関して、触れていきたいと思います。