コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

アディティブ・シンセシス

出典: フリー百科事典『ウィキペディア(Wikipedia)』
加算分析/再合成から転送)

音響信号処理における加算合成(かさんごうせい、: additive synthesis)は複数の純音を重ね合わせ(加算して)音響信号を合成する、音声合成の一種である[1][2]アディティブ・シンセシスとも呼ばれる。対比される合成手法に減算合成がある。

概要

[編集]

音響信号は正弦波の重ね合わせで表現できる。またヒトの聴覚には可聴域が存在するため聞こえる周波数に上限がある。このことは周期信号と聴覚上等価な合成音を正弦波の有限和で表現できることを示唆する(詳細: #理論的背景)。

加算合成は有限個の正弦波を加算して音を合成する手法の総称である。正弦波の周波数・振幅・位相を適切に設定することで多様な音を生成・再現できる。

実装としては事前計算した波形テーブル(ウェーブテーブル・シンセシス)や逆高速フーリエ変換を活用できる。

合成要素となる個々の正弦波は部分音パーシャル)と呼ばれる。特に倍音はハーモニックパーシャル(調波)、非倍音はインハーモニック・パーシャル(非調波)と呼ばれる。

理論的背景

[編集]
フーリエ級数による
方形波の近似(最初の4項)

音響信号は正弦波の重ね合わせで表現できる(フーリエ変換)。さらに信号が周期性を持っていれば、その信号は正弦波の無限和で(積分せずに)表現できる(フーリエ級数)。

また、ヒトには知覚可能な周波数範囲(可聴域)が存在する。標準的には15kHzが上限でありそれ以上の音を聞き取ることができない。これは信号から可聴域外の成分を取り除いても聴覚上の差がない(=等価である)ことを意味する。

この2つの事実は、ある周期的な音響信号と聴覚上等価な信号を正弦波の有限和で表現できることを示唆する。なぜなら正弦波の無限和に含まれる15kHz以上の正弦波成分を除いても聴覚上等価な信号が構成でき、それは有限個の正弦波の和を意味するからである。

手法

[編集]

加算合成は有限個の正弦波を加算して音を合成する手法の総称である。パラメータの時変性や周波数制約に基づき、様々なタイプの加算合成が存在する。

以下、各部分音のインデックスを 、初期位相を 、部分音の総数を 、合成音を とする。各部分音において周波数を 、振幅を とし、これが時変の場合は瞬時周波数 、瞬時振幅 を用いる。

次の表は様々な制約をもった加算合成を表現する式の一覧である。各手法は以降の節で詳説されている。

表. 制約付き加算合成
時変振幅 (AM) 時変周波数 (FM) 調波構造 合成式
- - -
- -
- -
-

時不変

[編集]
時不変加算合成器の構成定周波数・振幅の正弦波が生成(〜)、加算(+)されて合成音となる。

単純な加算合成では単一合成区間内で周波数と振幅を固定する(時不変)。この方式は次のように定義される[3]

時変振幅

[編集]

振幅が時間変化するハーモニック・アディティブ・シンセシスの例
(基本周波数 f0 = 440 Hz)

振幅を時間に応じて変化させる場合(c.f. 振幅変調)、次のように定義される:

帯域制限(band-limited signal)の観点から、 の変化は振幅変調による帯域の広がり が 隣接部分音間の周波数間隔より有意に小さくなるよう[4][5][注釈 1]、充分ゆっくりした速度で変化させる必要がある[1][注釈 2]。すなわち次の制約を留意する必要がある。

時変周波数

[編集]

周波数を時間に応じて変化させる場合(c.f. 周波数変調)、次のように定義される[注釈 3]

振幅と周波数の両方が時間変化するインハーモニック・アディティブ・シンセシスの例

時変振幅・時変周波数

[編集]

最も一般化された加算合成は次のように定義される:

調波加算合成

[編集]

自然界に存在する多くの音は調波構造を有している。すなわち基本周波数 成分(基音)とその整数倍成分(倍音)を多分に含んでいる。このことに注目し、部分音として基音および倍音のみを加算して音を合成する手法を調波加算合成(ハーモニック・アディティブ・シンセシス)という。

時不変振幅・周波数を用いた調波加算合成は次のように定義される:

周波数が で定義されるため、部分音#k はk次倍音(k=1なら基音)に相当する。

広義の定義

[編集]

アディティブ・シンセシス」という用語は広義に、正弦波ベースか否かを問わず「単純な基本要素を足し合わせて複雑な音色を合成する」タイプのサウンド・シンセシス手法全般を指す包括的用語として使われる事がある。[6][7] 例えば F. Richard Mooreはサウンド・シンセシスの「四つの基本カテゴリー」として、アディティブ・シンセシスを他の三つと共に挙げている。[7]

この広義の意味で、正弦波以外の音色(パイプやストップ)を組み合わせるパイプオルガン電子オルガンも広義のアディティブ・シンセサイザーと見なせる。また主成分(変量間の相関行列の固有値分解で得られる合成基底)やウォルシュ関数英語版Walsh-Hadamard変換の基底関数)の総和による音響合成も、広義のアディティブ・シンセシスに分類できる。[8]

加算分析/再合成

[編集]

音声信号の分析により周波数・振幅・位相が得られれば、これを加算合成に用いて音声を再構築できる。分析合成を一体で捉えた音声処理を音声分析合成という。合成部に加算合成を用いる場合、分析部に用いられる手法の例として帯域通過フィルタバンク短時間フーリエ変換McAulay-Quatieriアナリシス[9][10])、経験的モード分解[11]が挙げられる。

合成部に加算合成を用いる具体的な手法としては以下が一例に挙げられる。

  • Sinusoidal Modeling[12] — 正弦波の総和による調波合成モデル
  • Reassigned Bandwidth-Enhanced Additive Sound Model[13][14]
    — McAuley-Quatieriアルゴリズムのノイズ耐性改善のために、Bandwidth-enhanced Oscillatorを導入したSinusoidal Model。

またソフトウェア実装には下記がある:

応用例

[編集]

楽器

[編集]

アディティブ・シンセシスは、ハモンド・オルガンや、シンセサイザー電子楽器に応用されている。

音声合成

[編集]
音声波形とスペクトログラム(下):
赤点列は5つのフォルマント周波数、
下側水色カーブは基底周波数(ピッチ)

言語学の研究では1950年代初頭より、合成あるいは変更した音声スペクトログラムの再生にハーモニック・アディティブ・シンセシスが使用されている。[20] 1980年代初頭には、音声の音響的手がかり(acoustic cues)の意義を評価するために、それらを取り去った合成音声の聴取テストが行われた。[21] また線形予測符号で抽出したフォルマント周波数と振幅の時系列を使う音声合成手法の一つ sinewave synthesis は、インハーモニックな正弦波パーシャルの加算合成を行う。[22](関連:Sinusoidal Modeling

実装方式

[編集]

今日のアディティブ・シンセシス実装系は、主にデジタル処理で実装されている(#離散表現参照)。

オシレータ・バンク

[編集]

アディティブ・シンセシスは、各パーシャルに対応して正弦波オシレータを複数用意したオシレータ・バンクで実装できる[1](記事冒頭の図参照)。

ウェーブテーブル・シンセシス

[編集]

楽音がハーモニックで準周期的な場合、ウェーブテーブル・シンセシスは時間発展のあるアディティブ・シンセシスと同様な一般性を備え、しかも合成に必要な計算量は少なくて済む。[23] 従って、ハーモニックな音色合成のための時間発展のあるアディティブ・シンセシスは、ウェーブテーブル・シンセシスで効率的に実装できる。

グループ・アディティブ・シンセシス(Group additive synthesis)[24][25][26] は、各パーシャルを基本周波数の異なるハーモニック・グループに分け、各グループ個別にウェーブテーブル・シンセシスで合成後、ミックスして結果を得る手法である。

逆高速フーリエ変換

[編集]

高速フーリエ変換は、変換周期を均等分割した周波数[注釈 4] に関する(加算)合成を効率的に行える。また、離散フーリエ変換の周波数領域表現を注意深く考慮すれば、複数の逆高速フーリエ変換結果をオーバーラップさせた列を使って、任意周波数の正弦波による(加算)合成を効率的に行える。[27]

歴史的背景

[編集]

調和解析

[編集]

調和解析は、1822年フランスの数学者ジョゼフ・フーリエ[28]熱伝導の文脈で彼の研究に関する広範な論文を発表して、研究が端緒に付いた。[29] この理論の初期の応用には、潮の干満の予測がある。1876年頃、[30] ケルビン卿ことウィリアム・トムソンは機械式の潮汐予測機(Tide-predicting machine)を構築した。この装置はharmonic analyzerharmonic synthesizerで構成され、それらは19世紀に既に前述の名で呼ばれていた。[31][32] 潮汐の測定値は、ケルビン卿の兄ジェームズ・トムソン積分機integrating machine)を使い分析された。結果として得られたフーリエ係数は、紐と滑車のシステムを使ったsynthesizerに入力され、将来の潮汐の予測のための正弦波基底の調和部分波が生成され足し合わされた。同様な装置は1910年にも、音の周期波形の解析を目的として構築された。[33] この装置のsynthesizer部は合成波形をグラフに描画し、それは主に解析結果の視覚的検証に使用された。[33]

フーリエ理論の音への応用

[編集]

フーリエ理論の音への応用は、1843年ゲオルク・オームによって行われた。この系統の研究はヘルマン・フォン・ヘルムホルツにより大きな進歩を遂げ、彼は8年間の成果を1863年出版した。[34] 彼は、音色の心理的知覚は学習によるものだが、官能的感覚は純粋に生理的なものだと信じていた。[35] また彼は、音の知覚は基底膜の神経細胞からの信号に由来し、これら細胞の弾性付属物は適切な周波数の純粋な正弦波トーンに共鳴振動する、という考えを支持した。[33] この他ヘルムホルツは、ある種の音源はインハーモニック(基底周波数の非整数倍)な振動モードを含むとする エルンスト・クラドニの1787年の発見に同意した。[35]

ヘルムホルツのサウンド・シンセサイザー

[編集]
ヘルムホルツ の サウンド・シンセサイザーと
ケーニッヒ の サウンド・アナライザー
Sound synthesizer
Sound analyzer
ヘルムホルツのトーンジェネレータ(左図):電磁石で音叉を励起し、ヘルムホルツ・レゾネータ(右図)で音響増幅する。

ヘルムホルツの時代、電子的な音響増幅手段(アンプ)はまだ存在しなかった。ヘルムホルツは、ハーモニック・パーシャルに基づく音色合成(ハーモニック・アディティブ・シンセシス)を目的として、パーシャル生成用の電磁石励起式音叉と、音量調整用のアコースティックな共鳴チャンバー (ヘルムホルツ・レゾネータ) の組を並べた装置を製作した。[36] 製作は少なくとも1862年という早い時期に行われ、[36] 次にルドルフ・ケーニッヒ英語版により洗練され、1872年ケーニッヒの装置の実演が行われた。[36] ハーモニック・アディティブ・シンセシスに関し、ケーニッヒは彼の音波サイレン(wave siren)に基づく大型装置も製作した。この装置は空気圧式で、切断したトーンホイールを使っていたが、パーシャルの正弦波精度が低い点を批評された。[30] なお19世紀末に登場したシアター・オルガン英語版Tibiaパイプは正弦波に近い音波を発生でき、アディティブ・シンセシスと同様な方法で組み合わせる事ができる。[30]

アディティブとサブトラクティブ

[編集]

1938年ポピュラーサイエンス誌で、人間の声帯は消防サイレンのように機能して、倍音に富んだ音色を生成し、その音色は声道でフィルタリングされ、異なる母音の音色が生成される、とする説が新しい重要な証拠と共に[37]報じられた。[38](関連:ソース・フィルタモデル)既に当時、アディティブ方式のハモンドオルガン(トーンホイールによる電気機械式実装)が市販されていた。しかし初期の電子オルガン・メーカの大多数は、大量のオシレータを要するアディティブ方式オルガンの製造は高価過ぎると判断し、代わりにサブトラクティブ方式オルガンの製造を開始した。[39] 1940年無線学会(IRE)の会議でハモンドのフィールド・エンジニア長は、従来の「音波を組合せて最終的な音色を組み上げる[注釈 5]ハモンドオルガンとは対照的な、「サブトラクティブ・システム」を採用した同社の新製品ノヴァコードについて詳しい説明を行った。[40]

Alan Douglasは1948年のRoyal Musical Associationの論文で、異なる方式の電子オルガンを説明するために修飾子「アディティブ」と「サブトラクティブ」を使った。[41] 現代的な用法のアディティブ・シンセシスサブトラクティブ・シンセシスという用語は、彼の1957年著作“The electrical production of music”に登場しており、音色生成の3つの手法が次の3つの章に示されている:[42]

  • アディティブ・シンセシス(additive synthesis
  • サブトラクティブ・シンセシス(subtractive synthesis
  • 他の形態の組合せ(Other forms of combinations

現代のアディティブ・シンセサイザーは典型的に、出力を電気アナログ信号やデジタルオーディオの形で生成する。後者の例には2000年前後に一般化したソフトウェア・シンセサイザーが含まれる。[43]

年表

[編集]

以下に、歴史的もしくは技術的に注目に値するアディティブ・シンセシスの実装例(電気/アナログ/デジタル式のシンセサイザーやデバイス)を年表形式で示す。

初期実装 商用化 組織 名称 概要 サンプル
1900[44] 1906[44] New England Electric Music Company Telharmonium ポリフォニックかつタッチセンシティブな、最初のサウンド・シンセサイザー[45]
実装: 正弦波加算合成。トーンホイールオルタネーターを使用。
発明者:Thaddeus Cahill
no known recordings[44]
1933[46] 1935[46] Hammond Organ Company ハモンドオルガン Telharmoniumと同様な方式で大きな商業的成功を収めた、電気楽器式アディティブ・シンセサイザー[45]
実装:正弦波加算合成。トーンホイールマグネティック・ピックアップを使用。
発明者Laurens Hammond
Model A
1950 or earlier [20]   Haskins Laboratories Pattern Playback スピーチ・シンセサイザー

実装:ハーモニック・パーシャル(整数次倍音)の振幅を、手描きまたは分析で得たスペクトログラムで制御。各パーシャル(部分音)は、マルチトラックの光学式トーンホイールで生成。[20]

samples
1958[47]     ANS 微分音(マイクロトーナル)を扱う光学-電子式アディティブ・シンセサイザー[48]

実装:マルチトラックの光学式トーンホイールで、マイクロトーナル・パーシャル列(微分音列)を帯状の光源として生成。黒い樹脂を塗布したガラス表面を引掻いて作成したマイクロトーナル・スコア(スペクトログラム類似)を、時間軸方向に光電管でスキャンして音を合成。
発明者Evgeny Murzin
関連:1959年Hugh Le Caineが、電子音源Oscillator Bank と入力デバイス Spectrogramから成る同様な楽器を開発。[49][50]

2009年デモ
1963[51]   MIT   楽器音色をアタック[要曖昧さ回避]部と定常部に分け、デジタルで スペクトル分析/再合成 を行うオフライン処理システム

発明者:David Luce[51]

 
1964[52]   イリノイ大学 Harmonic Tone Generator 電圧制御式電子回路によるハーモニック・アディティブ・シンセシスのシステム

発明者:James Beauchamp.[52][53]

samples (info)
1974 or earlier [54][55] 1974 [54][55] RMI Harmonic Synthesizer デジタル・オシレータを使いアディティブ・シンセシス[56]を実装した最初のシンセサイザー製品、[54][55] 時間変化するアナログ・フィルタも備えている[54]

関連: RMIの親会社Allen Organ Companyは1971年、North American Rockwellが開発したデジタル・オルガン技術に基づき、世界最初の教会用デジタル・オルガン製品 Allen Computer Organを発売した。[57]

1 2 3 4
1974[58]   EMS (London) Digital Oscillator Bank ミニコン制御でデジタル式の 分析/再合成楽器(チャンネル・ヴォコーダ類似)

実装:複数のデジタル・オシレータの組(バンク)。任意波形を利用可能、周波数と振幅を個々に制御可能。[59] EMS製作のデジタル式Analysis Filter Bank (AFB)と組み合わせ、分析/再合成に使用。[58][59]
別名DOB.

in The New Sound of Music[60]
1976[61] 1976[62] Fairlight Qasar M8 完全デジタル処理のシンセサイザー、高速フーリエ変換を使用[63]

実装: 各ハーモニクスの振幅エンベロープを、画面にライトペンで描き、高速フーリエ変換でサンプリング・データを生成[64]

samples
1977[65] (1980) [66] ベル研究所 Digital Synthesizer リアルタイム計算によるデジタル・アディティブ・シンセサイザー、[65] 「最初の真のデジタル・シンセサイザー」と呼ばれている[67]

別名Alles Machine, Alice.
関連:Music TechnologiesがCrumarと提携し、1980年Crumar GDS として製品化。

sample (info)
1979[67] 1979[67] New England Digital Synclavier II デジタル・シンセサイザー製品

実装:アディティブ・シンセシスで生成した複数の波形を、クロスフェードでスムースに切り替えて音色の時間発展を実現。

(File:Jon_Appleton_-_Sashasonjon.oga)

離散表現

[編集]

アディティブ・シンセシスのデジタル実装では、これまで扱ってきた連続時間の式(連続時間形式)の代わりに、離散時間の式(離散時間形式)を用いる。

連続時間形式(3)を出発点とする:

連続時間形式を書き換えて離散時間形式を得るために、下記の置換を使う:

時刻:     
出力:    
振幅:   
瞬時周波数: [注釈 6]
瞬時位相: 
 

すると次の離散時間形式が得られる:

ここで の差分より

である。[27]

脚注

[編集]

注釈

[編集]
  1. ^ Papoulis 1977, p. 184の は帯域制限幅に相当し、Kwakernaak & Sivan 1991, p. 613-614に見られるように、しばしば基本周波数 を基準に用いる。
  2. ^ 振幅エンベロープ(瞬時振幅)の周波数スペクトル(振幅スペクトル)は、振幅変調を介して信号スペクトルに以下の形で寄与する:
    :元信号の次パーシャル成分の周波数
    :瞬時振幅の次パーシャル成分の周波数
    例えばオルガンのように急激なon/offを伴う振幅スペクトルは、矩形波と同様な幅広い周波数成分を含み、結果的にon/off時にクリック音が発生する。これを防ぐには、振幅スペクトルの可聴帯域への寄与が等ラウドネス曲線上で目立たなくなるよう、例えば振幅スペクトルを数十Hz以下に帯域制限し、結果的に形状が鈍った振幅エンベロープを使う事になる。なおこの方法では鋭いアタックを持つ音を実現できないので、必要に応じアタック部に過渡モデルを併用する事になる。(関連:Smith III 2011, Sines + Noise + Transients Models
  3. ^ 直感的説明:波の伝播速度に基づく周波数の定義 は、単位時間に波が距離伝播し、その区間に波長の波が周期分並ぶ事を意味する。この式が与えるは単位時間内の平均周波数(より正確には瞬時周波数の定積分)と解釈できる。 ここで波の表式をとすると、瞬時位相(余弦関数の偏角)はで与えられ、は下記のように差分形式で表現できる:
    上記式で周波数を瞬時周波数に置き換え、極限をとると、瞬時周波数と瞬時位相の関係式が導かれる:
    上記関係式より、周波数が時間発展する波の表式は、瞬時周波数を使い次のように表される:
  4. ^ 原文:“frequencies that evenly divide the transform period
  5. ^ 原文: “the final tones were built up by combining sound waves
  6. ^ 離散時間形式の瞬時周波数後退差分で計算される。

出典

[編集]
  1. ^ a b c Smith III 2011, Additive Synthesis (Early Sinusoidal Modeling), "The term “additive synthesis” refers to sound being formed by adding together many sinusoidal components ..."
  2. ^ Reid, Gordon (2000), “Synth Secrets, Part 14: An Introduction To Additive Synthesis”, Sound On Sound (Jun 2000), http://www.soundonsound.com/sos/jun00/articles/synthsec.htm 
  3. ^ Smith III & Serra 2005, Additive Synthesis
  4. ^ Papoulis, Athanasios (1977), Signal Analysis, USA: McGraw-Hill, p. 184, ISBN 9-780-0704-8460-3, "We shall say that a function f(t) is bandlimited if its Fourier transform is zero outside a finite interval (F(ω) = 0 for |ω| > σ) and its energy E is finite." 
  5. ^ Kwakernaak, Huibert; Sivan, Raphael (1991), Modern Signals and Systems: solutions manual with software, USA: Prentice Hall, pp. 613–614, ISBN 9-780-1380-9260-3 
  6. ^ Roads 1996, p. 134
  7. ^ a b Moore, F. Richard (1990), Elements of Computer Music, Prentice Hall, p. 16, ISBN 0-132-52552-6 
  8. ^ Roads 1996, p. 150–153
  9. ^ McAulay, R. J.; Quatieri, T. F. (Aug 1986), “Speech analysis/synthesis based on a sinusoidal representation”, IEEE Transactions on Acoustics, Speech, Signal Processing ASSP-34 (4): 744–754 
  10. ^ “McAulay-Quatieri Method”, Loris for Your Cough, CLEAR, Rice University, http://www.clear.rice.edu/elec301/Projects02/lorisFor/mqmethod2.html 
  11. ^ 鷲沢嘉一; 田中聡久 (2007), “経験的モード分解: チュートリアル”, 電子情報通信学会 第22回 信号処理シンポジウム: 135–140, http://www.sip.tuat.ac.jp/~tanaka/pdf/A7-1.pdf [リンク切れ]
  12. ^ Smith III & Serra 2005
  13. ^ Fitz, Kelly Raymond (1999), The Reassigned Bandwidth-Enhanced Method of Additive Synthesis, Dept. of Electrical and Computer Engineering, University of Illinois at Urbana-Champaign, CiteSeerx10.1.1.10.1130 
  14. ^ “Reassigned Bandwidth-Enhanced Method”, Loris for Your Cough, CLEAR, Rice University, http://www.clear.rice.edu/elec301/Projects02/lorisFor/bandwidth_enhanced2.html 
  15. ^ ARSS: The Analysis & Resynthesis Sound Spectrograph
  16. ^ SPEAR Sinusoidal Partial Editing Analysis and Resynthesis for MacOS X, MacOS 9 and Windows
  17. ^ Sinusoidal Modeling and Lemur, CERL Sound Group
  18. ^ Loris Software for Sound Modeling, Morphing, and Manipulation アーカイブ 2012年7月30日 - ウェイバックマシン, CERL Sound Group
  19. ^ SMSTools application for Windows
  20. ^ a b c Franklin S. Cooper, Alvin M. Liberman, John M. Borst (May 1951), “The interconversion of audible and visible patterns as a basis for research in the perception of speech”, Proc. Natl. Acad. Sci. U.S.A. 37 (5): 318–325, doi:10.1073/pnas.37.5.318, PMC 1063363, PMID 14834156, http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid=1063363 
  21. ^ Remez, R.E.; Rubin, P.E., Pisoni, D.B., & Carrell, T.D. (1981), “Speech perception without traditional speech cues”, Science (212): 947–950, http://people.ece.cornell.edu/land/courses/ece4760/Speech/remez_rubin_pisoni_carrell1981.pdf 
  22. ^ Rubin, P.E. (1980), “Sinewave Synthesis Instruction Manual (VAX)”, Internal memorandum (Haskins Laboratories, New Haven, CT), http://www.haskins.yale.edu/featured/sws/SWSmanual.pdf 
  23. ^ Bristow-Johnson, Robert (November 1996), Wavetable Synthesis 101, A Fundamental Perspective, オリジナルの2013年6月15日時点におけるアーカイブ。, https://web.archive.org/web/20130615202748/http://musicdsp.org/files/Wavetable-101.pdf 2012年12月21日閲覧。 
  24. ^ Smith III, Julius O. (2010), “Group Additive Synthesis”, Spectral Audio Signal Processing (March 2010 Draft ed.), CCRMA, Stanford University, オリジナルの2011-06-06時点におけるアーカイブ。, https://ccrma.stanford.edu/~jos/sasp/Group_Additive_Synthesis.html 
  25. ^ Kleczkowski, P. (1989), “Group additive synthesis”, Computer Music Journal 13 (1): 12–20 
  26. ^ Eaglestone, B.; Oates, S. (1990), “Analytical tools for group additive synthesis”, Proceedings of the 1990 International Computer Music Conference, Glasgow (Computer Music Association), http://quod.lib.umich.edu/cgi/p/pod/dod-idx?c=icmc;idno=bbp2372.1990.015 
  27. ^ a b Rodet, X.; Depalle, P. (1992), “Spectral Envelopes and Inverse FFT Synthesis”, Proceedings of the 93rd Audio Engineering Society Convention, doi:10.1.1.43.4818 
  28. ^ Prestini, Elena (2004) [Rev. ed. of: Applicazioni dell'analisi armonica. Milan: Ulrico Hoepli, 1996], The Evolution of Applied Harmonic Analysis: Models of the Real World, trans., New York, USA: Birkhäuser Boston, pp. 114–115, ISBN 0-8176-4125-4, https://books.google.fi/books?id=fye--TBu4T0C 
  29. ^ Fourier, Jean Baptiste Joseph (1822) (フランス語), Théorie analytique de la chaleur [The Analytical Theory of Heat], Paris, France: Chez Firmin Didot, père et fils, https://archive.org/details/thorieanalytiqu00fourgoog 
  30. ^ a b c Miller, Dayton Clarence (1926) [First published 1916], The Science Of Musical Sounds, New York: The Macmillan Company, pp. 110, 244–248, https://archive.org/details/scienceofmusical028670mbp 
  31. ^ The London, Edinburgh and Dublin philosophical magazine and journal of science (Taylor & Francis) 49: 490, (1875) 
  32. ^ Thomson, Sir W. (1878), “Harmonic analyzer”, Proceedings of the Royal Society of London (Taylor and Francis) 27: 371–373, JSTOR 113690, https://jstor.org/stable/113690 
  33. ^ a b c Cahan, David (1993), Cahan, David, ed., Hermann von Helmholtz and the foundations of nineteenth-century science, Berkeley and Los Angeles, USA: University of California Press, pp. 110–114, 285–286, ISBN 978-0-520-08334-9, https://books.google.fi/books?id=lfdJNRgzKyUC 
  34. ^ Helmholtz, Hermann von (1863) (ドイツ語), Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik [On the sensations of tone as a physiological basis for the theory of music] (1st ed.), Leipzig: Leopold Voss, pp. v, http://vlp.mpiwg-berlin.mpg.de/library/data/lit3483/index_html?pn=1&ws=1.5 
  35. ^ a b Christensen, Thomas Street (2002), The Cambridge History of Western Music, Cambridge, United Kingdom: Cambridge University Press, pp. 251, 258, ISBN 0-521-62371-5, https://books.google.fi/books?id=ioa9uW2t7AQC 
  36. ^ a b c Helmholtz, Hermann von (1875), On the sensations of tone as a physiological basis for the theory of music, London, United Kingdom: Longmans, Green, and co., pp. xii, 175–179, https://archive.org/details/onsensationston00helmgoog 
  37. ^ Russell, George Oscar (1936), Carnegie Institution of Washington: Year Book, 35, Washington: Carnegie Institution of Washington, pp. 359–363, https://archive.org/details/yearbookcarne35193536carn 
  38. ^ Lodge, John E. (April, 1938), Brown, Raymond J., ed., “Odd Laboratory Tests Show Us How We Speak: Using X Rays, Fast Movie Cameras, and Cathode-Ray Tubes, Scientists Are Learning New Facts About the Human Voice and Developing Teaching Methods To Make Us Better Talkers”, Popular Science Monthly (New York, USA: Popular Science Publishing) 132 (4): 32–33, https://books.google.fi/books?id=wigDAAAAMBAJ&pg=PA32 
  39. ^ Comerford, P. (1993), “Simulating an Organ with Additive Synthesis”, Computer Music Journal 17 (2): 55–65., doi:10.2307/3680869, JSTOR 3680869, https://jstor.org/stable/3680869 
  40. ^ “Institute News and Radio Notes”, Proceedings of the IRE 28 (10): 487–494, (Oct. 1940), doi:10.1109/JRPROC.1940.228904 
  41. ^ Douglas, A. (1948), “Electrotonic Music”, Proceedings of the Royal Musical Association 75: 1–12, doi:10.1093/jrma/75.1.1, JSTOR 765906, https://jstor.org/stable/765906 
  42. ^ Douglas, Alan Lockhart Monteith (1957), The Electrical Production of Music, London, UK: Macdonald, pp. 140, 142, https://archive.org/details/electricalproduc00doug 
  43. ^ Pejrolo, Andrea; DeRosa, Rich (2007), Acoustic and MIDI orchestration for the contemporary composer, Oxford, UK: Elsevier, pp. 53–54 
  44. ^ a b c Weidenaar, Reynold (1995), Magic Music from the Telharmonium, Lanham, MD: Scarecrow Press, ISBN 0-8108-2692-5 
  45. ^ a b Moog, Robert A. (October/November 1977), “Electronic Music”, Journal of the Audio Engineering Society (JAES) 25 (10/11): 856 
  46. ^ a b Olsen, Harvey (14 December 2011), Brown, Darren T., ed., “Leslie Speakers and Hammond organs: Rumors, Myths, Facts, and Lore”, The Hammond Zone (Hammond Organ in the U.K.), オリジナルの2012年9月1日時点におけるアーカイブ。, https://web.archive.org/web/20120901005950/http://hammond-organ.com/History/hammond_lore.htm 2012年12月21日閲覧。 
  47. ^ Holzer, Derek (22 February 2010), TONEWHEELS - A brief history of optical synthesis, http://www.umatic.nl/tonewheels_historical.html 
  48. ^ Vail, Mark (2002), “Eugeniy Murzin's ANS — Additive Russian synthesizer”, Keyboard Magazine (November 1, 2002): 120, http://business.highbeam.com/137494/article-1G1-98932350/eugeniy-murzin-ans-additive-russian-synthesizer [リンク切れ]
  49. ^ Young, Gayle, “Oscillator Bank (1959)”, Hugh Le Caine - An Inventor's Notebook, http://www.hughlecaine.com/en/oscbank.html 
  50. ^ Young, Gayle, “Spectrogram (1959)”, Hugh Le Caine - An Inventor's Notebook, http://www.hughlecaine.com/en/spectro.html 
  51. ^ a b Luce, David Alan (1963), Physical correlates of nonpercussive musical instrument tones, Cambridge, Massachusetts, U.S.A.: Massachusetts Institute of Technology, hdl:1721.1/27450 
  52. ^ a b Beauchamp, James (17 November 2009), “The Harmonic Tone Generator: One of the First Analog Voltage-Controlled Synthesizers”, Prof. James W. Beauchamp Home Page, オリジナルの2012年3月22日時点におけるアーカイブ。, https://web.archive.org/web/20120322191551/http://ems.music.uiuc.edu/beaucham/htg.html 2012年12月21日閲覧。 
  53. ^ Beauchamp, James W. (October 1966), “Additive Synthesis of Harmonic Musical Tones”, Journal of the Audio Engineering Society 14 (4): 332–342, http://www.aes.org/e-lib/browse.cfm?elib=1129 
  54. ^ a b c d “RMI Harmonic Synthesizer”, Synthmuseum.com, オリジナルの2011年6月9日時点におけるアーカイブ。, https://web.archive.org/web/20110609205852/http://www.synthmuseum.com/rmi/rmihar01.html 
  55. ^ a b c Reid, Gordon (2011), “PROG SPAWN! The Rise And Fall Of Rocky Mount Instruments (Retro)”, Sound On Sound (Dec 2001), オリジナルの2011年12月25日時点におけるアーカイブ。, https://web.archive.org/web/20111225162843/http://www.soundonsound.com/sos/dec01/articles/retrozone1201.asp 
  56. ^ Flint, Tom (2008), “Jean Michel Jarre: 30 Years Of Oxygene”, Sound On Sound (Feb 2008), http://www.soundonsound.com/sos/feb08/articles/jmjarre.htm 
  57. ^ Thomas Derdak, ed. (2000), Allen Organ Company, “International Directory of Company Histories”, Gale virtual reference library (St. James Press) 33: pp. 26–28, ISBN 9-781-5586-2392-7, http://www.fundinguniverse.com/company-histories/Allen-Organ-company-company-History.html 
  58. ^ a b Cosimi, Enrico (20 May 2009), “EMS Story - Prima Parte” (イタリア語), Audio Accordo.it, http://audio.accordo.it/articles/2009/05/23828/ems-story-prima-parte.html 
  59. ^ a b Hinton, Graham (2002), EMS: The Inside Story, Electronic Music Studios (Cornwall), http://www.ems-synthi.demon.co.uk/emsstory.html 
  60. ^ The New Sound of Music (TV), UK: BBC, (1979)  Includes a demonstration of DOB and AFB.
  61. ^ Leete, Norm (1999), “Fairlight Computer – Musical Instrument (Retro)”, Sound On Sound (Apr 1999), http://www.soundonsound.com/sos/apr99/articles/fairlight.htm 
  62. ^ Twyman, John (1 November 2004) (pdf), (inter)facing the music: The history of the Fairlight Computer Musical Instrument, Unit for the History and Philosophy of Science, University of Sydney, http://www.geosci.usyd.edu.au/users/john/thesis/thesis_web.pdf 
  63. ^ Street, Rita (8 November 2000), “Fairlight: A 25-year long fairytale”, Audio Media magazzine (IMAS Publishing UK), オリジナルの2003年10月8日時点におけるアーカイブ。, https://web.archive.org/web/20031008201831/http://www.audiomedia.com/archive/features/uk-1000/uk-1000-fairlight/uk-1000-fairlight.htm 
  64. ^ “QASAR M8” (JPG), Computer Music Journal (Fall 1978), オリジナルの2021-04-18時点におけるアーカイブ。, https://web.archive.org/web/20210418011034/http://egrefin.free.fr/images/Fairlight/CMJfall78.jpg 
  65. ^ a b Leider, Colby (2004), “The Development of the Modern DAW”, Digital Audio Workstation, McGraw-Hill, p. 58 
  66. ^ CRUMAR/DKI GDS System & Synergy, Synthony Music, オリジナルの1997年1月15日時点におけるアーカイブ。, https://web.archive.org/web/19970115154934/http://www.synthony.com/vintage/dkigds.html 2012年12月21日閲覧。 
  67. ^ a b c Chadabe, Joel (1997), Electric Sound, Upper Saddle River, N.J., U.S.A.: Prentice Hall, pp. 177–178, 186, ISBN 978-0-13-303231-4, http://www.pearsonhighered.com/educator/product/Electric-Sound-The-Past-and-Promise-of-Electronic-Music/9780133032314.page 

参考文献

[編集]

関連項目

[編集]

外部リンク

[編集]