音響信号処理 における加算合成 (かさんごうせい、英 : additive synthesis )は複数の純音 を重ね合わせ(加算 して)音響信号を合成 する、音声合成 の一種である[ 1] [ 2] 。アディティブ・シンセシス とも呼ばれる。対比される合成手法に減算合成 がある。
概要
音響信号は正弦波 の重ね合わせで表現できる。またヒトの聴覚 には可聴域 が存在するため聞こえる周波数に上限がある。このことは周期信号と聴覚上等価な合成音を正弦波の有限和で表現できることを示唆する(詳細: #理論的背景 )。
加算合成 は有限個の正弦波を加算 して音を合成 する手法の総称である。正弦波の周波数・振幅・位相を適切に設定することで多様な音を生成・再現できる。
実装としては事前計算した波形テーブル(ウェーブテーブル・シンセシス )や逆高速フーリエ変換 を活用できる。
合成要素となる個々の正弦波は部分音 (パーシャル )と呼ばれる。特に倍音はハーモニック ・パーシャル (調波)、非倍音はインハーモニック・パーシャル(非調波)と呼ばれる。
理論的背景
フーリエ級数 による方形波 の近似(最初の4項)音響信号は正弦波 の重ね合わせで表現できる(フーリエ変換 )。さらに信号が周期性を持っていれば、その信号は正弦波 の無限和で(積分せずに)表現できる(フーリエ級数 )。
y
(
t
)
=
r
0
+
r
1
cos
(
2
π
f
o
t
)
+
⋯
+
r
k
cos
(
2
π
k
f
o
t
)
+
⋯
{\displaystyle y(t)=r_{0}+r_{1}\cos(2\pi f_{o}t)+\cdots +r_{k}\cos(2\pi kf_{o}t)+\cdots }
また、ヒトには知覚可能な周波数範囲(可聴域 )が存在する。標準的には15kHzが上限でありそれ以上の音を聞き取ることができない。これは信号から可聴域外の成分を取り除いても聴覚上の差がない(=等価である)ことを意味する。
この2つの事実は、ある周期的な音響信号と聴覚上等価な信号を正弦波の有限和 で表現できることを示唆する。なぜなら正弦波の無限和に含まれる15kHz以上の正弦波成分を除いても聴覚上等価な信号が構成でき、それは有限個の正弦波の和を意味するからである。
手法
加算合成は有限個の正弦波を加算して音を合成する手法の総称である。パラメータの時変性や周波数制約に基づき、様々なタイプの加算合成が存在する。
以下、各部分音のインデックスを
k
{\displaystyle k}
、初期位相を
ϕ
k
{\displaystyle \phi _{k}}
、部分音の総数を
K
{\displaystyle K}
、合成音を
y
(
t
)
{\displaystyle y(t)}
とする。各部分音において周波数を
f
k
{\displaystyle f_{k}}
、振幅を
r
k
{\displaystyle r_{k}}
とし、これが時変の場合は瞬時周波数
f
k
(
t
)
{\displaystyle f_{k}(t)\,}
、瞬時振幅
r
k
(
t
)
{\displaystyle r_{k}(t)}
を用いる。
次の表は様々な制約をもった加算合成を表現する式の一覧である。各手法は以降の節で詳説されている。
表. 制約付き加算合成
時変振幅 (AM )
時変周波数 (FM )
調波構造
合成式
-
-
-
y
(
t
)
=
∑
k
=
1
K
r
k
cos
(
2
π
f
k
t
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}\cos \left(2\pi f_{k}t+\phi _{k}\right)}
✔
-
-
y
(
t
)
=
∑
k
=
1
K
r
k
(
t
)
cos
(
2
π
f
k
t
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}(t)\cos \left(2\pi f_{k}t+\phi _{k}\right)}
-
✔
-
y
(
t
)
=
∑
k
=
1
K
r
k
cos
(
2
π
∫
0
t
f
k
(
u
)
d
u
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}\cos \left(2\pi \int _{0}^{t}f_{k}(u)du+\phi _{k}\right)}
✔
✔
-
y
(
t
)
=
∑
k
=
1
K
r
k
(
t
)
cos
(
2
π
∫
0
t
f
k
(
u
)
d
u
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}(t)\cos \left(2\pi \int _{0}^{t}f_{k}(u)\ du+\phi _{k}\right)}
✔
✔
✔
y
(
t
)
=
∑
k
=
1
K
r
k
(
t
)
cos
(
2
π
∫
0
t
k
f
o
(
u
)
d
u
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}(t)\cos \left(2\pi \int _{0}^{t}kf_{o}(u)\ du+\phi _{k}\right)}
時不変
時不変加算合成器の構成 定周波数・振幅の正弦波が生成(〜)、加算(+)されて合成音となる。単純な加算合成では単一合成区間内で周波数と振幅を固定する(時不変)。この方式は次のように定義される[ 3] :
y
(
t
)
=
∑
k
=
1
K
r
k
cos
(
2
π
f
k
t
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}\cos \left(2\pi f_{k}t+\phi _{k}\right)}
時変振幅
振幅が時間変化するハーモニック・アディティブ・シンセシスの例 (基本周波数 f0 = 440 Hz) 振幅を時間に応じて変化させる場合(c.f. 振幅変調 )、次のように定義される:
y
(
t
)
=
∑
k
=
1
K
r
k
(
t
)
cos
(
2
π
f
k
t
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}(t)\cos \left(2\pi f_{k}t+\phi _{k}\right)}
帯域制限(band-limited signal)の観点から、
r
k
(
t
)
{\displaystyle r_{k}(t)\,}
の変化は振幅変調による帯域の広がり
Δ
f
r
k
(
t
)
{\displaystyle \Delta f_{r_{k}}(t)\,}
が 隣接部分音間の周波数間隔より有意に小さくなるよう[ 4] [ 5] [ 注釈 1] 、充分ゆっくりした速度で変化させる必要がある[ 1] [ 注釈 2] 。すなわち次の制約を留意する必要がある。
d
d
t
r
k
(
t
)
|
r
k
|
∝
Δ
f
r
k
(
t
)
≪
|
f
k
−
f
k
−
1
|
{\displaystyle {\frac {d}{dt}}{\frac {r_{k}(t)}{|r_{k}|}}\propto \Delta f_{r_{k}}(t)\ll |f_{k}-f_{k-1}|}
時変周波数
周波数を時間に応じて変化させる場合(c.f. 周波数変調 )、次のように定義される[ 注釈 3] :
y
(
t
)
=
∑
k
=
1
K
r
k
cos
(
2
π
∫
0
t
f
k
(
u
)
d
u
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}\cos \left(2\pi \int _{0}^{t}f_{k}(u)du+\phi _{k}\right)}
振幅と周波数の両方が時間変化するインハーモニック・アディティブ・シンセシスの例
時変振幅・時変周波数
最も一般化された加算合成は次のように定義される:
y
(
t
)
=
∑
k
=
1
K
r
k
(
t
)
cos
(
2
π
∫
0
t
f
k
(
u
)
d
u
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}(t)\cos \left(2\pi \int _{0}^{t}f_{k}(u)du+\phi _{k}\right)}
調波加算合成
自然界に存在する多くの音は調波構造 を有している。すなわち基本周波数
f
o
{\displaystyle f_{o}}
成分(基音)とその整数倍成分(倍音 )を多分に含んでいる。このことに注目し、部分音として基音および倍音のみを加算して音を合成する手法を調波加算合成 (ハーモニック・アディティブ・シンセシス)という。
時不変振幅・周波数を用いた調波加算合成は次のように定義される:
y
(
t
)
=
∑
k
=
1
K
r
k
cos
(
2
π
k
f
o
t
+
ϕ
k
)
{\displaystyle y(t)=\sum _{k=1}^{K}r_{k}\cos \left(2\pi kf_{o}t+\phi _{k}\right)}
周波数が
k
f
o
{\displaystyle kf_{o}}
で定義されるため、部分音#k はk次倍音(k=1なら基音)に相当する。
広義の定義
「アディティブ・シンセシス 」という用語は広義に、正弦波ベースか否かを問わず「単純な基本要素を足し合わせて複雑な音色を合成する」タイプのサウンド・シンセシス手法全般を指す包括的用語として使われる事がある。[ 6] [ 7] 例えば F. Richard Mooreはサウンド・シンセシスの「四つの基本カテゴリー」として、アディティブ・シンセシスを他の三つと共に挙げている。[ 7]
この広義の意味で、正弦波以外の音色(パイプやストップ)を組み合わせるパイプオルガン や電子オルガン も広義のアディティブ・シンセサイザーと見なせる。また主成分 (変量間の相関行列の固有値分解で得られる合成基底)やウォルシュ関数 (英語版 ) (Walsh-Hadamard変換 の基底関数)の総和による音響合成も、広義のアディティブ・シンセシスに分類できる。[ 8]
加算分析/再合成
音声信号の分析により周波数・振幅・位相が得られれば、これを加算合成に用いて音声を再構築できる。分析 と合成 を一体で捉えた音声処理を音声分析合成 という。合成部に加算合成を用いる場合、分析部に用いられる手法の例として帯域通過フィルタバンク 、短時間フーリエ変換 (McAulay-Quatieriアナリシス [ 9] [ 10] )、経験的モード分解 [ 11] が挙げられる。
合成部に加算合成を用いる具体的な手法としては以下が一例に挙げられる。
Sinusoidal Modeling [ 12] — 正弦波の総和による調波合成モデル
Reassigned Bandwidth-Enhanced Additive Sound Model[ 13] [ 14] — McAuley-Quatieriアルゴリズムのノイズ耐性改善のために、Bandwidth-enhanced Oscillatorを導入したSinusoidal Model。
またソフトウェア実装には下記がある:
応用例
楽器
アディティブ・シンセシスは、ハモンド・オルガン や、シンセサイザー 、電子楽器 に応用されている。
音声合成
音声波形とスペクトログラム(下): 赤点列は5つのフォルマント周波数、 下側水色カーブは基底周波数(ピッチ)
言語学 の研究では1950年代初頭より、合成あるいは変更した音声スペクトログラム の再生にハーモニック・アディティブ・シンセシスが使用されている。[ 20] 1980年代初頭には、音声の音響的手がかり(acoustic cues)の意義を評価するために、それらを取り去った合成音声の聴取テストが行われた。[ 21] また線形予測符号 で抽出したフォルマント 周波数と振幅の時系列を使う音声合成手法の一つ sinewave synthesis は、インハーモニックな正弦波パーシャルの加算合成を行う。[ 22] (関連:Sinusoidal Modeling )
実装方式
今日のアディティブ・シンセシス実装系は、主にデジタル処理で実装されている(#離散表現 参照)。
オシレータ・バンク
アディティブ・シンセシスは、各パーシャルに対応して正弦波オシレータを複数用意したオシレータ・バンクで実装できる[ 1] (記事冒頭の図参照)。
ウェーブテーブル・シンセシス
楽音がハーモニックで準周期的な場合、ウェーブテーブル・シンセシスは時間発展のあるアディティブ・シンセシスと同様な一般性を備え、しかも合成に必要な計算量は少なくて済む。[ 23] 従って、ハーモニックな音色合成のための時間発展のあるアディティブ・シンセシスは、ウェーブテーブル・シンセシスで効率的に実装できる。
グループ・アディティブ・シンセシス (Group additive synthesis)[ 24] [ 25] [ 26] は、各パーシャルを基本周波数の異なるハーモニック・グループに分け、各グループ個別にウェーブテーブル・シンセシスで合成後、ミックスして結果を得る手法である。
逆高速フーリエ変換
逆高速フーリエ変換 は、変換周期を均等分割した 周波数[ 注釈 4] に関する(加算)合成を効率的に行える。また、離散フーリエ変換 の周波数領域表現を注意深く考慮すれば、複数の逆高速フーリエ変換結果をオーバーラップさせた列を使って、任意周波数の正弦波による(加算)合成を効率的に行える。[ 27]
歴史的背景
調和解析
調和解析 は、1822年フランスの数学者ジョゼフ・フーリエ [ 28] が熱伝導 の文脈で彼の研究に関する広範な論文を発表して、研究が端緒に付いた。[ 29] この理論の初期の応用には、潮の干満の予測 がある。1876年頃、[ 30] ケルビン卿ことウィリアム・トムソン は機械式の潮汐予測機(Tide-predicting machine )を構築した。この装置はharmonic analyzer とharmonic synthesizer で構成され、それらは19世紀に既に前述の名で呼ばれていた。[ 31] [ 32] 潮汐の測定値は、ケルビン卿の兄ジェームズ・トムソン の積分機 (integrating machine )を使い分析された。結果として得られたフーリエ係数 は、紐と滑車のシステムを使ったsynthesizerに入力され、将来の潮汐の予測のための正弦波基底の調和部分波が生成され足し合わされた。同様な装置は1910年にも、音の周期波形の解析を目的として構築された。[ 33] この装置のsynthesizer部は合成波形をグラフに描画し、それは主に解析結果の視覚的検証に使用された。[ 33]
フーリエ理論の音への応用
フーリエ理論の音への応用は、1843年ゲオルク・オーム によって行われた。この系統の研究はヘルマン・フォン・ヘルムホルツ により大きな進歩を遂げ、彼は8年間の成果を1863年出版した。[ 34] 彼は、音色の心理的知覚は学習によるものだが、官能的感覚は純粋に生理的なものだと信じていた。[ 35] また彼は、音の知覚は基底膜の神経細胞からの信号に由来し、これら細胞の弾性付属物は適切な周波数の純粋な正弦波トーンに共鳴振動する、という考えを支持した。[ 33] この他ヘルムホルツは、ある種の音源はインハーモニック(基底周波数の非整数倍)な振動モードを含むとする エルンスト・クラドニ の1787年の発見に同意した。[ 35]
ヘルムホルツのサウンド・シンセサイザー
ヘルムホルツの時代、電子的な音響増幅手段(アンプ) はまだ存在しなかった。ヘルムホルツは、ハーモニック・パーシャルに基づく音色合成(ハーモニック・アディティブ・シンセシス)を目的として、パーシャル生成用の電磁石励起式 の音叉 と、音量調整用のアコースティックな共鳴チャンバー (ヘルムホルツ・レゾネータ ) の組を並べた装置を製作した。[ 36] 製作は少なくとも1862年という早い時期に行われ、[ 36] 次にルドルフ・ケーニッヒ (英語版 ) により洗練され、1872年ケーニッヒの装置の実演が行われた。[ 36] ハーモニック・アディティブ・シンセシスに関し、ケーニッヒは彼の音波サイレン (wave siren)に基づく大型装置も製作した。この装置は空気圧式で、切断したトーンホイールを使っていたが、パーシャルの正弦波精度が低い点を批評された。[ 30] なお19世紀末に登場したシアター・オルガン (英語版 ) のTibia パイプは正弦波に近い音波を発生でき、アディティブ・シンセシスと同様な方法で組み合わせる事ができる。[ 30]
アディティブとサブトラクティブ
1938年ポピュラーサイエンス 誌で、人間の声帯は消防サイレンのように機能して、倍音に富んだ音色を生成し、その音色は声道でフィルタリングされ、異なる母音の音色が生成される、とする説が新しい重要な証拠と共に[ 37] 報じられた。[ 38] (関連:ソース・フィルタモデル )既に当時、アディティブ方式のハモンドオルガン(トーンホイールによる電気機械式実装)が市販されていた。しかし初期の電子オルガン・メーカの大多数は、大量のオシレータを要するアディティブ方式オルガンの製造は高価過ぎると判断し、代わりにサブトラクティブ 方式オルガンの製造を開始した。[ 39] 1940年無線学会 (IRE)の会議でハモンド のフィールド・エンジニア長は、従来の「音波を組合せて最終的な音色を組み上げる 」[ 注釈 5] ハモンドオルガンとは対照的な、「サブトラクティブ・システム 」を採用した同社の新製品ノヴァコード について詳しい説明を行った。[ 40]
Alan Douglasは1948年のRoyal Musical Association の論文で、異なる方式の電子オルガンを説明するために修飾子「アディティブ 」と「サブトラクティブ 」を使った。[ 41] 現代的な用法のアディティブ・シンセシス 、サブトラクティブ・シンセシス という用語は、彼の1957年著作“The electrical production of music ”に登場しており、音色生成の3つの手法が次の3つの章に示されている:[ 42]
アディティブ・シンセシス(additive synthesis )
サブトラクティブ・シンセシス(subtractive synthesis )
他の形態の組合せ(Other forms of combinations )
現代のアディティブ・シンセサイザーは典型的に、出力を電気 的アナログ 信号やデジタルオーディオ の形で生成する。後者の例には2000年前後に一般化したソフトウェア・シンセサイザー が含まれる。[ 43]
年表
以下に、歴史的もしくは技術的に注目に値するアディティブ・シンセシスの実装例(電気/アナログ/デジタル式のシンセサイザーやデバイス)を年表形式で示す。
離散表現
アディティブ・シンセシスのデジタル実装では、これまで扱ってきた連続時間の式(連続時間形式)の代わりに、離散時間 の式(離散時間形式)を用いる。
連続時間形式(3 )を出発点とする:
y
(
t
)
=
∑
k
=
1
K
r
k
(
t
)
cos
(
2
π
∫
0
t
f
k
(
u
)
d
u
+
ϕ
k
)
=
∑
k
=
1
K
r
k
(
t
)
cos
(
θ
k
(
t
)
)
{\displaystyle {\begin{aligned}y(t)&=\sum _{k=1}^{K}r_{k}(t)\cos \left(2\pi \int _{0}^{t}f_{k}(u)\ du+\phi _{k}\right)\\&=\sum _{k=1}^{K}r_{k}(t)\cos(\theta _{k}(t))\end{aligned}}}
連続時間形式を書き換えて離散時間形式を得るために、下記の置換を使う:
時刻:
t
→
n
/
f
s
{\displaystyle t\ \to n/f_{\mathrm {s} }\,}
出力:
y
(
t
)
→
y
[
n
]
{\displaystyle y(t)\to y[n]\,}
振幅:
r
k
(
t
)
→
r
k
[
n
]
=
r
k
(
n
/
f
s
)
{\displaystyle r_{k}(t)\to r_{k}[n]=r_{k}(n/f_{\mathrm {s} })\,}
瞬時周波数:
f
k
(
t
)
→
f
k
[
n
]
=
∫
(
n
−
1
)
/
f
s
n
/
f
s
f
k
(
u
)
d
u
{\displaystyle f_{k}(t)\to f_{k}[n]=\int _{(n-1)/f_{\mathrm {s} }}^{n/f_{\mathrm {s} }}f_{k}(u)du\,}
[ 注釈 6]
瞬時位相:
θ
k
(
t
)
=
2
π
∫
0
t
f
k
(
u
)
d
u
+
ϕ
k
→
θ
k
[
n
]
=
2
π
f
s
∑
i
=
0
n
f
k
[
i
]
+
ϕ
k
{\displaystyle \theta _{k}(t)=2\pi \int _{0}^{t}f_{k}(u)du+\phi _{k}\ \to \ \theta _{k}[n]={\frac {2\pi }{f_{\mathrm {s} }}}\sum _{i=0}^{n}f_{k}[i]+\phi _{k}\,}
(
∵
d
t
=
d
n
/
f
s
)
{\displaystyle (\because dt=dn/f_{\mathrm {s} })\,}
すると次の離散時間形式が得られる:
y
[
n
]
=
∑
k
=
1
K
r
k
[
n
]
cos
(
2
π
f
s
∑
i
=
1
n
f
k
[
i
]
+
ϕ
k
)
=
∑
k
=
1
K
r
k
[
n
]
cos
(
θ
k
[
n
]
)
{\displaystyle {\begin{aligned}y[n]&=\sum _{k=1}^{K}r_{k}[n]\cos \left({\frac {2\pi }{f_{\mathrm {s} }}}\sum _{i=1}^{n}f_{k}[i]+\phi _{k}\right)\\&=\sum _{k=1}^{K}r_{k}[n]\cos \left(\theta _{k}[n]\right)\\\end{aligned}}}
ここで
θ
k
[
n
]
{\displaystyle \theta _{k}[n]\,}
の差分より
θ
k
[
n
]
=
θ
k
[
n
−
1
]
+
2
π
f
s
f
k
[
n
]
,
n
>
0
θ
k
[
0
]
=
ϕ
k
{\displaystyle {\begin{aligned}\theta _{k}[n]&=\theta _{k}[n-1]+{\frac {2\pi }{f_{\mathrm {s} }}}f_{k}[n]\ ,\quad n>0\\\theta _{k}[0]&=\phi _{k}\end{aligned}}}
である。[ 27]
脚注
注釈
^
Papoulis 1977 , p. 184の
σ
{\displaystyle \sigma \,}
は帯域制限幅に相当し、Kwakernaak & Sivan 1991 , p. 613-614に見られるように、しばしば基本周波数
ω
0
=
2
π
f
0
{\displaystyle \omega _{0}=2\pi f_{0}\,}
を基準に用いる。
^ 振幅エンベロープ(瞬時振幅)の周波数スペクトル(振幅スペクトル)は、振幅変調 を介して信号スペクトルに以下の形で寄与する:
f
c
[
k
]
±
f
m
[
κ
]
{\displaystyle f_{c}[k]\pm f_{m}[\kappa ]\,}
f
c
[
k
]
{\displaystyle f_{c}[k]\,}
:元信号の
k
{\displaystyle k\,}
次パーシャル成分の周波数
f
m
[
κ
]
{\displaystyle f_{m}[\kappa ]\,}
:瞬時振幅の
κ
{\displaystyle \kappa \,}
次パーシャル成分の周波数
例えばオルガンのように急激なon/offを伴う振幅スペクトルは、矩形波と同様な幅広い周波数成分を含み、結果的にon/off時にクリック音が発生する。これを防ぐには、振幅スペクトルの可聴帯域への寄与が等ラウドネス曲線 上で目立たなくなるよう、例えば振幅スペクトルを数十Hz以下に帯域制限し、結果的に形状が鈍った振幅エンベロープを使う事になる。なおこの方法では鋭いアタックを持つ音を実現できないので、必要に応じアタック部に過渡モデルを併用する事になる。(関連:Smith III 2011 , Sines + Noise + Transients Models )
^
直感的説明:波の伝播速度
v
{\displaystyle v\,}
に基づく周波数の定義
f
=
v
/
λ
{\displaystyle f=v/\lambda \,}
は、単位時間
Δ
t
=
1
{\displaystyle \Delta t=1\,}
に波が距離
v
{\displaystyle v\,}
伝播し、その区間に波長
λ
{\displaystyle \lambda \,}
の波が
f
{\displaystyle f\,}
周期分並ぶ事を意味する。この式が与える
f
{\displaystyle f\,}
は単位時間
Δ
t
{\displaystyle \Delta t\,}
内の平均周波数(より正確には瞬時周波数の定積分)と解釈できる。
ここで波の表式を
y
(
t
)
=
r
cos
(
2
π
f
⋅
t
+
ϕ
)
{\displaystyle y(t)=r\cos(2\pi f\cdot t+\phi )\,}
とすると、瞬時位相(余弦関数の偏角)は
θ
(
t
)
=
2
π
f
⋅
t
+
ϕ
{\displaystyle \theta (t)=2\pi f\cdot t+\phi \,}
で与えられ、
f
{\displaystyle f\,}
は下記のように差分形式で表現できる:
f
=
(
f
⋅
(
t
+
Δ
t
)
+
ϕ
/
2
π
)
−
(
f
⋅
t
+
ϕ
/
2
π
)
Δ
t
{\displaystyle {\begin{aligned}f&={\frac {(f\cdot (t+\Delta t)+\phi /2\pi )-(f\cdot t+\phi /2\pi )}{\Delta t}}\end{aligned}}}
上記式で周波数
f
{\displaystyle f\,}
を瞬時周波数
f
(
t
)
{\displaystyle f(t)\,}
に置き換え、極限
Δ
t
→
0
{\displaystyle \Delta t\to 0\,}
をとると、瞬時周波数
f
(
t
)
{\displaystyle f(t)\,}
と瞬時位相
θ
(
t
)
{\displaystyle \theta (t)\,}
の関係式が導かれる:
f
(
t
)
=
lim
Δ
t
→
0
(
f
(
t
+
Δ
t
)
⋅
(
t
+
Δ
t
)
+
ϕ
/
2
π
)
−
(
f
(
t
)
⋅
t
+
ϕ
/
2
π
)
Δ
t
=
d
(
f
(
t
)
⋅
t
+
ϕ
/
2
π
)
d
t
=
1
2
π
d
θ
(
t
)
d
t
{\displaystyle {\begin{aligned}f(t)&=\lim _{\Delta t\to 0}{\frac {(f(t+\Delta t)\cdot (t+\Delta t)+\phi /2\pi )-(f(t)\cdot t+\phi /2\pi )}{\Delta t}}\\&={\frac {d(f(t)\cdot t+\phi /2\pi )}{dt}}={\frac {1}{2\pi }}{\frac {d\theta (t)}{dt}}\end{aligned}}}
上記関係式より、周波数が時間発展する波の表式は、瞬時周波数を使い次のように表される:
y
(
t
)
=
r
cos
(
θ
(
t
)
)
=
r
cos
(
2
π
∫
−
∞
t
f
(
u
)
d
u
)
=
r
cos
(
2
π
∫
0
t
f
(
u
)
d
u
+
ϕ
)
{\displaystyle y(t)=r\cos(\theta (t))=r\cos \left(2\pi \int _{-\infty }^{t}f(u)du\right)=r\cos \left(2\pi \int _{0}^{t}f(u)du+\phi \right)}
^ 原文:“frequencies that evenly divide the transform period ”
^ 原文: “the final tones were built up by combining sound waves ”
^
離散時間形式の瞬時周波数
f
k
[
n
]
=
∫
(
n
−
1
)
/
f
s
n
/
f
s
f
k
(
u
)
d
u
{\displaystyle \textstyle {f_{k}[n]=\int _{(n-1)/f_{\mathrm {s} }}^{n/f_{\mathrm {s} }}f_{k}(u)du}\,}
は後退差分 で計算される。
出典
^ a b c Smith III 2011 , Additive Synthesis (Early Sinusoidal Modeling) ,
"The term “ additive synthesis” refers to sound being formed by adding together many sinusoidal components ... "
^
Reid, Gordon (2000), “Synth Secrets, Part 14: An Introduction To Additive Synthesis” , Sound On Sound (Jun 2000), http://www.soundonsound.com/sos/jun00/articles/synthsec.htm
^ Smith III & Serra 2005 , Additive Synthesis
^
Papoulis, Athanasios (1977), Signal Analysis , USA: McGraw-Hill, p. 184, ISBN 9-780-0704-8460-3 , "We shall say that a function f(t) is bandlimited if its Fourier transform is zero outside a finite interval (F(ω) = 0 for |ω| > σ ) and its energy E is finite. "
^
Kwakernaak, Huibert; Sivan, Raphael (1991), Modern Signals and Systems: solutions manual with software , USA: Prentice Hall, pp. 613–614, ISBN 9-780-1380-9260-3
^ Roads 1996 , p. 134
^ a b
Moore, F. Richard (1990), Elements of Computer Music , Prentice Hall, p. 16 , ISBN 0-132-52552-6
^ Roads 1996 , p. 150–153
^
McAulay, R. J.; Quatieri, T. F. (Aug 1986), “Speech analysis/synthesis based on a sinusoidal representation”, IEEE Transactions on Acoustics, Speech, Signal Processing ASSP-34 (4): 744–754
^
“McAulay-Quatieri Method” , Loris for Your Cough , CLEAR, Rice University, http://www.clear.rice.edu/elec301/Projects02/lorisFor/mqmethod2.html
^ 鷲沢嘉一; 田中聡久 (2007), “経験的モード分解: チュートリアル” , 電子情報通信学会 第22回 信号処理シンポジウム : 135–140, http://www.sip.tuat.ac.jp/~tanaka/pdf/A7-1.pdf [リンク切れ ]
^ Smith III & Serra 2005
^
Fitz, Kelly Raymond (1999), The Reassigned Bandwidth-Enhanced Method of Additive Synthesis , Dept. of Electrical and Computer Engineering, University of Illinois at Urbana-Champaign, CiteSeerx : 10.1.1.10.1130
^
“Reassigned Bandwidth-Enhanced Method” , Loris for Your Cough , CLEAR, Rice University, http://www.clear.rice.edu/elec301/Projects02/lorisFor/bandwidth_enhanced2.html
^ ARSS: The Analysis & Resynthesis Sound Spectrograph
^ SPEAR Sinusoidal Partial Editing Analysis and Resynthesis for MacOS X, MacOS 9 and Windows
^ Sinusoidal Modeling and Lemur , CERL Sound Group
^ Loris Software for Sound Modeling, Morphing, and Manipulation アーカイブ 2012年7月30日 - ウェイバックマシン , CERL Sound Group
^ SMSTools application for Windows
^ a b c
Franklin S. Cooper, Alvin M. Liberman, John M. Borst (May 1951), “The interconversion of audible and visible patterns as a basis for research in the perception of speech” , Proc. Natl. Acad. Sci. U.S.A. 37 (5): 318–325, doi :10.1073/pnas.37.5.318 , PMC 1063363 , PMID 14834156 , http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid=1063363
^
Remez, R.E.; Rubin, P.E., Pisoni, D.B., & Carrell, T.D. (1981), “Speech perception without traditional speech cues” , Science (212): 947–950, http://people.ece.cornell.edu/land/courses/ece4760/Speech/remez_rubin_pisoni_carrell1981.pdf
^
Rubin, P.E. (1980), “Sinewave Synthesis Instruction Manual (VAX)” , Internal memorandum (Haskins Laboratories, New Haven, CT), http://www.haskins.yale.edu/featured/sws/SWSmanual.pdf
^ Bristow-Johnson, Robert (November 1996), Wavetable Synthesis 101, A Fundamental Perspective , オリジナル の2013年6月15日時点におけるアーカイブ。, https://web.archive.org/web/20130615202748/http://musicdsp.org/files/Wavetable-101.pdf 2012年12月21日 閲覧。
^
Smith III, Julius O. (2010), “Group Additive Synthesis” , Spectral Audio Signal Processing (March 2010 Draft ed.), CCRMA, Stanford University, オリジナルの2011-06-06時点におけるアーカイブ。, https://ccrma.stanford.edu/~jos/sasp/Group_Additive_Synthesis.html
^
Kleczkowski, P. (1989), “Group additive synthesis”, Computer Music Journal 13 (1): 12–20
^
Eaglestone, B.; Oates, S. (1990), “Analytical tools for group additive synthesis” , Proceedings of the 1990 International Computer Music Conference, Glasgow (Computer Music Association), http://quod.lib.umich.edu/cgi/p/pod/dod-idx?c=icmc;idno=bbp2372.1990.015
^ a b
Rodet, X.; Depalle, P. (1992), “Spectral Envelopes and Inverse FFT Synthesis”, Proceedings of the 93rd Audio Engineering Society Convention , doi :10.1.1.43.4818
^
Prestini, Elena (2004) [Rev. ed. of: Applicazioni dell'analisi armonica. Milan: Ulrico Hoepli, 1996], The Evolution of Applied Harmonic Analysis: Models of the Real World , trans., New York, USA: Birkhäuser Boston, pp. 114–115, ISBN 0-8176-4125-4 , https://books.google.fi/books?id=fye--TBu4T0C
^
Fourier, Jean Baptiste Joseph (1822) (フランス語), Théorie analytique de la chaleur [The Analytical Theory of Heat] , Paris, France: Chez Firmin Didot, père et fils, https://archive.org/details/thorieanalytiqu00fourgoog
^ a b c
Miller, Dayton Clarence (1926) [First published 1916], The Science Of Musical Sounds , New York: The Macmillan Company, pp. 110, 244–248, https://archive.org/details/scienceofmusical028670mbp
^
The London, Edinburgh and Dublin philosophical magazine and journal of science (Taylor & Francis) 49 : 490, (1875)
^
Thomson, Sir W. (1878), “Harmonic analyzer” , Proceedings of the Royal Society of London (Taylor and Francis) 27 : 371–373, JSTOR 113690 , https://jstor.org/stable/113690
^ a b c
Cahan, David (1993), Cahan, David, ed., Hermann von Helmholtz and the foundations of nineteenth-century science , Berkeley and Los Angeles, USA: University of California Press, pp. 110–114, 285–286, ISBN 978-0-520-08334-9 , https://books.google.fi/books?id=lfdJNRgzKyUC
^
Helmholtz, Hermann von (1863) (ドイツ語), Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik [On the sensations of tone as a physiological basis for the theory of music] (1st ed.), Leipzig: Leopold Voss, pp. v, http://vlp.mpiwg-berlin.mpg.de/library/data/lit3483/index_html?pn=1&ws=1.5
^ a b
Christensen, Thomas Street (2002), The Cambridge History of Western Music , Cambridge, United Kingdom: Cambridge University Press, pp. 251, 258, ISBN 0-521-62371-5 , https://books.google.fi/books?id=ioa9uW2t7AQC
^ a b c
Helmholtz, Hermann von (1875), On the sensations of tone as a physiological basis for the theory of music , London, United Kingdom: Longmans, Green, and co., pp. xii, 175–179, https://archive.org/details/onsensationston00helmgoog
^
Russell, George Oscar (1936), Carnegie Institution of Washington: Year Book, 35 , Washington: Carnegie Institution of Washington, pp. 359–363, https://archive.org/details/yearbookcarne35193536carn
^
Lodge, John E. (April, 1938), Brown, Raymond J., ed., “Odd Laboratory Tests Show Us How We Speak: Using X Rays, Fast Movie Cameras, and Cathode-Ray Tubes, Scientists Are Learning New Facts About the Human Voice and Developing Teaching Methods To Make Us Better Talkers” , Popular Science Monthly (New York, USA: Popular Science Publishing) 132 (4): 32–33, https://books.google.fi/books?id=wigDAAAAMBAJ&pg=PA32
^
Comerford, P. (1993), “Simulating an Organ with Additive Synthesis” , Computer Music Journal 17 (2): 55–65., doi :10.2307/3680869 , JSTOR 3680869 , https://jstor.org/stable/3680869
^
“Institute News and Radio Notes”, Proceedings of the IRE 28 (10): 487–494, (Oct. 1940), doi :10.1109/JRPROC.1940.228904
^
Douglas, A. (1948), “Electrotonic Music” , Proceedings of the Royal Musical Association 75 : 1–12, doi :10.1093/jrma/75.1.1 , JSTOR 765906 , https://jstor.org/stable/765906
^
Douglas, Alan Lockhart Monteith (1957), The Electrical Production of Music , London, UK: Macdonald, pp. 140, 142, https://archive.org/details/electricalproduc00doug
^
Pejrolo, Andrea; DeRosa, Rich (2007), Acoustic and MIDI orchestration for the contemporary composer , Oxford, UK: Elsevier, pp. 53–54
^ a b c
Weidenaar, Reynold (1995), Magic Music from the Telharmonium , Lanham, MD: Scarecrow Press, ISBN 0-8108-2692-5
^ a b
Moog, Robert A. (October/November 1977), “Electronic Music”, Journal of the Audio Engineering Society (JAES) 25 (10/11): 856
^ a b Olsen, Harvey (14 December 2011), Brown, Darren T., ed., “Leslie Speakers and Hammond organs: Rumors, Myths, Facts, and Lore” , The Hammond Zone (Hammond Organ in the U.K.), オリジナル の2012年9月1日時点におけるアーカイブ。, https://web.archive.org/web/20120901005950/http://hammond-organ.com/History/hammond_lore.htm 2012年12月21日 閲覧。
^
Holzer, Derek (22 February 2010), TONEWHEELS - A brief history of optical synthesis , http://www.umatic.nl/tonewheels_historical.html
^ Vail, Mark (2002), “Eugeniy Murzin's ANS — Additive Russian synthesizer” , Keyboard Magazine (November 1, 2002): 120, http://business.highbeam.com/137494/article-1G1-98932350/eugeniy-murzin-ans-additive-russian-synthesizer [リンク切れ ]
^
Young, Gayle, “Oscillator Bank (1959)” , Hugh Le Caine - An Inventor's Notebook , http://www.hughlecaine.com/en/oscbank.html
^
Young, Gayle, “Spectrogram (1959)” , Hugh Le Caine - An Inventor's Notebook , http://www.hughlecaine.com/en/spectro.html
^ a b
Luce, David Alan (1963), Physical correlates of nonpercussive musical instrument tones , Cambridge, Massachusetts, U.S.A.: Massachusetts Institute of Technology, hdl :1721.1/27450
^ a b Beauchamp, James (17 November 2009), “The Harmonic Tone Generator: One of the First Analog Voltage-Controlled Synthesizers” , Prof. James W. Beauchamp Home Page , オリジナル の2012年3月22日時点におけるアーカイブ。, https://web.archive.org/web/20120322191551/http://ems.music.uiuc.edu/beaucham/htg.html 2012年12月21日 閲覧。
^
Beauchamp, James W. (October 1966), “Additive Synthesis of Harmonic Musical Tones” , Journal of the Audio Engineering Society 14 (4): 332–342, http://www.aes.org/e-lib/browse.cfm?elib=1129
^ a b c d “RMI Harmonic Synthesizer” , Synthmuseum.com , オリジナル の2011年6月9日時点におけるアーカイブ。, https://web.archive.org/web/20110609205852/http://www.synthmuseum.com/rmi/rmihar01.html
^ a b c Reid, Gordon (2011), “PROG SPAWN! The Rise And Fall Of Rocky Mount Instruments (Retro)” , Sound On Sound (Dec 2001), オリジナル の2011年12月25日時点におけるアーカイブ。, https://web.archive.org/web/20111225162843/http://www.soundonsound.com/sos/dec01/articles/retrozone1201.asp
^
Flint, Tom (2008), “Jean Michel Jarre: 30 Years Of Oxygene” , Sound On Sound (Feb 2008), http://www.soundonsound.com/sos/feb08/articles/jmjarre.htm
^
Thomas Derdak, ed. (2000), Allen Organ Company , “International Directory of Company Histories”, Gale virtual reference library (St. James Press) 33 : pp. 26–28 , ISBN 9-781-5586-2392-7 , http://www.fundinguniverse.com/company-histories/Allen-Organ-company-company-History.html
^ a b
Cosimi, Enrico (20 May 2009), “EMS Story - Prima Parte” (イタリア語), Audio Accordo.it , http://audio.accordo.it/articles/2009/05/23828/ems-story-prima-parte.html
^ a b
Hinton, Graham (2002), EMS: The Inside Story , Electronic Music Studios (Cornwall), http://www.ems-synthi.demon.co.uk/emsstory.html
^
The New Sound of Music (TV), UK: BBC, (1979) Includes a demonstration of DOB and AFB.
^
Leete, Norm (1999), “Fairlight Computer – Musical Instrument (Retro)” , Sound On Sound (Apr 1999), http://www.soundonsound.com/sos/apr99/articles/fairlight.htm
^
Twyman, John (1 November 2004) (pdf), (inter)facing the music: The history of the Fairlight Computer Musical Instrument , Unit for the History and Philosophy of Science, University of Sydney, http://www.geosci.usyd.edu.au/users/john/thesis/thesis_web.pdf
^ Street, Rita (8 November 2000), “Fairlight: A 25-year long fairytale” , Audio Media magazzine (IMAS Publishing UK), オリジナル の2003年10月8日時点におけるアーカイブ。, https://web.archive.org/web/20031008201831/http://www.audiomedia.com/archive/features/uk-1000/uk-1000-fairlight/uk-1000-fairlight.htm
^
“QASAR M8” (JPG), Computer Music Journal (Fall 1978), オリジナル の2021-04-18時点におけるアーカイブ。, https://web.archive.org/web/20210418011034/http://egrefin.free.fr/images/Fairlight/CMJfall78.jpg
^ a b
Leider, Colby (2004), “The Development of the Modern DAW”, Digital Audio Workstation , McGraw-Hill , p. 58
^ CRUMAR/DKI GDS System & Synergy , Synthony Music, オリジナル の1997年1月15日時点におけるアーカイブ。, https://web.archive.org/web/19970115154934/http://www.synthony.com/vintage/dkigds.html 2012年12月21日 閲覧。
^ a b c
Chadabe, Joel (1997), Electric Sound , Upper Saddle River, N.J., U.S.A.: Prentice Hall, pp. 177–178, 186, ISBN 978-0-13-303231-4 , http://www.pearsonhighered.com/educator/product/Electric-Sound-The-Past-and-Promise-of-Electronic-Music/9780133032314.page
参考文献
Smith III, Julius O. (2011), Spectral Audio Signal Processing , CCRMA, Stanford University, ISBN 978-0-9745607-3-1 , https://ccrma.stanford.edu/~jos/sasp/
Smith III, Julius O.; Serra, Xavier (2005), PARSHL: An Analysis/Synthesis Program for Non-Harmonic Sounds Based on a Sinusoidal Representation , CCRMA, Stanford University, https://ccrma.stanford.edu/~jos/parshl/ (online reprint )
Roads, Curtis (1996), The Computer Music Tutorial , MIT Press , ISBN 0-262-68082-3
関連項目
外部リンク