コンテンツにスキップ

英文维基 | 中文维基 | 日文维基 | 草榴社区

音声合成

出典: フリー百科事典『ウィキペディア(Wikipedia)』
音声言語合成から転送)

音声合成(おんせいごうせい、: speech synthesis)とは、人間音声を人工的に作り出すことである[1]

概要

[編集]

ヒトは発声器官を通じて音声を生成し、コミュニケーションを行なう(会話演説、講演、各種芸能およびその中継や録音・録画など)。この音声を人工的に生成するタスクが音声合成である。合成された音声を合成音声(ごうせいおんせい)と呼ぶ。

音声合成は様々な手法で実現できる。ある種の楽器は人の声に似た音を発し、また人の喉を模倣した機械に風を吹き込むことで人の声に似た音が生成できる。コンピューターを用い、音声情報処理の一種としてデジタル的に音声を合成することもできる。

2020年代においては、コンピューターを使えば実音声と聞き分け不可能な音声合成が可能になっている。さらに人工知能(AI)を用いることで、ある人物が実際には話していない発言を映像とともに偽造すること(ディープフェイク)や、自分の声を学習させて手術による声帯手術などで発声ができなくなった後でもスマートフォンに入力したテキスト文を自分の声色に似せて音声合成する技術[2]も実用化されている。

音声には言語内容・話者性・感情など様々な情報が含まれており、音声合成では望んだ属性をもつ合成音声の生成が求められる[3]。生成にあたり望む属性を外部から入力し生成がおこなわれる。テキスト(文章)を入力し、望む言語内容の音声を生成するタスクは テキスト音声合成: Text-To-Speech; TTS)と呼ばれる。歌声を合成するものは特に歌声合成と呼ばれる。また、音声を別の個人あるいはキャラクターの音声に変換する手法は声質変換と呼ばれる。

歴史

[編集]

現代的な信号処理手法が発明されるずっと以前から、西アフリカトーキングドラム等のように音声を模倣する試みがなされてきた。

1779年には、クリスティアン・クラッツェンシュタインにより母音を発声できる機械が製作された[4]。この流れはふいごを使った機械式音声合成器を作ったオーストリアヴォルフガング・フォン・ケンペレンに引き継がれた。彼は1791年に論文Mechanismus der menschlichen Sprache nebst der Beschreibung seiner sprechenden Maschine(『音声の仕組みとしゃべる機械の解説』)を発表し、その機械について説明している。この機械はをモデル化しており、母音だけでなく子音も発音できた。1837年チャールズ・ホイートストンがフォン・ケンペレンのデザインを元にしゃべる機械を製作し、1857年には、M. FaberがEuphoniaを製作した。ホイートストンの機械は、1923年にPagetが再現している[5]

1930年代、ベル研究所のホーマー・ダドリー(Homer Dudley)は通信用の電子式音声分析・音声合成器であるボコーダー(vocoder、voice coderの略)を開発した。その後これを応用し、音声合成部にキーボードを付加した鍵盤演奏型の音声合成器であるvoderを製作し、ニューヨーク万国博覧会 (1939年)に出展した。その発声は十分理解可能だったと言われる。1940年代には、ハスキンズ研究所のフランクリン・S・クーパー(Franklin S. Cooper)らがPattern playbackという機械の開発に取り組み、1950年に完成した。この機械にはいくつかのバージョンがあるが、実際に機能したのは一つだけである。この機械は、スペクトル形式の音声パターンの図を音に変換するものであった。アルヴィン・リバーマン(Alvin Liberman)らは、これを音声学の研究に利用した。

コンピュータを使った最初の音声合成器は1950年代終盤に開発され、最初のテキスト音声合成器は1968年に開発された。1961年、物理学者のJohn Larry Kelly, Jr.とLouis Gerstmen[6]は、ベル研究所IBM 704を使った音声合成を行った。そしてデイジー・ベルという歌をコンピュータに歌わせた。友人のジョン・ピアースを訪ねてベル研究所に来ていたアーサー・C・クラークはこのデモを聴いて感銘を受け、2001年宇宙の旅HAL 9000が歌うクライマックスシーンが生まれた[7]

1999年には、東京工業大学のチームにより統計的な生成モデルを用いた音声合成の先駆けである隠れマルコフモデル音声合成が提案された。2013年にはGoogleのチームにより深層学習(ディープラーニング)に基づいた音声合成が提案され、2017年にはテキスト処理部が不要なend-to-endテキスト音声合成が提案された。

用途

[編集]

音声合成は様々なサービスで利用されている。例えば、コールセンターの自動応答、ATM複合機などの電子機器、工場などでの構内放送、防災無線[† 1]バスターミナル空港などでの車内放送や案内放送[† 2]カーナビゲーション電子辞書[† 3]家電[† 4]スマートフォンスマートスピーカーなどのアプリケーション[† 5]や音声アシスタント[† 6][† 7][† 8][† 9][† 10]エンターテインメントロボット[8][† 11]アニメ[† 12]テレビ番組[† 13][† 14]コミュニティ放送[9]ハイウェイラジオ[† 15]などの放送分野、電子書籍の読み上げ[† 16]などである。そのほか、音声合成は視覚障害者あるいは読字障害(ディスレクシア)者などのためにスクリーンリーダーとして使用されている。また、病気やその治療などのために発声または音声発話が困難な人が、自分の声の代わりに使用することもある[† 17][† 18]

理論

[編集]

テキスト音声合成

[編集]

テキスト音声合成はテキスト(文章)を音声に変換するタスクである。この変換は以下の問題と捉えることができる[10][11]

テキストとそれに対応する音声波形の組があるとき、任意に与えられたテキストに対応する音声波形を求めよ。

この問題に対する解法の1つが統計的機械学習である。すなわち音声データベースコーパス)に基づき波形生成の確率モデルを学習し合成器とするアプローチである。人の音声生成において、同一話者が同じ文を何回か読み上げたときに全く同一の波形が得られることは極めて稀である。このように音声生成過程および音声信号は非決定的な性質をもち、確率的な枠組みは有効である。

この枠組みでは、音声データベース(コーパス)に存在するテキストおよび音声波形をそれぞれ および 、与えられた任意のテキストを 、合成すべき音声を としたとき、 の予測分布 から推定し、この予測分布から をサンプリングする[12]。分布モデルはしばしば補助変数と近似を導入して複数のステップに分割される。

パイプラインモデル

[編集]

例えば補助変数として言語特徴量と音響特徴量を導入し次のように定式化する。音声信号の性質を表す音響特徴量を(データベース)および(合成)、テキストの性質を表す言語特徴量を(データベース)および(任意に与えられたテキスト)、言語特徴量が与えられた際の音響特徴量の生起確率を表現するパラメトリックな音響モデルをとしたとき、予測分布は以下のように分解できる。あとは補助変数について周辺化を行えばよいが、これを補助変数の同時確率を最大化する点で近似すると、予測分布は以下のように近似できる。ただし、である。

しかし、同時確率の最大化もなお困難であるため、さらに逐次最適化で近似すると、以下の6つの副問題をそれぞれ最適化することになる。

  • 音響特徴量の抽出
  • 言語特徴量の抽出
  • 音響モデルの学習
  • 言語特徴量の予測
  • 音響特徴量の予測
  • 音声波形の生成

End-to-Endモデル

[編集]

中間特徴量を用いず直接音声波形を生成するモデルを End-to-End モデルという。すなわち を1つのモデルで表現し、コーパスを用いて を学習する。

手法

[編集]

音声合成手法は3つに大別される。

  • 規則合成: 音声生成に関する知識を元に定めた規則に基づいて音声を合成
  • 波形接続型音声合成: 録音された音声の素片を連結して合成
  • 統計的パラメトリック音声合成: 統計的に学習したパラメトリックな生成モデルの出力を元に音声を合成

それぞれの手法は音質、計算量、リアルタイム性などの特徴が異なり、用途に合わせて手法が選択される。

規則合成

[編集]

規則合成[13]は、研究を通じて得られた音声生成に関する知識を元に規則を定め、その規則に基づいて音声を生成する。歴史的には比較的古い。例えば以下のようなものがある[14]

分析合成

[編集]

分析合成は、規則に沿って生成・制御した音響特徴量を合成モデルへ渡すことで音声を合成する手法である[15]。合成モデルとそれに対応する音響特徴量の例として以下が挙げられる。

フォルマント音声合成
[編集]

フォルマント音声合成: formant synthesis[16])はフォルマントに基づくフィルタを用いた減算合成の総称である[17]

ヒトの言語音は周波数スペクトル包絡の凹凸(フォルマント)で特徴づけられる。もしスペクトルが平坦な励起信号(例: 基本周波数に基づく調波、ランダムな白色雑音)に対してフォルマントを反映したフィルタを適用できれば、フォルマントを持った信号を生成できる。これがフォルマント音声合成である。フォルマント音声合成は励起信号とフィルタに基づくため減算合成の一種であり、またフォルマントを音響特徴量とした音声分析合成の一種でもある[18]

フォルマント音声合成は数個のフォルマントと励起信号によるシンプルな減算合成であるため、高い信号圧縮を小さい合成器で実現できる。また解釈性が高いため、音素-フォルマント対応の手動設計や音色操作が容易に可能である。音の欠損がなく高速に発声させても明瞭に聞き取れる一方、合成された音声はロボット的なものであり人間の音声らしさは乏しい[要出典]

かつては組み込みシステムでよく使われた。例えば、1970年代末にテキサス・インスツルメンツが発売した玩具・Speak & Spell、セガ1980年代に開発したいくつかのアーケードゲーム(Astro Blaster、Space Fury、Star Trek: Strategic Operations Simulatorなど)がある。

調音音声合成

[編集]

調音音声合成は人間の発声過程モデルに基づいた音声合成の総称である。分析合成が「出てきた音」に着目するのに対し、調音合成では「音が出てくる身体」に着目する。例えば音声を声道長や調音部位のパラメータとして表現し、発声過程の物理モデルを用いて音声を合成する。

商用でも使われた例があり、NeXTで使われていたシステムは、カルガリー大学の研究チームがスピンオフして作ったTrillium Sound Research Inc.が開発したものである。Trilliumはこれをフリーな gnuspeech として公開しており、GNU savannah site[※ 1]で入手可能である。

波形接続型音声合成

[編集]

録音された音声の素片を連結して合成する。録音された音声の素片を利用するため、入力テキストに近いものが録音された音声中にあれば肉声に近く自然な合成音声になるが、そうでなければ接続部分などで自然性を損なうことがある。また、発話速度や声の高さを多少調整することはできるものの、それ以外の音声の柔軟な加工は原理的に困難である。あまり変化の激しい音声の合成は技術的に困難であり、そのため話し方はニュートラルなものがほとんどである。

例えば以下のようなものがある。

単位選択型音声合成

[編集]

単位選択型音声合成: unit selection synthesis[19][20]は、コーパスベース音声合成: corpus based synthesis)とも呼ばれるが[21]、生成モデル型音声合成でもモデルの学習にコーパスを使用する。データベースの作成では、音声を録音し、その録音した音声に対して、文・フレーズ・アクセント句・形態素音素・アクセントなどを表すラベルを付与するとともに、音声認識や人手での調整により、ラベルと音声区間の対応を取る。音声を合成する際には一般に、まず入力テキストをテキスト解析器により解析し、そのテキストの文・フレーズ・アクセント句・形態素・音素・アクセントなどの情報(言語特徴量)を得る。次いで、得られた言語特徴量から基本周波数や音素継続長などを予測し、それに最も合致する(ターゲットコスト)音声素片を、接続部分の滑らかさ(接続コスト)も考慮しつつ、データベース中から選んで接続する。これにより、肉声に近く自然な音声を合成することを可能としている。しかし、あらゆる入力テキストに対してより自然に聞こえる音声を合成するには、想定される入力テキストに応じて録音する音声を増やす必要があり、その分データベースが巨大になる。波形接続型音声合成では合成器が音声素片を保持しておく必要があるため、容量の小さな補助記憶装置しか持たないシステムではこれが問題になることがある。システムの利用分野を限定する(例: 駅の定型読み上げに限定する)ことでデータベースのサイズを絞ることが可能である一方、これは柔軟性を下げ変更コストを大きくする。

ダイフォン音声合成

[編集]

ダイフォン音声合成は音声素片にダイフォン(: diphone、音素ペア)波形を利用した波形接続型音声合成の一種である。

ダイフォン音声合成ではダイフォン波形が収められたデータベースから入力にマッチする音声素片を選択し、PSOLA・MBROLA等の技法を用いて韻律を与えながら素片列を接続し合成音声を生成する。ダイフォンの個数(~音素素片数)は各言語の音素配列論で決定される(例: スペイン語約800、ドイツ語約2,500)。ゆえに単位選択型音声合成と比べてデータベースが小さくなる一方、合成音質に劣る。単位選択型音声合成の発展などのため、近年では使われることが少ない[要出典]

統計的パラメトリック音声合成

[編集]

統計的パラメトリック音声合成(: statistical parametric speech synthesis; SPSS)は統計モデルに基づく音声合成、すなわち確率的音声合成の総称である[22]

録音された音声から音声の特徴を学習したパラメトリックな生成モデルを作り、その生成モデルの出力を元に音声を合成する。波形接続型音声合成では条件次第で合成された音声の滑らかさに問題が生じうるが、統計的音声合成では基本的には滑らかな音声を合成できる。また手法により、複数話者の中間声質、感情が込められた変化の激しい音声など、柔軟で多様な音声合成が可能である。

隠れマルコフモデル音声合成

[編集]

隠れマルコフモデル (HMM) を音響モデルに用いた音声合成である。HMMにより音響特徴量系列を確率的に生成し、これをボコーダーにより音声波形へと変換する。

統計的パラメトリック音声合成の先駆けであり、東京工業大学のチームによって1999年に提案された[23]。少数のパラメータで音声の特徴を表現でき、モデルの大きさや、モデルの学習および音声の合成に要する計算コストは小さい。携帯電話(フィーチャーフォン)や電子手帳など、ハードウェアの制約が大きい端末でも動作する。また必要な録音時間も(商用の)単位選択型音声合成に比べて短くて済む。

モデルの単純さからスペクトルが人間の音声と比べて平滑なものになりがちであり、このため合成された音声は肉声感に乏しい。また、基本周波数の軌跡も単純なものになりがちである。

ニューラルネットワーク音声合成

[編集]

ニューラルネットワーク音声合成ニューラルネットワークを音声合成モデルに利用した音声合成である。

音響モデル(言語特徴量 to 音響特徴量)をニューラルネットワークでモデル化する、言語特徴量で条件付けられる音声波形確率分布(生成モデル)自体をニューラルネットワークでモデル化する等の方法がある。ニューラルネットワークモデルは隠れマルコフモデルに比べて表現力が高く自然性が高い一方、モデルのパラメータ数、学習・音声合成計算コストは大きい。

最初のニューラルネットワーク音声合成モデルは2013年に発表された[24]。初期の研究では隠れマルコフモデル音声合成と同様に音響特徴量を出力していた。2016年には音声波形の直接出力(波形生成モデル)で人間と同等品質の合成が可能な WaveNet が登場した[25]。高い声質をより速く、軽く、シンプルなモデルで実現するための様々な研究が行われてる(例: WaveNet Vocoder[26]、Clarinet[27]、WaveGlow[28]、WaveRNN[29]、RNN_MS[30])。

また従来はモデル入力に(入力テキストをテキスト解析器によって解析した)言語特徴量が用いられていた。2017年には言語特徴量(テキスト解析器)を不要としたChar2Wav[31]、Deep Voice[32]、Tacotron[33]などのいわゆるend-to-end音声合成が提案された。

表. ニューラルTTS
モデル名 入力 出力 モデル 出典
Tacotron 2 テキスト メルスペクトログラム Autoregressive arxiv
FastSpeech 2 音素 メルスペクトログラム Transformer[34] arxiv
FastSpeech 2s 音素 波形 Transformer[34] arxiv

このように、設計された言語・音響特徴量を用いたパラメトリックな音声合成(統計的パラメトリック音声合成)は、特徴量によらない波形生成すなわち統計的音声波形合成(statistical speech waveform synthesis / SSWS)へと範囲を広げつつある[35]

2017年には自然言語処理向けとして効率の良いTransformerが登場し、2018年にはそれを音声合成向けに応用したTransformer TTSが登場した[36]。その後、拡散モデル と組み合わせた音声合成モデルが多数登場した。

また汎用ニューラルオーディオコーデックの技術が発展し、2023年にはEnCodecコーデックを音響トークンとして用いるVALL-Eや[37]、SoundStreamコーデックを音響トークンとして用いるSPEAR-TTSが登場した[38][39]

分類

[編集]

音声合成はいくつかの観点から分類できる。

生成元

[編集]

合成先

[編集]
  • 歌声: 歌声合成(: singing voice synthesis; SVS[41]

音声変換

[編集]

音声変換: voice conversion)は入力音声がもつ特徴の一部を変換するタスクである[42]。言語内容を維持したまま話者を変える話者変換[43]、声のトーンのみを変える感情変換など、様々なサブタスクに分類できる。話者性や音色を維持し言語内容のみを外国語に変えるタスクは音声翻訳タスクとも音声変換タスクとも捉えられる。

帯域拡張

[編集]

帯域拡張: bandwidth extension; BWE)は入力音の実効周波数帯域を合成により引き上げるタスクである[44]周波数帯域拡張: frequency bandwidth extension)あるいは音響超解像: audio super-resolution)とも呼ばれる[45]

ヒトは20kHzまでの音を聞き取る能力をもつ(可聴域)が、様々な制約によりそれ以下の周波数成分までしか持たない合成音は様々存在する(例: 固定電話)。下限についても同様であり、この失われた周波数帯域を推定し補完する音声合成タスクが帯域拡張である。帯域拡張を実現できれば音響・音声の明瞭性や自然性を向上でき、また帯域拡張を前提とした高圧縮アルゴリズムにも貢献できる。

帯域拡張は狭帯域音声を入力として広帯域音声を合成するタスクであるため、条件付け音声合成の一種と見做せる[46]

属性

[編集]

音声合成では特性の属性を指定した合成音声を生成する場合が多い[3]。属性には音響的特徴から音声認知的特徴まで以下のようなものがある。属性の組み合わせにより個人性や訛りが生まれる。

課題

[編集]

テキストの読み方の正しい推定

[編集]

テキスト音声合成においては、入力されたテキスト(文章)の読み方を正しく推定することが必要である。一般には規則・辞書・統計的手法などを組み合わせて行う。しかし、これには様々な困難がある。例えば日本語では、漢字の音読み・訓読みの区別(あるいはそれぞれが複数ある場合にどの読み方か推定する)、同形異音語の区別、アクセントの推定、人名地名の読み方の推定などを正しく行うには困難が伴う。

品質の客観評価

[編集]

音声合成の品質のうち、合成音声の自然性を客観的に評価するのは困難である。専門家の間で共通して有効であると認識されているような客観指標は存在しない。目的話者との類似性や、目的の発話スタイルの再現性などについても同様である。

性能の公平な比較

[編集]

音声合成の手法は研究者によってそれぞれ独自のデータセットを用いてモデル学習を行い、かつ独自の課題により評価することが少なくなく、性能を公平に比較することが困難な場合がある。そこで、音声に関する国際学会であるInternational Speech Communication Association(ISCA) のSpeech Synthesis Special Interest Group(SynSIG)では、2005年より毎年Blizzard Challenge[47]という競技会を行っている。この競技会では、共通のデータセットを学習に用いた音声合成システムを、共通の課題により評価することで、性能の公平な比較を可能としている。

なお、特に商用の音声合成システムではその目的に応じたデータセットを用いることでその目的に特化した性能向上を図ることがあり、これは各社のノウハウとなっている。

音声合成システム

[編集]

2020年代において、主要なパーソナルコンピュータおよびスマートフォンのオペレーティングシステムは音声合成による読み上げ機能(スクリーンリーダー)を搭載している。歴史的にも様々な音声合成システムが実用されてきた。以下はその一例である。

  • TI-99/4Aには音声合成機能をオプションで追加可能であった[48]
  • PC-6001は音声合成カートリッジが追加でき、PC-6001mkIIには音声合成機能が内蔵されていた。後継のPC-6001mkIISRやPC-6601では歌うことも可能であった。
  • FM-7/FM-77シリーズには音声合成ボード (MB22437/FM-77-431) がオプションとして用意されていた。
  • MZ-1500/2500/2861にはオプションとしてボイスボード (MZ-1M08) が存在した。五十音と、いくつかのフレーズを外部チップにサンプリングされROMとして焼きこまれており、制御によって再生するものである。
  • 富士通は、セントロニクス規格プリンタポートに接続する外付けハードウエアFMVS-101日本語音声合成装置を出していた。ASCIIもOEMしていた。これはプリンタポートさえあれば機種を問わず動作していた。
  • NEC PC-9801シリーズにて、外付けハードウェア無しに(BEEP音スピーカを使う)ソフトだけで実現する音声合成ソフトが複数でていた。校了Jrなど。
  • OSS
    • Festival Speech Synthesis System
    • gnuspeech
    • HMM-based Speech Synthesis System (HTS)
    • Open JTalk(HTSに基づいた日本語向け音声合成システム)
    • MaryTTS
    • eSpeak英語版
    • Coqui-TTS(Mozilla TTSの後継[49])- 日本語未対応。
    • PaddleSpeech - 英語および中国語。
    • ESPnet
    • NVIDIA NeMo

学術雑誌・学会

[編集]

音声合成の研究について議論されている学術雑誌学会には、以下のようなものがある(太字は一部または全部の論文について査読を行っているもの)。

学術雑誌

[編集]
  • European Association for Signal Processing (EURASIP)
    • Speech Communication(ISCAと合同)
  • IEEE
    • IEEE Transaction on Information and Systems
    • IEEE Transaction on Signal Processing
  • International Speech Communication Association (ISCA)
    • Computer Speech and Language
    • Speech Communication(EURASIPと合同)
  • シュプリンガー・サイエンス・アンド・ビジネス・メディア
    • International Journal of Speech Technology

国際学会

[編集]
  • Asia Pacific Signal and Information Processing Association (APSIPA)
    • APSIPA Annual Summit Conference (APSIPA ASC)
  • IEEE
    • International Conference on Acoustics, Speech, and Signal Processing (ICASSP)
    • Spoken Language Technology (SLP)
  • International Speech Communication Association (ISCA)
    • INTERSPEECH
    • Speech Prosody
    • Speech Synthesis Workshop (SSW)

日本国内の学会(日本語で議論が可能)

[編集]
  • 日本音響学会
    • 音声研究会(SP。電子情報通信学会と合同)
    • 日本音響学会研究発表会
  • 電子情報通信学会
    • 音声研究会(SP。日本音響学会と合同)
  • 情報処理学会
    • 音声言語情報処理研究会 (SLP)

研究団体

[編集]

音声合成の研究を行っている団体には以下のようなものがある。

大学(日本国内)

[編集]
  • 宇都宮大学
    • 大学院工学研究科 システム創生工学専攻 森研究室
  • 京都大学
    • 大学院情報学研究科 知能情報学専攻 河原研究室
  • 熊本大学
    • 大学院自然科学教育部 情報電気工学専攻 緒方研究室
  • 神戸大学
    • 大学院システム情報学研究科 情報科学専攻 滝口研究室
  • 総合研究大学院大学国立情報学研究所の教員が指導)
    • 国立情報学研究所 コンテンツ科学研究系 山岸研究室
  • 東京大学
    • 大学院工学系研究科 技術経営戦略学専攻 松尾研究室
    • 大学院工学系研究科 電気系工学専攻 峯松・齋藤研究室
    • 大学院情報理工学系研究科 システム情報学専攻 システム情報第1研究室(猿渡・小山研究室)
  • 東京工業大学
    • 工学院 情報通信系 小林研究室
  • 東北大学
    • 大学院工学研究科 通信工学専攻 伊藤・能勢研究室
  • 名古屋工業大学
    • 大学院工学研究科 情報工学専攻 徳田・南角研究室
  • 名古屋大学
    • 大学院情報学研究科 知能システム学専攻 武田研究室
    • 大学院情報学研究科 知能システム学専攻 戸田研究室
  • 奈良先端科学技術大学院大学
    • 先端科学技術研究科 情報科学領域 知能コミュニケーション研究室
  • 山梨大学
    • 大学院総合研究部 森勢将雅
  • 立命館大学
    • 立命館大学 情報理工学部 メディア情報学科 山下研究室

公的研究機関(日本国内)

[編集]

企業

[編集]

その他

[編集]

音声合成マークアップ言語 (Speech Synthesis Markup Language; SSML)

[編集]

音声合成においてテキスト解析を100%正しく行うことは困難である。また、テキストからは解釈できない、特定の読み方をさせたいこともある。そこで何らかの方法により情報を指定する必要があるが、ドメイン固有言語により行う方法のほか、W3Cにより定義された音声合成マークアップ言語 (Speech Synthesis Markup Language; SSML) により行う方法がある。

注釈

[編集]

出典

[編集]
  1. ^ "Speech synthesis is the task of generating speech waveforms" Wang, et al. (2021). FAIRSEQ S2 : A Scalable and Integrable Speech Synthesis Toolkit.
  2. ^ 【Hope】失った私の声で会話を/AI学習 そっくり再現:ベンチャー無償提供がん患者らに希望東京新聞』夕刊2022年8月20日1面(2022年8月27日閲覧)
  3. ^ a b "with desired characteristics, including but not limited to textual content ..., speaker identity ..., and speaking styles" Wang, et al. (2021). FAIRSEQ S2 : A Scalable and Integrable Speech Synthesis Toolkit.
  4. ^ History and Development of Speech Synthesis (Helsinki University of Technology) - 英語
  5. ^ Mattingly, Ignatius G. Speech synthesis for phonetic and phonological models. In Thomas A. Sebeok (Ed.), Current Trends in Linguistics, Volume 12, Mouton, The Hague, pp. 2451-2487, 1974.
  6. ^ http://query.nytimes.com/search/query?ppds=per&v1=GERSTMAN%2C%20LOUIS&sort=newest Louis Gerstmanの死亡記事(NYタイムス)
  7. ^ Bell Labs: Where "HAL" First Spoke (Bell Labs Speech Synthesis website)
  8. ^ ロボホン”. robohon.com. 2018年11月28日閲覧。
  9. ^ “AIアナウンサー”がラジオ放送 Amazonの音声合成技術で」『ITmedia NEWS』。2018年11月28日閲覧。
  10. ^ 徳田, 恵一 (2015). “統計的音声合成技術の現在・過去・未来”. 音声言語シンポジウム IEICE-115 (346). ISSN 0913-5685. 
  11. ^ 徳田, 恵一 (2017). “風雲急を告げる音声合成研究の最新動向”. 情報・システムソサイエティ誌 (電子情報通信学会) 21 (4): 10–11. doi:10.1587/ieiceissjournal.21.4_10. ISSN 2189-9797. NAID 130005312792. 
  12. ^ 全, 炳河 (2018). “テキスト音声合成技術の変遷と最先端”. 日本音響学会誌 74 (7): 387–393. 
  13. ^ Klatt, Dennis H. (1980). “Real‐time speech synthesis by rule”. The Journal of the Acoustical Society of America 68: S18. 
  14. ^ "規則合成は ... 三つの処理に分けることができる ... 第三は韻律情報により規定された音源波形で,パラメータ表現された声道伝達フィルタを駆動して合成波形を生成する処理 ... 音声合成方式は,波形編集方式,分析合成方式 ,ホルマント合成方式などが規則合成に用いられており" 広川. (1993). 規則合成における音声合成単位及び音声合成法 - より高品質を求めて. 日本音響学会誌 49巻, 12号. pp. 847-853.
  15. ^ "分析合成方式は音声生成過程を音源モデルと声道モデルに分け,そ れぞれの分析パラメータを独立に制御することにより規則合成音を得る方法である。 " 広川. (1993). 規則合成における音声合成単位及び音声合成法 - より高品質を求めて. 日本音響学会誌 49巻, 12号. pp. 847-853.
  16. ^ "Formant synthesis versus articulatory synthesis" Klatt. (1979). Software for a cascade/parallel formant synthesizer. J. Acoust. Soc. Am. 67(3).
  17. ^ "A formant synthesizer is a source-filter model in which the source models the glottal pulse train and the filter models the formant resonances of the vocal tract." Smith. (2010). Formant Synthesis Models. Physical Audio Signal Processing. ISBN 978-0-9745607-2-4
  18. ^ "Constrained linear prediction can be used to estimate the parameters ... more generally ... directly from the short-time spectrum" Smith. (2010). Formant Synthesis Models. Physical Audio Signal Processing. ISBN 978-0-9745607-2-4
  19. ^ Andrew J., Hunt; Black, Alan W. (1996). “Unit selection in a concatenative speech synthesis system using a large speech database” (English). 1996 IEEE International Conference on Acoustics, Speech, and Signal Processing Conference Proceedings (IEEE): 373–376. doi:10.1109/ICASSP.1996.541110. ISBN 0-7803-3192-3. ISSN 1520-6149. 
  20. ^ 河井, 恒; 戸田, 智基; 山岸, 順一; 平井, 俊男; 倪, 晋富; 西澤, 信行; 津崎, 実; 徳田, 恵一 (2006). “大規模コーパスを用いた音声合成システムXIMERA”. 電子情報通信学会論文誌 J89-D (12): 2688–2698. ISSN 18804535. NAID 110007380404. 
  21. ^ "Unit selection synthesis is also referred as corpus based synthesis." Kayte. (2015). A Review of Unit Selection Speech Synthesis. IJARCSSE.
  22. ^ "Statistical parametric speech synthesis ... as a framework to generate a synthetic speech signal based on a statistical model" Tachibana, et al. (2018). An Investigation of Noise Shaping with Perceptual Weighting for Wavenet-Based Speech Generation. doi: 10.1109/ICASSP.2018.8461332
  23. ^ Masuko, Takashi; Keiichi, Tokuda; Takao, Kobayashi; Satoshi, Imai (1999-05-09). “Speech synthesis using HMMs with dynamic features” (English). 1996 IEEE International Conference on Acoustics, Speech, and Signal Processing Conference Proceedings (IEEE): 389–392. doi:10.1109/ICASSP.1996.541114. ISBN 0-7803-3192-3. ISSN 1520-6149. 
  24. ^ Zen, Heiga; Senior, Andrew; Schuster, Mike (2013-05-26). “Statistical parametric speech synthesis using deep neural networks” (English). 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (IEEE): 7962–7966. ISBN 978-1-4799-0356-6. ISSN 1520-6149. 
  25. ^ van den Oord, Aaron; Dieleman, Sander; Zen, Heiga; Simonyan, Karen; Vinyals, Oriol; Graves, Alex; Kalchbrenner, Nal; Senior, Andrew et al. (2016-09-12). “WaveNet: A Generative Model for Raw Audio” (English). arXiv. arXiv:1609.03499. 
  26. ^ J. Shen, R. Pang, R. J. Weiss, et al., “Natural tts synthesis by conditioning wavenet on mel spectrogram predictions,” arXiv preprint arXiv:1712.05884, 2017.
  27. ^ W. Ping, K. Peng, and J. Chen, “Clarinet: Parallel wave generation in end-to-end text-to-speech,” arXiv preprint arXiv:1807.07281, 2018
  28. ^ R. Prenger, R. Valle, and B. Catanzaro, “Waveglow: A flowbased generative network for speech synthesis,” arXiv preprint arXiv:1811.00002, 2018
  29. ^ N. Kalchbrenner, E. Elsen, K. Simonyan, et al., “Efficient neural audio synthesis,” arXiv preprint arXiv:1802.08435, 2018.
  30. ^ Jaime Lorenzo-Trueba, Thomas Drugman, Javier Latorre, Thomas Merritt, Bartosz Putrycz, Roberto Barra-Chicote, Alexis Moinet, Vatsal Aggarwal (2019) TOWARDS ACHIEVING ROBUST UNIVERSAL NEURAL VOCODING. Interspeech 2019
  31. ^ Sotelo, Jose; Mehri, Soroush; Kumar, Kundan; Santos, Joao Felipe; Kastner, Kyle; Courville, Aaron; Bengio, Yoshua (2017-02-18). “Char2Wav: End-to-End Speech Synthesis” (English). ICLR 2017 workshop submission. 
  32. ^ Arik, Sercan O.; Chrzanowski, Mike; Coates, Adam; Diamos, Gregory; Gibiansky, Andrew; Kang, Yongguo; Li, Xian; Miller, John et al. (2017-02-25). “Deep Voice: Real-time Neural Text-to-Speech” (English). arXiv. arXiv:1702.07825. 
  33. ^ Wang, Yuxuan; Skerry-Ryan, RJ; Stanton, Daisy; Wu, Yonghui; Weiss, Ron J.; Jaitly, Navdeep; Yang, Zongheng; Xiao, Ying et al. (2017-03-29). “Tacotron: Towards End-to-End Speech Synthesis” (English). arXiv. arXiv:1703.10135. 
  34. ^ a b We use the feed-forward Transformer block, …, as the basic structure for the encoder and mel-spectrogram decoder. arxiv
  35. ^ Jaime (2018) TOWARDS ACHIEVING ROBUST UNIVERSAL NEURAL VOCODING https://arxiv.org/abs/1811.06292
  36. ^ Naihan Li, et al. Neural Speech Synthesis with Transformer Network
  37. ^ Neural Codec Language Models are Zero-Shot Text to Speech Synthesizers p.5 Chengyi Wang, et al. 2023年
  38. ^ Speak, Read and Prompt: High-Fidelity Text-to-Speech with Minimal Supervision Google Research
  39. ^ Speak, Read and Prompt: High-Fidelity Text-to-Speech with Minimal Supervision Eugene Kharitonov, et al. 2023年
  40. ^ Gopala K. Anumanchipalli, et al.. (2019) Speech synthesis from neural decoding of spoken sentences [paper]
  41. ^ "Singing voice synthesis (SVS) aims to generate humanlike singing voices from musical scores with lyrics" Wu. (2022). DDSP-based Singing Vocoders: A New Subtractive-based Synthesizer and A Comprehensive Evaluation.
  42. ^ "Voice conversion (VC) refers to a technique that converts a certain aspect of speech from a source to that of a target without changing the linguistic content" Huang, et al. (2021). S3PRL-VC: Open-source Voice Conversion Framework with Self-supervised Speech Representations. p.1.
  43. ^ "speaker conversion, which is the most widely investigated type of VC." Huang, et al. (2021). S3PRL-VC: Open-source Voice Conversion Framework with Self-supervised Speech Representations. p.1.
  44. ^ "Bandwidth extension ... Frequency bandwidth extension ... can be viewed as a realistic increase of signal sampling frequency." Andreev. (2023). HiFi++: a Unified Framework for Bandwidth Extension and Speech Enhancement.
  45. ^ "Bandwidth extension ... also known as audio super-resolution" Andreev. (2023). HiFi++: a Unified Framework for Bandwidth Extension and Speech Enhancement.
  46. ^ "The applications of conditional speech generation include ... bandwidth extension (BWE)" Andreev. (2023). HiFi++: a Unified Framework for Bandwidth Extension and Speech Enhancement.
  47. ^ Blizzard Challenge 2018 - SynSIG” (英語). www.synsig.org. 2018年11月30日閲覧。
  48. ^ Smithsonian Speech Synthesis History Project (SSSHP) 1986-2002
  49. ^ KI-Sprachforschungsteam von Mozilla macht allein weiter (ドイツ語) Golem.deドイツ語版 2021年3月15日

一次文献

[編集]
  1. ^ 防災無線が機械音声に 11月1日から本格開始 | 厚木 | タウンニュース」『タウンニュース』2016年11月11日。2018年11月28日閲覧。
  2. ^ “阪急電鉄、訪日外国人向け多言語アナウンスサービスを導入--案内情報の印刷も” (日本語). CNET Japan. (2018年5月24日). https://japan.cnet.com/article/35119705/ 2018年11月28日閲覧。 
  3. ^ エクスワードに搭載された快適機能 - 電子辞書 - CASIO”. arch.casio.jp. 2018年11月28日閲覧。
  4. ^ 音声対話”. AX-XW400 | ウォーターオーブン ヘルシオ:シャープ. 2018年11月28日閲覧。
  5. ^ 音声ニュース配信 朝日新聞アルキキ”. www.asahi.com. 2018年11月28日閲覧。
  6. ^ Deep Learning for Siri’s Voice: On-device Deep Mixture Density Networks for Hybrid Unit Selection Synthesis - Apple” (英語). Apple Machine Learning Journal. 2018年11月28日閲覧。
  7. ^ WaveNet launches in the Google Assistant | DeepMind”. DeepMind. 2018年11月28日閲覧。
  8. ^ 5/30サービス開始!NTTドコモの新しいAIエージェント 「my daiz」にエーアイの音声合成AITalkが採用 株式会社AI(エーアイ)”. 株式会社 エーアイ(AI). 2018年11月28日閲覧。
  9. ^ エモパー|機能・サービス|AQUOS ZETA SH-01G|製品ラインアップ|AQUOS:シャープ”. シャープ スマートフォン・携帯電話 AQUOS公式サイト. 2018年11月28日閲覧。
  10. ^ “Amazon PollyでAlexaの音声をカスタマイズしよう” (英語). https://developer.amazon.com/blogs/alexa/post/0e88bf72-ac90-45f1-863b-32ca8e2ae197/amazon-polly-voices-in-alexa-jp 2018年11月28日閲覧。 
  11. ^ CORPORATION., TOYOTA MOTOR. “トヨタ KIROBO mini | KIBO ROBOT PROJECT | KIROBO・MIRATA | トヨタ自動車WEBサイト”. トヨタ KIROBO mini | KIBO ROBOT PROJECT | KIROBO・MIRATA | トヨタ自動車WEBサイト. 2018年11月28日閲覧。
  12. ^ テレビの歴史で初となる、全キャラクターが音声合成でしゃべるアニメがスタート | ロボスタ - ロボット情報WEBマガジン」『ロボスタ』。2018年11月28日閲覧。
  13. ^ VoiceTextホーム | HOYA音声合成ソフトウェア”. HOYA音声合成ソフトウェア「VoiceText」. 2018年11月28日閲覧。
  14. ^ NHKが「人造アナウンサー」開発、コップのフチにいそうな「ニュースのヨミ子」さん」『ITmedia NEWS』。2018年11月28日閲覧。
  15. ^ ハイウェイラジオのヒミツ 情報の早さ、エリアの細かさ、その仕組みは? | 乗りものニュース」『乗りものニュース』。2018年11月28日閲覧。
  16. ^ Amazon.co.jp ヘルプ: 読み上げ機能を使用する”. www.amazon.co.jp. 2018年11月28日閲覧。
  17. ^ “Remembering Stephen Hawking’s iconic synthesized voice” (英語). What’s next. (2018年3月19日). https://whatsnext.nuance.com/in-the-labs/stephen-hawking-famous-text-to-speech-voice/ 2018年11月28日閲覧。 
  18. ^ 受け入れ態勢は?「筆談ホステス」当選の北区議会に聞いた”. 日刊ゲンダイDIGITAL. 2018年11月28日閲覧。

関連項目

[編集]

外部リンク

[編集]