音声対話システム構築ツールキットMMDAgentの暫定版マニュアルを公開致します。現状では、日本語のみです。

この資料は、2015年2月に行われた人工知能学会主催 第7回AIツール入門講座(音声インタラクションシステム構築ツールキットMMDAgent、講師:山本大介、西村良太)の配布資料用に作成されたものを一部改編したものです。内容の一部は、http://mmdagent.wordpress.com/から転載しています。

MMDAgentマニュアル(PDF)

以下の情報は古い可能性があります。 

Q1 MMDAgentのAndroidのコンパイル時に、project.plugins.findPlugin('com.android.application').getNdkFolder()がエラーになる。

MMDAgent の Android のビルドエラーについてですが、 Android Studio の最新バージョンが1.1に上がったのに伴って, Android Gradle Plugin のバージョンも1.1に上がり, 仕様の変更があったようです. ビルド時に使用する Android Gradle Plugin のバージョンを 1.0に指定することによってビルドをすることができるようになります. 具体的な方法は,以下の通りです

プロジェクトルートの build.gradle (app/build.gradle ではない) の dependencied{classpath 'com.android.tools.build:gradle:1.1.0'} という記述を dependencied{classpath 'com.android.tools.build:gradle:1.0.0'} に変更する.

また,Android Gradle Plugin のバージョンが1.1の場合での app/build.gradle の記述方法はまだわかりません.

CSTR VCTK Corpus 

English Multi-speaker Corpus for CSTR Voice Cloning Toolkit 

Overview
This CSTR VCTK Corpus includes speech data uttered by 109 English speakers with various accents. Each speaker reads out about 400 sentences, which were selected from a newspaper, the rainbow passage and an elicitation paragraph used for the speech accent archive. The newspaper texts were taken from Herald Glasgow, with permission from Herald & Times Group. Each speaker has a different set of the newspaper texts selected based a greedy algorithm that increases the contextual and phonetic coverage. The rainbow passage and elicitation paragraph are the same for all speakers. The rainbow passage can be found at International Dialects of English Archive: (http://web.ku.edu/~idea/readings/rainbow.htm). The elicitation paragraph is identical to the one used for the speech accent archive (http://accent.gmu.edu). The details of the the speech accent archive can be found at http://www.ualberta.ca/~aacl2009/PDFs/WeinbergerKunath2009AACL.pdf All speech data was recorded using an identical recording setup: an omni-directional microphone (DPA 4035), 96kHz sampling frequency at 24 bits and in a hemi-anechoic chamber of the University of Edinburgh. All recordings were converted into 16 bits, were down-sampled to 48 kHz based on STPK, and were manually end-pointed. This corpus is aimed for HMM-based text-to-speech synthesis systems, especially for speaker-adaptive HMM-based speech synthesis that uses average voice models trained on multiple speakers and speaker adaptation technologies.

Download
http://www.udialogue.org/download/VCTK-Corpus.tar.gz (10.4GB)

COPYING
This corpus is licensed under Open Data Commons Attribution License (ODC-By) v1.0.
http://opendatacommons.org/licenses/by/1.0/
http://opendatacommons.org/licenses/by/summary/

ACKNOWLEDGEMENTS
The CSTR VCTK Corpus was constructed by:
Christophe Veaux (University of Edinburgh)
Junichi Yamagishi (University of Edinburgh)
Kirsten MacDonald

The research leading to these results was partly funded from EPSRC grants EP/I031022/1 (NST) and EP/J002526/1 (CAF), from the RSE-NSFC grant (61111130120), and from the JST CREST (uDialogue).

Original source
http://homepages.inf.ed.ac.uk/jyamagis/page3/page58/page58.html