--- language: - ja license: cc-by-sa-4.0 multilinguality: - monolingual size_categories: - 10K<100K source_datasets: - original task_categories: - text-to-speech task_ids: [] --- # SSS-data-trainscript 日本語音声合成用の音声データセットです。 ## データセットの説明 - **説明:** 日本語音声合成用の音声データセット - **ライセンス:** CC BY-SA 4.0 - **言語:** 日本語 ### データセットの構造 データセットは以下の構造で構成されています: - `data/`: 音声ファイル(.wav)が格納されています - `metadata.jsonl`: 各音声ファイルに対応するテキストデータが格納されています ### データ形式 metadata.jsonlの各行は以下の形式のJSONオブジェクトです: ```json { "file_name": "data/example.wav", "text": "対応するテキスト" } ``` ## データセット作成スクリプト データセットの作成には以下のスクリプトを使用しています: ### create_index_from_lists.py 音声ファイルとテキストデータを紐付けるためのインデックスファイル(`index_all.txt`)を生成するスクリプトです。 主な機能: - 複数の台本ファイルからテキストデータを読み込み - 音声ファイルとテキストデータの対応付け - 異なるディレクトリ構造やファイル命名規則に対応 - 感情表現、朗読、通常音声など、様々な種類の音声データに対応 対応する台本ファイル: - `emotion_transcript_no_kana_no_reading.txt`: 感情表現用の台本 - `recitation_transcript_no_kana_no_reading.txt`: 朗読用の台本 - `Rohan4600_transcript_no_kana_no_reading.txt`: ROHANコーパス用の台本 - `01 補足なし台本(JSUTコーパス・JVSコーパス版).txt`: JSUT/JVSコーパス用の台本 ### create_metadata.py `index_all.txt`から`metadata.jsonl`を生成するスクリプトです。 主な機能: - `index_all.txt`の読み込み - 音声ファイルの存在確認 - Hugging Faceデータセット用のメタデータ形式への変換 ## 重要なファイル ### index_all.txt 音声ファイルとテキストデータの対応関係を記録した重要なファイルです。 形式: ``` 音声ファイルパス:テキストデータ ``` 特徴: - 拡張子なしの音声ファイルパスとテキストデータがコロン(:)で区切られています - 音声ファイルのパスは相対パスで記録されています - テキストデータが存在しない場合は空文字列が記録されます このファイルは以下の目的で使用できます: - 音声ファイルとテキストデータの対応関係の確認 - データセットの更新や再生成 - 特定の音声ファイルのテキストデータの検索 - データセットの品質管理 ## 使用方法 ### データセットの読み込み ```python from datasets import load_dataset dataset = load_dataset("ayousanz/SSS-data-trainscript") ``` ### インデックスファイルの使用例 ```python def load_index_data(): data = {} with open('index_all.txt', 'r', encoding='utf-8') as f: for line in f: if ':' in line: path, text = line.strip().split(':', 1) data[path] = text return data # インデックスデータの読み込み index_data = load_index_data() # 特定の音声ファイルのテキストを取得 text = index_data.get('path/to/audio/file', '') ```