--- license: mit task_categories: - text-generation language: - zh - en tags: - chemistry - biology - finance - climate - medical - Taiwan - R.O.C - zh-tw size_categories: - 1M 本資料集收集中華民國台灣[中央研究院](https://www.sinica.edu.tw/Default)的研究報告,旨在協助語言模型學習繁體中文的專業領域知識。 ## Dataset Details ### Dataset Description 本資料集彙整自中華民國臺灣之中央研究機構──[中央研究院](https://www.sinica.edu.tw/Default)所發表之各類研究報告與學術成果,涵蓋人文、社會、自然與應用科學等多元領域。資料內容均以繁體中文撰寫,具有高度語言規範性與領域專業性,適合作為大型語言模型進行繁體中文專業知識建構與語言表達訓練之基礎素材。 本資料集之編撰目標在於補強語言模型於繁體中文專業文本之理解與生成能力,特別聚焦於提升模型處理學術用語、論述邏輯與正式文體之表現。透過納入中央研究院具權威性的研究成果,期能協助模型獲得更深層的語義推理能力與本地化知識背景,並進一步應用於教育、研究、科技應用等場域。 如需進一步瞭解資料來源,請參閱[中央研究院官方網站](https://www.sinica.edu.tw/Default)。 - **Curated by:** [Huang Liang Hsun](https://www.linkedin.com/in/lianghsunhuang/?locale=en_US)、[Min Yi Chen](https://huggingface.co/minyichen) & [Wei Hao Lu](https://huggingface.co/Jeff0427) - **Language(s) (NLP):** Tranditional Chinese & English - **License:** MIT ### Dataset Sources - **Repository:** [lianghsun/tw-sinica-report](https://huggingface.co/datasets/lianghsun/tw-sinica-report) ## Uses ### Direct Use 本資料集適用於以下場景: - **語言模型預訓練**:作為繁體中文專業領域文本來源,有助於提升模型對正式文體與專業用語的理解與生成能力。 - **指令微調(SFT)前處理**:用於建立具有邏輯推理、學術語境或知識密度的指令輸入與回應範例。 - **繁體中文閱讀理解與資訊擷取任務**:如摘要生成、命名實體辨識、關鍵句萃取等。 - **學術與研究應用**:可作為繁體中文自然語言處理任務(如分類、檢索)的訓練或評估資料。 ### Out-of-Scope Use 請避免以下不當或效果不佳之使用情境: - **語言仇恨、錯誤資訊擴散**:資料原始來源為公開研究文獻,請勿挪用於製作惡意模型或傳播虛假資訊。 - **口語對話訓練資料**:由於內容以正式學術語言為主,不適合作為訓練口語化聊天機器人之基礎資料。 - **中國簡體語系模型直接應用**:資料為繁體中文內容,直接應用於簡體中文任務可能產生文體或語義偏差。 ## Dataset Structure ```jsonl { "text": // 文本 "token_count": // 採 llama 3.2 tokenizer "word_count": // 總共字數 "src": // 來源 "updated_date": // 更新日期 } ``` ## Dataset Creation ### Curation Rationale 本資料集的建立旨在補足現有語言模型在繁體中文專業領域文本上的知識缺口,特別聚焦於台灣本地的語言風格與研究語境。由於大多數開源語言模型主要以英文或簡體中文為基礎進行訓練,缺乏對繁體中文學術語料的理解,本資料集希望透過匯集來自中華民國台灣中央研究院的研究報告,強化模型在繁體中文專業領域的表現與語言適應性。 ### Source Data #### Data Collection and Processing 本資料集內容主要來自[中央研究院官網](https://www.sinica.edu.tw/Default)公開發布之研究報告與專業文章,涵蓋自然科學、人文社會、應用科學等多個領域。資料的收集與處理流程如下: 1. 由社群 @傑夫 透過爬蟲負責抓取下來。 2. 透過 [Mistral OCR](https://mistral.ai/news/mistral-ocr) 將 PDF 轉換成純文本。 本處理流程可持續擴展至其他公開學術資料來源,作為未來模型預訓練與微調的基礎。 #### Who are the source data producers? [中央研究院](https://www.sinica.edu.tw/Default) #### Personal and Sensitive Information 雖未加以處理 PII,但如內容有涉及當事人,請在討論串提出修改。 ## Bias, Risks, and Limitations 本資料集雖來自具有高度學術公信力之來源(中央研究院),但仍存在潛在的偏誤與限制: - **主題偏誤**:由於僅涵蓋特定研究機構之出版內容,可能無法涵蓋所有台灣社會、科學或政策議題,導致模型對特定主題的知識偏斜。 - **風格單一**:中央研究院的研究報告具嚴謹、學術化的語言風格,不一定能代表台灣日常語言或非學術領域的用語習慣。 - **時間性問題**:資料多為過去數年累積之成果,若無持續更新,模型可能對最新的研究或議題缺乏認知。 - **政治中立性與立場**:雖然中央研究院為政府所屬機構,但研究內容仍可能反映特定政策取向或意識形態,使用時應注意立場傾向對模型行為的影響。 ### Recommendations 使用者在應用本資料集或其訓練產出之模型時,應注意以下事項: - **避免過度泛化**:本資料集雖具代表性,仍不應視為涵蓋台灣全貌。應與其他語料搭配使用以提升語言多樣性與全面性。 - **適用範圍明確化**:模型訓練後適用於學術、政策研究等專業場域,但不一定適用於日常對話、情感分析或娛樂用途。 - **定期更新建議**:建議定期補充新發表之研究報告,避免模型知識過時。 - **審慎應用於決策場景**:由於模型可能在特定議題上存在潛在偏誤,應避免直接將模型輸出作為公共政策、醫療或法律決策依據。 ## Citation **BibTeX:** ```yaml @misc{sinica2025dataset, title = {Taiwan Sinica Report Dataset}, author = {Twinkle AI, Liang Hsun Huang, Min Yi Chen, Wei Hao Lu}, year = {2025}, howpublished = {\url{https://www.sinica.edu.tw/Default}}, note = {A collection of research reports from Academia Sinica for use in training Traditional Chinese language models.} } ``` **APA:** ```APA Twinkle AI. (2025). *Taiwan Sinica Report Dataset*. Academia Sinica. https://www.sinica.edu.tw/Default ``` ## Dataset Card Authors [Huang Liang Hsun](https://www.linkedin.com/in/lianghsunhuang/?locale=en_US) ## Dataset Card Contact [Huang Liang Hsun](https://www.linkedin.com/in/lianghsunhuang/?locale=en_US)