Datasets:
File size: 11,823 Bytes
9cd8f42 b9a2c27 9cd8f42 f8e047f 415139a 9cd8f42 3559ea7 9cd8f42 e6965ca b9a2c27 e6965ca 9cd8f42 bffeb3e 9cd8f42 b9a2c27 e6965ca 9cd8f42 3559ea7 9cd8f42 6a38a85 9cd8f42 e6965ca b9a2c27 9cd8f42 e6965ca 9cd8f42 e6965ca 9cd8f42 b9a2c27 9cd8f42 e6965ca 9cd8f42 e6965ca 9cd8f42 b9a2c27 9cd8f42 e6965ca 9cd8f42 b9a2c27 9cd8f42 8e8d4fe 9cd8f42 b448841 3559ea7 b448841 9cd8f42 e6965ca f73fc34 e6965ca 3559ea7 e6965ca 7f39997 e6965ca 3559ea7 e6965ca 9cd8f42 e6965ca 9cd8f42 3559ea7 9cd8f42 e6965ca 9cd8f42 e6965ca 371de48 e6965ca 9cd8f42 e6965ca |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 |
# UltraData-Math
<div align="center">
<img src="assets/ultradata-math-logo.png" width="600"/>
</div>
<p align="center">
<a href="https://huggingface.co/datasets/openbmb/UltraData-Math">🤗 数据集</a> | <a href="https://github.com/UltraData-OpenBMB/UltraData-Math">💻 源代码</a> | <a href="README.md">🇺🇸 English README</a>
</p>
***UltraData-Math*** 是一个面向数学推理的大规模高质量预训练数据集,总计 **290B+ tokens**,涵盖三个递进层级——**L1**(170.5B tokens 网页语料)、**L2**(33.7B tokens 质量精选)、**L3**(88B tokens 多格式精炼),旨在系统性提升大语言模型的数学推理能力。已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
## 📚 简介
高质量预训练数据对提升大语言模型的数学推理能力至关重要。然而,现有数学预训练数据构建方案存在以下不足:
- **HTML 解析层面**:通用提取器(如 trafilatura、readability)主要面向新闻/文章场景设计,对数学公式等内容缺乏专门处理,常导致公式结构破坏或丢失;同时论坛类页面的数学讨论部分,难以完整提取。
- **数据质量层面**:现有数据集普遍缺乏系统的质量分级机制,高价值数学内容与低质噪声混杂。
- **数据多样性层面**:主流数据集多源自教科书或竞赛题库,缺少真实网页中的数学讨论与应用场景;合成数据格式单一,难以覆盖多轮对话、多风格表达等多样化需求。
针对上述问题,我们提出 ***UltraData-Math***——一个面向数学推理任务的大规模高质量预训练数据集。本数据集基于 [UltraData](https://ultradata.openbmb.cn/blog/position-paper) 的 L0-L4 分级数据管理框架开发,包含四个递进层级:
- **L0 原始数据层**:基于 *magic-html* 开发数学解析器,结合 *w3m* 布局保持渲染与多级回退策略,将 MathML、KaTeX、AsciiMath 标准化为 LaTeX 格式。
- **L1 过滤数据层**:通过启发式规则清洗噪声并进行文档级去重。
- **L2 精选数据层**:使用闭源大模型标注种子数据并蒸馏至轻量 embedding 分类器,实现全量语料的高效质量分级。
- **L3 精炼数据层**:通过改写、合成生成与精炼,生成具有清晰推理链条的结构化内容,涵盖 Q&A、多轮对话、多风格改写、知识教材等多种格式。
实验表明,在 MiniCPM-1.2B 架构上,***UltraData-Math*** 在 MATH500 基准上达到 **37.02pp**,相较 Nemotron-CC 4plus 提升 **+3.62pp**;在 GSM8K 上达到 **61.79pp**,提升 **+3.34pp**,同时保持代码生成与通用知识能力。
***UltraData-Math*** 已应用于 [MiniCPM 系列](https://huggingface.co/collections/openbmb/minicpm-4-6841ab29d180257e940baa9b) 模型的数学预训练。
- **[UltraData-Math-L1](https://huggingface.co/datasets/openbmb/UltraData-Math)**: 大规模高质量数学预训练数据集,包含 170.5B tokens 的网页数学语料。
- **[UltraData-Math-L2](https://huggingface.co/datasets/openbmb/UltraData-Math-L2)**: 经质量模型精选的高质量数学预训练数据集,包含 33.7B tokens 的高质量网页数学语料。
- **[UltraData-Math-L3](https://huggingface.co/datasets/openbmb/UltraData-Math-L3)**: 高质量精炼数学数据集,包含 88B tokens 的多格式精炼数据(Q&A、多轮对话、知识教材等)。
## 🏗️ 数据处理流水线
为突破现有数学数据集在质量与多样性上的局限,我们建立了一套以"数学内容完整性"和"信息密度"为核心的精细化分级标准。***UltraData-Math*** 采用了 [UltraData](https://ultradata.openbmb.cn/blog/position-paper) 论文提出的 **L0-L4 分级数据管理框架**,通过标准化的层级定义,实现数学数据资产的有序管理与高效流转。每一级都代表了更高的数据纯度与数学价值,同时也对应着更精细的加工程度。
<div align="center">
<img src="assets/ultradata-math-pipeline.png" width="900"/>
</div>
### L0:原始数据解析与标准化
**目标**:解决通用 HTML 解析器对数学公式支持不佳的问题,最大限度保留网页中的数学语义。
L0 阶段主要处理从 Common Crawl 等来源获取的原始网页数据。针对数学网页的特殊性,我们通过 [UltraData-Math-Parser](https://huggingface.co/spaces/openbmb/UltraData-Math-L0-Parser) 开发了专用的解析策略,而非直接使用通用的 trafilatura 或 readability。
- **统一解析模式**:自动识别页面类型,尽可能保证完整内容提取。
- **多级回退策略**:为了防止解析失败导致数据丢失,我们实施了多级回退机制,确保在结构化解析失败时仍能捕获文本内容。
- **数学公式标准化**:我们将网页中不同的数学表达统一转换为标准的 LaTeX 格式,实现了数据格式的归一化,便于模型统一学习。
### L1:启发式清洗与过滤
**目标**:去除格式噪声,提升数据的可读性和规范性。
在获取了包含完整数学公式的文本后,我们通过一系列启发式规则对 L0 数据进行清洗:
- **格式修复**:
- 清理不可见字符、乱码及非自然的连续换行。
- 移除导航栏、页脚、广告弹窗及"阅读更多"等无关网页噪音。
- **内容过滤**:
- *长度过滤*:移除过短的文本片段,这些片段通常缺乏上下文,难以支持有效的数学推理训练。
- *语言识别*:确保数据集主要由高质量的英文及中文数学内容组成。
- *文档去重*:在文档级别进行去重,防止重复内容对模型训练造成偏差。
### L2:基于质量模型的精选
**目标**:从海量数据中识别出具有高价值的核心语料。
L1 数据虽然格式整洁,但内容质量参差不齐。L2 阶段引入了基于模型的质量评估体系:
- **种子数据标注**:使用闭源大模型对一部分种子数据进行多维度打分。
- **分类器训练与蒸馏**:基于标注数据训练轻量级的 embedding 分类器,使其具备识别高价值数学内容的能力。
- **全量推理**:使用训练好的分类器对 L1 数据进行全量打分与筛选。
- *保留*:包含详细解题步骤、数学概念解释、高水平学术讨论的内容。
- *剔除*:简单的名词堆砌、无意义的数字列表、低幼或非数学领域的噪声。
### L3:精炼数据
**目标**:通过改写、合成生成与精炼,生成具有清晰推理链条和显式教学意图的结构化内容,达到教科书级质量标准,确保最大化可学习性。
自然网页数据多为陈述性文本,缺乏结构化的推理步骤和多样化的教学格式。为了增强模型的推理链条(CoT)能力和多轮交互能力,我们通过 [UltraData-Math-Generator](https://huggingface.co/spaces/openbmb/UltraData-Math-L3-Generator) 构建了 L3 精炼数据层:
- **Q&A 对生成**:利用高性能模型将陈述性文档改写为"问题-回答"对,构建包含显式推理步骤的 QA 风格数据。
- **多轮对话合成**:模拟"老师-学生"的辅导场景,生成包含追问、纠错、引导的多轮对话数据。
- **多风格改写**:将单一来源的数据改写为多种风格(如教科书严谨风格、竞赛解题风格、科普直观风格),提升模型的泛化能力。
- **知识点教材生成**:基于特定知识点生成系统化的教材类内容,确保模型掌握核心数学概念。
- **格式修复与增强**:修复源数据中的格式问题(如损坏的 LaTeX 公式、不一致的符号标记),并增强内容连贯性,以达到教科书级质量标准。
基于上述方法,我们最终产出了以下 ***UltraData-Math*** 数据集:
| 数据集 | # Tokens | # Documents |
|:---|:---:|:---:|
| UltraData-Math-L1 | 170.5B | 85.6M |
| UltraData-Math-L2-preview | 33.7B | 14.98M |
| UltraData-Math-L3 | 88B | 81.4M |
## 🚀 快速开始
你可以直接从 Hugging Face 加载数据集:
```python
from datasets import load_dataset
# 加载 UltraData-Math-L1
ds = load_dataset("openbmb/UltraData-Math", "UltraData-Math-L1")
# 加载 UltraData-Math-L2-preview
ds = load_dataset("openbmb/UltraData-Math", "UltraData-Math-L2-preview")
# 加载 UltraData-Math-L3(默认:Conversation-Synthetic)
ds = load_dataset("openbmb/UltraData-Math", "UltraData-Math-L3-Conversation-Synthetic")
# 其他 L3 配置:
# - UltraData-Math-L3-Multi-Style-Synthetic
# - UltraData-Math-L3-QA-Synthetic
# - UltraData-Math-L3-Textbook-Exercise-Synthetic
```
## 📈 实验结果
我们使用 **衰减验证(Decay Verification)** 方法评估数据质量:在 **MiniCPM-1.2B** 基座模型(使用 **MiniCPM3-4B** 分词器,预训练 1.3T tokens)上继续训练 **~100B tokens**(30% 目标数据 + 70% 通用数据)。我们使用 [OpenCompass](https://github.com/open-compass/opencompass) 作为评估框架。评估基准包括:
- **通用英文:** MMLU、ARC-E、ARC-C、BigBench Hard (BBH)、CommonSenseQA、HellaSwag、OpenbookQA、PIQA、SIQA、Winogrande
- **通用中文:** C-Eval、CMMLU
- **数学推理:** MATH500、GSM8K、Math-Bench、R-Bench-Math
- **代码推理:** MBPP、HumanEval
### L0 解析策略有效性
为公平对比不同解析策略,我们在 **2023-2024** 年分布的数据子集上进行实验。我们使用不同解析器重新解析原始 HTML。该对比展示了我们 **L0 解析器的有效性**。
<div align="center">
<img src="assets/ultradata-math-l0-parser-comparison.png" width="700"/>
</div>
### 流水线有效性(L1 vs L2 vs L3)
为验证 L0-L3 分级框架的有效性,我们对使用不同层级 UltraData-Math 训练的模型进行了消融实验。与上文 L0 解析器对比(使用 2023-2024 子集)不同,以下结果基于**全量数据集**。结果表明,更高层级的数据(L3)显著提升了数学推理能力(MATH500、GSM8K)及通用能力。
<div align="center">
<img src="assets/ultradata-math-l1l2l3-comparison.png" width="700"/>
</div>
### 完整评测结果
为与现有公开数学预训练数据集进行对比,我们使用相同的模型架构和训练预算(~100B tokens)在每个数据集上独立训练模型。基线包括 [Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath-Web-Pro](https://huggingface.co/datasets/LLM360/MegaMath) 和 [FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)。所有模型在相同条件下评估以确保公平对比:
<div align="center">
<img src="assets/ultradata-math-full-comparison.png" width="700"/>
</div>
## ❤️ 致谢
- **L0 解析层**:[magic-html](https://github.com/opendatalab/magic-html)、[w3m](http://w3m.sourceforge.net/)、[trafilatura](https://github.com/adbar/trafilatura)
- **L3 精炼层**:[Qwen2.5-72B-Instruct](https://huggingface.co/Qwen/Qwen2.5-72B-Instruct)、[Qwen3-32B](https://huggingface.co/Qwen/Qwen3-32B)、[GLM-4.5](https://huggingface.co/zai-org/GLM-4.5)
- **种子数据**:[Nemotron-CC-Math](https://huggingface.co/datasets/nvidia/Nemotron-CC-Math-v1)、[MegaMath](https://huggingface.co/datasets/LLM360/MegaMath)、[FineMath](https://huggingface.co/datasets/HuggingFaceTB/finemath)
## 📖 引用
如果您觉得 **UltraData-Math** 对您的研究有帮助,请考虑引用:
```bibtex
@misc{ultradata-math,
title={UltraData-Math},
author={UltraData Team},
year={2026},
url={https://huggingface.co/datasets/openbmb/UltraData-Math},
publisher={Hugging Face}
}
```
## 📜 许可证
本项目基于 [Apache 2.0](./LICENSE) 许可证发布。
|