| --- |
| license: cc-by-4.0 |
| viewer: false |
| task_categories: |
| - text-generation |
| language: |
| - en |
| tags: |
| - wordprocessingml |
| - office-open-xml |
| - html2xml |
| - document-conversion |
| - evaluation |
| - govdocs |
| pretty_name: WPML-Eval Govdocs |
| size_categories: |
| - 1K<n<10K |
| --- |
| |
| # WPML-Eval: Govdocs HTML → WordProcessingML 변환 평가 데이터셋 |
|
|
| Govdocs1 공개 말뭉치에서 추출한 **1,000개 영문 HTML 문서**와 대응하는 |
| 단순화된 **WordProcessingML(Office Open XML 본문 포맷)** 정답 파일로 구성된 |
| **연구/평가 전용 데이터셋**입니다. |
|
|
| ## 구성 |
|
|
| | 버킷 | 문서 수 | 설명 | |
| |---|:-:|---| |
| | `1k-3k_tokens` | 100 | 입력 HTML ≈ 1,000–3,000 tokens | |
| | `3k-4k_tokens` | 100 | | |
| | `4k-5k_tokens` | 100 | | |
| | `5k-6k_tokens` | 100 | | |
| | `6k-7k_tokens` | 100 | | |
| | `7k-8k_tokens` | 100 | | |
| | `8k-9k_tokens` | 100 | | |
| | `9k-10k_tokens` | 100 | | |
| | `10k-11k_tokens` | 100 | | |
| | `12k-13k_tokens` | 100 | | |
| | **합계** | **1,000** | 각 버킷당 고유 문서 | |
|
|
| 각 버킷 폴더에는 세 가지 하위 디렉토리가 있습니다: |
|
|
| | 폴더 | 내용 | 용도 | |
| |---|---|---| |
| | `Govdocs1_html/{id}.html` | 입력 HTML | 모델 입력 | |
| | `Govdocs1_xml/{id}.xml` | 정답 WordProcessingML | 평가 기준 (golden reference) | |
| | `Govdocs1_doc/{id}.doc` | 원본 MS Word 문서 | 참조용 (HTML/XML은 여기서 파생) | |
|
|
| ## WPML 정답 포맷 |
|
|
| 평가 가능한 **최소 태그 집합**으로 한정하였습니다: |
|
|
| ```xml |
| <w:document xmlns:w="http://schemas.openxmlformats.org/wordprocessingml/2006/main"> |
| <w:body> |
| <w:p> |
| <w:r><w:t>Paragraph text here.</w:t></w:r> |
| </w:p> |
| ... |
| </w:body> |
| </w:document> |
| ``` |
|
|
| - **표**는 한 행을 ` | `로 구분된 단일 `w:p`로 평탄화 |
| - **리스트 아이템**은 `- ` 접두사를 붙인 평문 단락 |
| - 스타일, 이미지, 필드, 머리글/바닥글 등은 제외 (본문 텍스트와 문단 구조에만 집중) |
|
|
| ## 버킷 정의 |
|
|
| 각 문서는 **입력 HTML을 참조 토크나이저(tiktoken cl100k_base)로 토큰화한 길이** 기준으로 |
| 10개 버킷에 층화 추출되어 있습니다. 모델의 컨텍스트 길이 대응력을 공정하게 평가할 수 있도록 |
| 11k-12k 구간은 통계적 불균형을 줄이기 위해 제외되었습니다. |
| |
| ## 사용법 |
| |
| ### 다운로드 |
| |
| ```bash |
| pip install huggingface_hub |
| huggingface-cli download timtkddn/wpml-eval-govdocs \ |
| --repo-type dataset --local-dir ./dataset |
| ``` |
| |
| ### 평가 실행 |
| |
| ```bash |
| git clone https://github.com/timtkddn/wpml-eval |
| cd wpml-eval |
| pip install -r requirements.txt |
| |
| # OpenAI 호환 API (예: vLLM) 기동 후 |
| bash run.sh 8000 |
| ``` |
| |
| ### 지표 |
| |
| - `final_score` (가중 평균) |
| - `structure_score`, `paragraph_score`, `run_score`, `text_preservation_score` |
| - `valid_xml_rate`, `exact_text_preservation_rate` |
| |
| 자세한 내용은 평가 레포 README 참조. |
| |
| ## 출처 및 저작권 |
| |
| 본 데이터셋은 **Govdocs1 Million Corpus**의 파일을 기반으로 하며, |
| Naval Postgraduate School의 Digital Corpora 프로젝트에서 수집·공개한 원본에서 파생되었습니다. |
| |
| - **원본**: [Digital Corpora — Govdocs1](https://digitalcorpora.org/corpora/file-corpora/files/) |
| - **수집 범위**: US government (`.gov` / `.mil`) 도메인에서 공개 웹 크롤링 |
| - **원본 저작권 상태**: 미국 연방정부 저작물은 [17 U.S.C. § 105](https://www.copyright.gov/title17/92chap1.html#105)에 따라 Public Domain. Digital Corpora 프로젝트는 "no known copyright restrictions"로 배포. |
| - **파생물(HTML, WPML 변환, 버킷 분류)**: 기계적 변환으로 새로운 창작성이 추가되지 않았으므로 원본의 저작권 상태를 유지하며, 큐레이션 작업에 한해 CC-BY 4.0 라이선스가 적용됩니다. |
| |
| ### DMCA / 삭제 요청 |
| |
| 만약 본 데이터셋에 포함된 문서에 대한 저작권을 보유하고 계시거나 개인정보 우려가 있다면, |
| HuggingFace repo의 Community 탭에 issue를 남겨주세요. 확인 후 **7일 이내 삭제** 조치합니다. |
| |
| ## 인용 |
| |
| ### 본 데이터셋 |
| |
| ```bibtex |
| @misc{wpml-eval-govdocs-2026, |
| title = {{WPML-Eval}: HTML to WordProcessingML Conversion Evaluation Dataset}, |
| author = {timtkddn}, |
| year = {2026}, |
| howpublished = {Hugging Face Dataset}, |
| url = {https://huggingface.co/datasets/timtkddn/wpml-eval-govdocs} |
| } |
| ``` |
| |
| ### 원본 Govdocs1 |
| |
| ```bibtex |
| @inproceedings{garfinkel2009bringing, |
| title = {Bringing science to digital forensics with standardized forensic corpora}, |
| author = {Garfinkel, Simson and Farrell, Paul and Roussev, Vassil and Dinolt, George}, |
| booktitle = {Proceedings of the 9th Annual Digital Forensics Research Conference (DFRWS)}, |
| year = {2009} |
| } |
| ``` |
| |
| ## 라이선스 |
| |
| **CC-BY 4.0** (파생물 작업 및 큐레이션 기준). 원본 파일은 Public Domain으로 추정되며 별도 제약 없음. |
| |