File size: 7,838 Bytes
e31e7b4
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
import pandas as pd
import os
import glob
from pathlib import Path
from concurrent.futures import ThreadPoolExecutor, as_completed
from tqdm import tqdm
import threading
from functools import partial

def read_single_csv(file_path, expected_columns=None):
    """
    读取单个CSV文件的辅助函数
    
    Args:
        file_path (str): CSV文件路径
        expected_columns (list): 期望的列名列表
        
    Returns:
        tuple: (DataFrame或None, 文件名, 错误信息或None)
    """
    try:
        df = pd.read_csv(file_path)
        
        # 检查列是否一致
        if expected_columns and df.columns.tolist() != expected_columns:
            return None, os.path.basename(file_path), f"列结构不一致"
        
        return df, os.path.basename(file_path), None
        
    except Exception as e:
        return None, os.path.basename(file_path), str(e)

def merge_single_row_csvs(folder_path, output_file='merged_data.csv', max_workers=None):
    """
    使用多线程合并文件夹中所有单行CSV文件为一个大的CSV文件
    
    Args:
        folder_path (str): 包含CSV文件的文件夹路径
        output_file (str): 输出文件名
        max_workers (int): 最大线程数,默认为None(使用系统默认值)
    """
    # 获取文件夹中所有CSV文件
    csv_files = glob.glob(os.path.join(folder_path, "*.csv"))
    
    if not csv_files:
        print("文件夹中没有找到CSV文件")
        return
    
    print(f"找到 {len(csv_files)} 个CSV文件")
    
    # 读取第一个文件获取列名
    try:
        first_df = pd.read_csv(csv_files[0])
        expected_columns = first_df.columns.tolist()
        print(f"期望的列结构: {expected_columns}")
    except Exception as e:
        print(f"无法读取第一个文件: {str(e)}")
        return
    
    # 存储所有数据的列表
    all_data = []
    failed_files = []
    
    # 创建部分函数,预设expected_columns参数
    read_csv_partial = partial(read_single_csv, expected_columns=expected_columns)
    
    # 使用ThreadPoolExecutor进行多线程处理
    print("开始多线程读取文件...")
    
    with ThreadPoolExecutor(max_workers=max_workers) as executor:
        # 提交所有任务
        future_to_file = {executor.submit(read_csv_partial, file_path): file_path 
                         for file_path in csv_files}
        
        # 使用tqdm显示进度并收集结果
        with tqdm(total=len(csv_files), desc="读取CSV文件") as pbar:
            for future in as_completed(future_to_file):
                df, filename, error = future.result()
                
                if df is not None:
                    all_data.append(df)
                else:
                    failed_files.append((filename, error))
                
                pbar.update(1)
                # 在进度条描述中显示成功/失败统计
                pbar.set_postfix({
                    '成功': len(all_data), 
                    '失败': len(failed_files)
                })
    
    # 显示处理结果
    print(f"\n处理完成:")
    print(f"成功读取: {len(all_data)} 个文件")
    print(f"失败: {len(failed_files)} 个文件")
    
    if failed_files:
        print("\n失败的文件:")
        for filename, error in failed_files[:10]:  # 只显示前10个错误
            print(f"  {filename}: {error}")
        if len(failed_files) > 10:
            print(f"  ... 还有 {len(failed_files) - 10} 个失败的文件")
    
    if not all_data:
        print("没有成功读取任何数据")
        return
    
    # 合并所有数据
    print("\n正在合并数据...")
    with tqdm(desc="合并数据") as pbar:
        merged_df = pd.concat(all_data, ignore_index=True)
        pbar.update(1)
    
    # 保存合并后的数据
    print("正在保存文件...")
    with tqdm(desc="保存文件") as pbar:
        merged_df.to_csv(output_file, index=False)
        pbar.update(1)
    
    print(f"\n✅ 合并完成!")
    print(f"共 {len(merged_df)} 行数据已保存到 {output_file}")
    
    # 显示数据概览
    print(f"\n📊 数据概览:")
    print(f"总行数: {len(merged_df):,}")
    print(f"总列数: {len(merged_df.columns)}")
    print(f"文件大小: {os.path.getsize(output_file) / 1024 / 1024:.2f} MB")
    print(f"列名: {list(merged_df.columns)}")
    
    # 显示前几行数据
    print(f"\n📝 数据预览:")
    print(merged_df.head())

def merge_with_batch_processing(folder_path, output_file='merged_data.csv', 
                               batch_size=1000, max_workers=None):
    """
    使用批处理的方式合并大量CSV文件,减少内存占用
    
    Args:
        folder_path (str): 包含CSV文件的文件夹路径
        output_file (str): 输出文件名
        batch_size (int): 每批处理的文件数量
        max_workers (int): 最大线程数
    """
    csv_files = glob.glob(os.path.join(folder_path, "*.csv"))
    
    if not csv_files:
        print("文件夹中没有找到CSV文件")
        return
    
    print(f"找到 {len(csv_files)} 个CSV文件,将分批处理")
    
    # 读取第一个文件获取列名
    try:
        first_df = pd.read_csv(csv_files[0])
        expected_columns = first_df.columns.tolist()
    except Exception as e:
        print(f"无法读取第一个文件: {str(e)}")
        return
    
    # 分批处理文件
    total_rows = 0
    is_first_batch = True
    
    with tqdm(total=len(csv_files), desc="总进度") as main_pbar:
        for i in range(0, len(csv_files), batch_size):
            batch_files = csv_files[i:i + batch_size]
            batch_data = []
            
            # 处理当前批次
            read_csv_partial = partial(read_single_csv, expected_columns=expected_columns)
            
            with ThreadPoolExecutor(max_workers=max_workers) as executor:
                future_to_file = {executor.submit(read_csv_partial, file_path): file_path 
                                 for file_path in batch_files}
                
                for future in as_completed(future_to_file):
                    df, filename, error = future.result()
                    if df is not None:
                        batch_data.append(df)
                    main_pbar.update(1)
            
            # 合并当前批次数据
            if batch_data:
                batch_df = pd.concat(batch_data, ignore_index=True)
                
                # 保存到文件(追加模式)
                mode = 'w' if is_first_batch else 'a'
                header = is_first_batch
                batch_df.to_csv(output_file, mode=mode, header=header, index=False)
                
                total_rows += len(batch_df)
                is_first_batch = False
                
                print(f"\n批次 {i//batch_size + 1} 完成,添加了 {len(batch_df)} 行")
    
    print(f"\n✅ 所有批次处理完成!总共 {total_rows} 行数据保存到 {output_file}")

# 使用示例
if __name__ == "__main__":
    folder_path = "/mnt/bn/yufan-dev-my/ysh/Ckpts/Lixsp11/0_final_sekai_dataset/yamls/sekai-game-walking-386"
    output_file = "/mnt/bn/yufan-dev-my/ysh/Ckpts/Lixsp11/0_final_sekai_dataset/yamls/sekai-game-walking-386.csv"
    
    # 方法1: 标准多线程合并(推荐用于中等大小的数据集)
    merge_single_row_csvs(
        folder_path=folder_path, 
        output_file=output_file,
        max_workers=8  # 可以根据你的CPU核心数调整
    )
    
    # 方法2: 批处理合并(推荐用于大型数据集,节省内存)
    # merge_with_batch_processing(
    #     folder_path=folder_path,
    #     output_file=output_file,
    #     batch_size=1000,
    #     max_workers=8
    # )