2025-08-03
LLaMA-Factory
00

关于tokenized数据缓存的机制。让我详细解释 tokenized_pathcache_dir 的区别以及它们的工作原理。

tokenized_path vs cache_dir 的区别

基于代码分析,这两个参数有不同的作用:

1. cache_dir - HuggingFace Datasets的内部缓存

  • 用途: 存储load_dataset()和数据预处理过程的中间缓存文件
  • 内容:
    • 原始数据集下载缓存
    • 数据预处理过程中的中间结果(使用HuggingFace Datasets的.map()函数时的缓存)
  • 格式: HuggingFace内部的Arrow格式缓存文件
  • 生命周期: 自动管理,用于加速重复的数据加载和预处理

2. tokenized_path - 完整的tokenized数据集存储

  • 用途: 存储完全处理好的、可直接用于训练的数据集
  • 内容: 已经tokenized的完整数据集,包含所有必要的训练字段
  • 格式: HuggingFace Datasets的标准格式(使用save_to_disk()保存)
  • 生命周期: 手动管理,可以直接加载用于训练
2025-08-03
深度学习
00
2025-08-02
深度学习
00
2025-08-02
深度学习
00

训练Qwen2VL模型数据预处理过程分析

预处理过程在做什么

根据代码分析,Qwen2VL的数据预处理主要包含以下步骤:

  1. 数据加载与转换 (src/llamafactory/data/loader.py:307-313):
    • 使用HuggingFace的dataset.map()方法进行批处理
    • 默认批次大小:preprocessing_batch_size=1000
    • 使用多进程:num_proc=84(你的配置)
2025-08-01
深度学习
00

BLEU和ROUGE评估指标详解

在自然语言生成任务中,如何评估模型生成文本的质量是一个关键问题。BLEU和ROUGE是两个最常用的自动评估指标,本文将详细介绍这两个指标的原理、计算方法和代码实现。

2025-08-01
Linux运维
00
bash
展开代码
rsync -av --checksum LLaMA-Factory-old/ LLaMA-Factory-qwen2vl/

这个指令使用 rsync 工具将 LLaMA-Factory-old/ 目录的内容同步到 LLaMA-Factory-qwen2vl/ 目录,具体参数解析如下:

行为说明

  • 同步内容:将 LLaMA-Factory-old/ 下的所有文件和子目录同步到 LLaMA-Factory-qwen2vl/
  • 校验逻辑:对比文件的校验和(而非仅依赖修改时间或大小),确保内容完全一致。
  • 保留属性:所有文件权限、时间戳等元数据会被保留。
  • 增量同步:仅传输校验和不匹配的文件,提升效率。

注意事项

  1. 路径末尾的 /

    • 若源路径带 /(如 LLaMA-Factory-old/),则同步目录内的内容到目标路径。
    • 若不带 /(如 LLaMA-Factory-old),则同步目录本身到目标路径(包含目录名)。
  2. 目标目录存在性

    • 如果 LLaMA-Factory-qwen2vl/ 不存在,会自动创建。
    • 如果已存在,文件会被覆盖或合并。
  3. --checksum 的性能影响
    计算校验和会增加 CPU 开销,但适合对文件一致性要求严格的场景(如防止隐藏的数据损坏)。

2025-08-01
深度学习
00
2025-08-01
工具使用
00

管理员运行命令:

bash
展开代码
reg.exe add "HKCU\Software\Classes\CLSID\{86ca1aa0-34aa-4e8b-a509-50c905bae2a2}\InprocServer32" /f /ve

重启就恢复win10右键了

这个是恢复win11右键:

bash
展开代码
reg.exe delete "HKCU\Software\Classes\CLSID\{86ca1aa0-34aa-4e8b-a509-50c905bae2a2}\InprocServer32" /va /f
2025-08-01
深度学习
00

指定好 --model_name_or_path,模型存储路径。

指定 --save_only_model false ,不光保存模型,还保存优化器状态等参数。

指定 --overwrite_output_dir false ,可以接续恢复训练。接续恢复训练千万别改参数,不然会引起异常(训练看起来正常其实不正常)。要改参数最好是导出之前模型,然后重新指定 --model_name_or_path 重新训练。

2025-07-31
LLaMA-Factory
00

The client socket has timed out after 900000ms while trying to connect to (10.130.18.56, 58509).