根据代码分析,LlamaFactory 支持两种使用 SwanLab 的方式:
use_swanlab (推荐)这是 LlamaFactory 原生支持的方式,配置参数定义在 SwanLabArguments 类中 (src/llamafactory/hparams/finetuning_args.py:404-440):
yaml展开代码### SwanLab 配置
use_swanlab: true
swanlab_project: run-qwen3vl8b-mmdu-1009
swanlab_mode: cloud # 或 local
swanlab_api_key: pM7Xvs5OS2EeXPO5gKXfJ # 建议通过环境变量设置
swanlab_run_name: my_experiment # 可选:实验名称
swanlab_workspace: my_workspace # 可选:工作空间
swanlab_logdir: ./swanlab_logs # 可选:本地日志目录
针对您的场景(普通Qwen3-VL 8B,4机32卡),我给出最优配置方案:
根据代码分析,我为您详细
bash展开代码sudo apt-get install -y jq
bash展开代码# 更清晰的统计
docker image inspect kevinchina/deeplearning:llamafactory0-9-4-base-1-megatron-1-ok-tars1 | jq -r '.[0].RootFS.Layers | length'
本文介绍如何使用 Hugging Face API 通过 Python 直接操作 Hugging Face 仓库(模型或数据集),包括上传、删除、列出文件等常见操作。这种方法比使用命令行工具更灵活,特别适合批量操作和自动化脚本。
laolao77/MMDU
https://huggingface.co/datasets/laolao77/MMDU/viewer/MMDU/train?row=0
bash展开代码./hfd.sh laolao77/MMDU --dataset --local-dir /data/xiedong/mmdu/
单机4卡训练 LLaMAFactory Megatron 速度如何?这篇做了测试。