2026-01-09
工具使用
00
2026-01-09
LLaMA-Factory
00

分布式训练配置方案

针对您的场景(普通Qwen3-VL 8B,4机32卡),我给出最优配置方案:

一、硬件拓扑分析

  • 节点数量:4台机器
  • 单机配置:8卡/机
  • 总计GPU:32卡
  • 节点内带宽:NVLink/NVSwitch (900 GB/s)
  • 节点间带宽:InfiniBand/RoCE (200-400 Gb/s)
  • 核心原则:TP在节点内,PP/DP可跨节点
2026-01-09
LLaMA-Factory
00

LlamaFactory 中 Megatron 启动原理和超参数详解

根据代码分析,我为您详细

2026-01-09
Docker
00
bash
展开代码
sudo apt-get install -y jq
bash
展开代码
# 更清晰的统计 docker image inspect kevinchina/deeplearning:llamafactory0-9-4-base-1-megatron-1-ok-tars1 | jq -r '.[0].RootFS.Layers | length'
2026-01-09
Python
00

使用 Hugging Face API 操作仓库指南

简介

本文介绍如何使用 Hugging Face API 通过 Python 直接操作 Hugging Face 仓库(模型或数据集),包括上传、删除、列出文件等常见操作。这种方法比使用命令行工具更灵活,特别适合批量操作和自动化脚本。

2026-01-08
LLaMA-Factory
00

laolao77/MMDU

https://huggingface.co/datasets/laolao77/MMDU/viewer/MMDU/train?row=0

bash
展开代码
./hfd.sh laolao77/MMDU --dataset --local-dir /data/xiedong/mmdu/
2026-01-08
LLaMA-Factory
00

LLamaFactory

本地示例数据集(可直接使用)

data 目录下有以下测试

2026-01-05
LLaMA-Factory
00

单机4卡训练 LLaMAFactory Megatron 速度如何?这篇做了测试。

MCA

2026-01-04
LLaMA-Factory
00

1. Dockerfile.megatron 是什么?

`Dockerfile.megat

2025-12-30
深度学习
00

用一个具体例子详细说明 GSPO 的两个变体的计算过程,特别是 token 级别的重要性比率是如何得