2025-07-16
深度学习
000

分析 tokenizer_config.json 文件的设计,以及如何添加特殊token。结合代码来详细讲解 tokenizer_config.json 的设计原理以及如何添加特殊token。

2025-07-14
深度学习
000

根据查看 Dockerfile 和 setup.py 文件,我可以为你解释 EXTRAS 参数的作用:

EXTRAS 参数的作用

在 Docker 构建镜像时,EXTRAS 参数用于指定安装 LLaMA Factory 时需要包含的额外依赖项。它在 Dockerfile 的第 35 行被使用:

dockerfile
展开代码
RUN pip install --no-cache-dir -e ".[${EXTRAS}]" --no-build-isolation

这相当于执行:

bash
展开代码
pip install -e ".[metrics]"
2025-07-11
深度学习
000

最近用 LLaMA-Factory 训练大模型,数据都放在 AWS S3 上,发现其实不用自己写 boto3,直接用 S3 路径就能搞定。这里把我的踩坑和经验都写下来,帮你少走弯路。

1. S3 数据集怎么用?

LLaMA-Factory 支持直接从 S3 读取数据集,不用你自己写 boto3 脚本,也不用提前把数据下载到本地。你只要在配置里写上 S3 路径,比如 s3://my-bucket/data.jsonl,剩下的都交给 LLaMA-Factory。

2025-07-11
Git
000

先执行git lfs install是否可以,Ubuntu22 安装 git lfs 支持:

bash
展开代码
curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash sudo apt-get install git-lfs

比如我想clone这个数据集:https://huggingface.co/datasets/BAAI/SVIT

我应该huggingface登录后同意协议。

然后访问 https://huggingface.co/settings/tokens 创建 token 。

得到token hf_QtMqvBcwjKiYBQbHxCAbgazrSdCmPbf

我的用户名是 hugxd

那我在本地可以直接这样clone这个数据集仓库:

bash
展开代码
git clone https://hugxd:hf_QtMqvBcwjKiYBQbHxCAbgazrSdCmPbf@huggingface.co/datasets/BAAI/SVIT
2025-07-10
Git
000

Git恢复修改:快速回退到原始状态的简明指南

Git恢复修改:快速回退到原始状态的简明指南

当你修改了 Git 仓库的代码,但想快速恢复到原始状态时,可以使用以下命令。

1. 查看修改

bash
展开代码
git status # 查看哪些文件被修改
2025-07-10
Linux运维
000

1. JuiceFS 和 boto3 的本质区别

名称类型主要用途典型场景
boto3Python SDK直接操作 S3/OSS 对象存储代码里直接读写 s3:// 文件
JuiceFS文件系统/存储方案把 S3/OSS 挂载成本地目录K8s/服务器挂载云存储
2025-07-10
见闻录
000
  • 感想

时间,滴答,滴答,就过去了。

  • 旁观者下的爱情

近两天好朋友分手了,问起来,唏嘘不

2025-07-09
Linux运维
000

下载:

bash
展开代码
wget http://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-latest-Linux-x86_64.sh

安装:

bash
展开代码
bash Miniconda3-latest-Linux-x86_64.sh

初始化:

bash
展开代码
/root/miniconda3/bin/conda init

重启终端即可。

2025-07-08
工具使用
000

下载:

https://repo.continuum.io/miniconda/Miniconda3-latest-Windows-x86_64.exe

https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/

下载这个旧版本:

https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-py310_25.7.0-2-Windows-x86_64.exe

安装填写路径:

bash
展开代码
D:\ProgramData\miniconda3

环境变量给入:

bash
展开代码
D:\ProgramData\miniconda3\condabin D:\ProgramData\miniconda3\Scripts

Python环境举例:

bash
展开代码
conda create -n py310 python=3.10 -y conda install scipy -y
2025-07-04
Linux运维
000
显卡型号架构显存/类型显存带宽CUDA核心/张量核心/RT核心单精度算力(FP32)张量算力(FP16/FP8)功耗(TDP)主要用途/备注
H200Hopper141GB HBM3e4,800 GB/s16,896 / 528 / 2467 TFLOPS(SXM)3,958 TFLOPS(FP8)700W(SXM)H100升级,超大模型训练
H100Hopper80GB HBM32,000 GB/s14,592 / 456 / 2451 TFLOPS(PCIe)3,026 TFLOPS(FP8)350W(PCIe)旗舰AI训练/推理
H800Hopper80GB HBM32,000 GB/s14,592 / 456 / 2451 TFLOPS(PCIe)3,026 TFLOPS(FP8)350WH100中国特供
L40SAda Lovelace48GB GDDR6 ECC864 GB/s18,176 / 568 / 14291.6 TFLOPS1,466 TFLOPS(FP8)350W数据中心AI/渲染
H20Hopper96GB HBM32,000 GB/s14,592 / 456 / 2447 TFLOPS1,400+ TFLOPS300WH100/H800进一步阉割版
RTX 4090 24GB/48GB*Ada Lovelace24GB GDDR6X
(部分云定制48GB)
1,008 GB/s16,384 / 512 / 12882.6 TFLOPS660.6 TFLOPS(FP16)450W消费级旗舰,AI推理/渲染
L4Ada Lovelace24GB GDDR6300 GB/s7,424 / 232 / 5830.3 TFLOPS485 TFLOPS(FP8)72W云推理/视频AI
A800Ampere80GB HBM2e2,039 GB/s6,912 / 432 / 10819.5 TFLOPS312 TFLOPS(FP16)300W中国特供,AI训练/推理
BI-V150(国产)国产AI芯片32GB/64GB HBM2******国产AI推理/训练