VLM-R1 是deepseek R1 的GRPO训练方式在VLM中的实现。项目地址:https://github.com/om-ai-lab/VLM-R1
构建docker环境:
bash展开代码# docker pull pytorch/pytorch:2.6.0-cuda12.4-cudnn9-devel
docker pull pytorch/pytorch:2.5.1-cuda12.4-cudnn9-devel
# docker run -it --gpus all pytorch/pytorch:2.6.0-cuda12.4-cudnn9-devel bash
docker run -it --gpus all pytorch/pytorch:2.5.1-cuda12.4-cudnn9-devel bash
apt update
apt install vim git -y
git clone https://github.com/om-ai-lab/VLM-R1.git
cd VLM-R1/
bash setup.sh
pip install transformers==4.49.0
此docker环境已经被我上传为 kevinchina/deeplearning:2.5.1-cuda12.4-cudnn9-devel-vlmr1
使用此镜像:
展开代码docker run -it --gpus '"device=0,1,2,3,4,5,6,7"' --shm-size=64g -v /data/xiedong:/data/xiedong --net host kevinchina/deeplearning:2.5.1-cuda12.4-cudnn9-devel-vlmr1 bash
本文将详细介绍如何搭建自己的MQTT Broker,并使用大夏龙雀科技4G Cat1 CT511-AT0模块进行MQTT联网实战。通过本教程,您将学会如何配置模块、连接MQTT服务器、订阅和发布消息等操作。

本教程将指导您通过Docker容器快速部署支持WebSocket和SSL加密的Mosquitto MQTT代理服务器,适用于物联网项目、智能家居等场景。
部分云服务提供商的 MQTT Broker 提供免费额度或免费试用,适合小型项目或个人开发者使用。以下是几个提供免费 MQTT Broker 的云服务:
参考:
痛点与解决方案
作为开发者,你是否因Copilot的高昂费用而犹豫?别担心,今天为大家推荐一款完全免费的替代方案——CodeGPT!它不仅支持代码智能补全,更可自定义接入私有化大模型API,实现个性化开发体验。本文手把手教你如何配置CodeGPT插件,打造专属AI编程助手。
deepseekv3对Qwen-2.5-14B进行蒸馏,模型如下:
https://huggingface.co/arcee-ai/Virtuoso-Small-v2
sglang运行指令:
bash展开代码docker run --gpus '"device=5"' \
--shm-size 32g \
-d -p 7890:7890 \
-v ~/.cache/huggingface:/root/.cache/huggingface \
--env "HF_TOKEN=<secret>" \
--ipc=host \
-v /data/xiedong/Virtuoso-Small-v2:/data/xiedong/Qwen2.5-32B-Instruct-GPTQ-Int4 \
lmsysorg/sglang:latest \
python3 -m sglang.launch_server --model-path /data/xiedong/Qwen2.5-32B-Instruct-GPTQ-Int4 --host 0.0.0.0 --port 7890 --tp 1 --api-key "ns34xx.."
sglang运行速度:42.27 T/s
在标准 Transformer 模型中,每一层包含一个自注意力模块(Self-Attention)和一个前馈神经网络(FFN)。MoE 的核心思想是用多个专家(Expert)替代 FFN,每个专家本身也是一个 FFN,但通过动态路由机制(门控网络)选择对每个输入 token 最相关的少数专家进行计算。这种设计可以在不显著增加计算量的情况下,大幅提升模型容量。
DeepSeek LLM: Scaling Open-Source Language Models with Longtermism
https://arxiv.org/abs/2401.02954
2024 年 1 月发布。使用 GQA 优化推理成本;采用多步学习速率调度器替代余弦调度器;运用 HAI-LLM 训练框架优化训练基础设施;提出新的缩放分配策略。使用 2 万亿字符双语数据集预训练,67B 模型性能超越 LLaMA-2 70B,Chat 版本优于 GPT-3.5。