编辑
2025-02-26
单片机
00

部分云服务提供商的 MQTT Broker 提供免费额度或免费试用,适合小型项目或个人开发者使用。以下是几个提供免费 MQTT Broker 的云服务:

编辑
2025-02-24
深度学习
00
编辑
2025-02-21
工具使用
00

免费Copilot替代方案:CodeGPT——如何调用自定义大模型API进行代码补全

痛点与解决方案
作为开发者,你是否因Copilot的高昂费用而犹豫?别担心,今天为大家推荐一款完全免费的替代方案——CodeGPT!它不仅支持代码智能补全,更可自定义接入私有化大模型API,实现个性化开发体验。本文手把手教你如何配置CodeGPT插件,打造专属AI编程助手。

编辑
2025-02-19
深度学习
00

deepseekv3对Qwen-2.5-14B进行蒸馏,模型如下:

https://huggingface.co/arcee-ai/Virtuoso-Small-v2

sglang运行指令:

bash
docker run --gpus '"device=5"' \ --shm-size 32g \ -d -p 7890:7890 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ -v /data/xiedong/Virtuoso-Small-v2:/data/xiedong/Qwen2.5-32B-Instruct-GPTQ-Int4 \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server --model-path /data/xiedong/Qwen2.5-32B-Instruct-GPTQ-Int4 --host 0.0.0.0 --port 7890 --tp 1 --api-key "ns34xx.."

sglang运行速度:42.27 T/s

编辑
2025-02-19
DL论文
00

传统专家混合模型(Mixture-of-Experts, MoE)在 Transformer 中的实现

在标准 Transformer 模型中,每一层包含一个自注意力模块(Self-Attention)和一个前馈神经网络(FFN)。MoE 的核心思想是用多个专家(Expert)替代 FFN,每个专家本身也是一个 FFN,但通过动态路由机制(门控网络)选择对每个输入 token 最相关的少数专家进行计算。这种设计可以在不显著增加计算量的情况下,大幅提升模型容量。