2025-06-02
深度学习
00
2025-05-30
深度学习
00

介绍

这是一个大模型机器人的试验尝试。效果预期就是可以将大模型引入QQ对话。

效果就是:让自己的QQ成为一个机器人客服,别人发消息给自己的QQ,自己的QQ自动就回复别人了,回复依靠的是大模型的语言能力。

项目在这里:https://astrbot.app/deploy/astrbot/docker.html#%E4%BD%BF%E7%94%A8-docker-%E9%83%A8%E7%BD%B2-astrbot

AstrBot 结合 NapCat 做QQ机器人, AstrBot 也可以结合其他消息中间件,做别的平台的机器人,比如微信、QQ、飞书、钉钉。

2025-05-30
深度学习
00

下载模型:

sh
展开代码
modelscope download Qwen/Qwen3-32B --local_dir ./Qwen/Qwen3-32B

部署:

bash
展开代码
# 拉取最新的 docker pull lmsysorg/sglang:v0.4.6.post1-cu121 # 启动服务 docker run -d --gpus '"device=0,1,2,3"' --shm-size=32g \ -v ./Qwen/Qwen3-32B:/model \ -p 8055:8000 \ -e PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True \ lmsysorg/sglang:v0.4.6.post1-cu121 python3 -m sglang.launch_server --model-path /model --host 0.0.0.0 --port 8000 --mem-fraction-static 0.9 --tensor-parallel-size 4 --context-length 40960 --served-model-name "gpt" --api-key "abc"
2025-05-30
建站教程
00

客制化里面加ccs:

ccs
展开代码
.snow-container { position: fixed; top: 0; left: 0; width: 100%; height: 100%; pointer-events: none; z-index: -1; overflow: hidden; } .snowflake { position: absolute; will-change: transform; user-select: none; text-shadow: 0 0 6px rgba(255, 255, 255, 0.7); /* 确保GPU加速 */ transform: translate3d(0, 0, 0); backface-visibility: hidden; }
2025-05-30
建站教程
00

如何搭建一个自己的博客,下面是我这个博客搭建的过程:


1. 选定博客框架:VanBlog 二次开发版

  • 核心优势
    使用基于 VanBlog 的二次开发版本(xxddccaa/vanblog),集成以下特性:

    • 开箱即用:Docker Compose 一键部署,降低环境依赖复杂度。
    • 性能优化:完整标题显示、后台列表换行支持、代码块折叠功能、Admin免登录,提升用户体验。
    • 安全性:默认关闭评论系统(符合公安备案要求),集成 Mermaid 图表支持。
  • 代码结构

    bash
    展开代码
    ├── packages/ │ ├── admin # 后台管理界面(Ant Design Pro) │ ├── website # 前端页面(Next.js + Tailwind CSS) │ ├── server # 后端服务(NestJS + MongoDB) │ └── waline # 可选评论系统 └── docker-compose.yml # 容器化编排

    注意:使用这个 docker compose.yaml 文件即可使用 docker compose 一键部署: https://github.com/xxddccaa/vanblog/blob/master/docker-compose/docker-compose.yml


2025-05-29
Git
00

Git 实战技巧:如何优雅地移除已推送到远程仓库的敏感文件

🤔 遇到过这种尴尬吗?

作为开发者,我们经常会遇到这样的情况:

  • 不小心把包含密码的配置文件推送到了 GitHub
  • 意外提交了 IDE 的配置文件(如 .vscode/.idea/
  • 把本地的测试脚本或临时文件推送到了远程仓库
  • 发现某些文件不应该被版本控制,但已经在仓库里了

很多人的第一反应是在 .gitignore 中添加这些文件路径,但发现完全没用!文件依然会被 Git 追踪和同步。

2025-05-28
Linux运维
00

可能是内存不够了。

2025-05-28
深度学习ban
00

该文章已加密,点击 阅读全文 并输入密码后方可查看。

2025-05-28
深度学习
00

1. SGLang中Qwen2-VL的模板代码位置

2025-05-27
深度学习
00
2025-05-27
深度学习
00

GAN(生成对抗网络)的损失函数设计直接影响模型的训练效果和生成质量。以下是常用的损失函数及其特点:

2025-05-27
深度学习
00

🧠 SVM 是什么?一句话说清楚:

SVM 就是一个分类器,它想在两个类别之间画一条“最宽的分界线”,让两边的数据离这条线越远越好。

你可以把它想象成:
在猫和狗之间划出一条“安全距离线”,谁靠得近谁就容易被误判。SVM 想让这条线尽可能远离两边的样本。

2025-05-22
单片机ban
00

该文章已加密,点击 阅读全文 并输入密码后方可查看。

2025-05-20
自动控制
00

傅里叶变换、FFT、S变换与Z变换可视化

本教程通过Python代码实现核心公式+动态图演示,帮助你直观理解这些变换的本质。

一、傅里叶变换(Fourier Transform)

核心思想

将信号分解为不同频率的正弦波分量,揭示信号的频率组成。

连续傅里叶变换公式:

F(ω)=f(t)ejωtdtF(\omega) = \int_{-\infty}^{\infty} f(t)e^{-j\omega t}dt

2025-05-20
深度学习
00

Automatic Prefix Caching

https://docs.vllm.ai/en/latest/features/automatic_prefix_caching.html

如果每次query都有相同的前缀,那么启用这个参数将获得极大的推理时间收益:

bash
展开代码
enable_prefix_caching=True
2025-05-20
工具使用
00

查看当前word多少个表格:

vba
展开代码
Sub CountTablesInDocument() Dim tableCount As Long ' 获取文档中所有表格的数量 tableCount = ActiveDocument.Tables.Count ' 显示结果 If tableCount > 0 Then MsgBox "当前文档中包含 " & tableCount & " 个表格。", vbInformation, "表格统计" Else MsgBox "当前文档中没有表格。", vbInformation, "表格统计" End If End Sub
2025-05-19
深度学习
00

强化学习关键术语

以下是强化学习中所有关键专有名词的统一解释,结合理论定义与直观理解,便于快速查阅。


1. 基础概念

状态(State)

  • 定义:环境在某一时刻的具体情况,用 ss 表示(如机器人当前位置)。
  • 例子:围棋棋盘布局、自动驾驶汽车的传感器数据。

动作(Action)

  • 定义:智能体在某个状态下可以采取的行为,用 aa 表示(如“向左移动”)。
  • 离散动作:有限选项(如上下左右)。
  • 连续动作:无限可能(如方向盘转角)。

奖励(Reward)

  • 定义:智能体执行动作后环境返回的即时反馈,用 R(s,a)R(s, a)rtr_t 表示。
  • 设计原则:鼓励目标行为(如到达终点 +10,撞墙 -5)。
2025-05-19
深度学习
00

🌀 RoPE 旋转位置编码详解与计算示例

一、RoPE 的数学基础

1. 频率参数生成

给定维度 dd 和位置 mm,定义频率参数:

θi=1100002i/d\theta_i = \frac{1}{10000^{2i/d}}

其中:

  • ii:维度索引(从 0 开始), 这个公式很好记忆,d 是向量维度,比如128。而ii 乘以2不能超过d,所以当d=128d=128 的时候,
  • dd:向量总维度。
2025-05-16
深度学习ban
00

该文章已加密,点击 阅读全文 并输入密码后方可查看。

2025-05-16
深度学习
00

1. 梯度消失如何缓解?

(1)梯度消失是深度神经网络训练过程中出现的一种现象,指的是在反向传播时,靠近输入层的梯度变得非常小,几乎趋近于零。这通常发生在使用如 Sigmoid 或 Tanh 等饱和激活函数的深层网络中,由于链式法则导致多个小于1的数连乘,使得梯度指数级衰减。

(2)梯度消失的现象主要表现为模型训练缓慢甚至停滞,靠近输入层的参数几乎不更新,导致网络无法有效学习特征。这会直接影响模型的收敛速度和最终性能,尤其在层数较多的情况下更为明显。

(3)缓解梯度消失的方法包括:使用如 ReLU 及其变体等非饱和激活函数;采用合适的参数初始化方法如 He 初始化Xavier 初始化,保证信号传播的稳定性;引入 Batch Normalization 层来标准化每层输出;利用 残差连接(Residual Connection) 使梯度更容易回传;以及在必要时使用 梯度裁剪(Gradient Clipping) 防止梯度过小或过大带来的训练不稳定问题。