这里有一个很好的例子:https://thingsboard.io/use-cases/fleet-tracking/
这篇文章想完成这些事情:
在使用VMware运行Ubuntu虚拟机时,访问Windows主机上的文件是常见需求。本文将详细介绍如何通过网络共享方式,让Ubuntu虚拟机直接访问Windows主机的文件夹。
在 Windows PowerShell 中运行 conda
时,可能会遇到以下错误:
powershell展开代码conda : 无法将“conda”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径正确,然后再试一次。
即使 conda.exe
路径已添加到环境变量,仍然无法直接使用 conda
命令。本指南将提供完整的解决方案。
docker-compose.yaml
bash展开代码version: '3'
services:
nextcloud:
image: nextcloud
container_name: nextcloud
ports:
- "8082:80"
volumes:
- ./nextcloud_data:/var/www/html # 网页文件和数据
- ./app_data:/var/www/html/data # 可选:Nextcloud用户数据单独存储
environment:
- MYSQL_HOST=db # 数据库服务名
- MYSQL_DATABASE=nextcloud # 数据库名
- MYSQL_USER=填写自己的用户名 # 数据库用户
- MYSQL_PASSWORD=填写自己的用户密码 # 数据库密码
depends_on:
- db
restart: unless-stopped
db:
image: mariadb:10.6 # 或 mysql:8.0
container_name: nextcloud_db
environment:
- MYSQL_ROOT_PASSWORD=root_password # root密码(保密)
- MYSQL_DATABASE=nextcloud
- MYSQL_USER=填写自己的用户名
- MYSQL_PASSWORD=填写自己的用户密码
volumes:
- ./db_data:/var/lib/mysql # 数据库文件保存在当前目录的db_data文件夹
restart: unless-stopped
Self-balance Control of Bicycle with Inertial Wheel Pendulum based on Linear ADRC
https://ieeexplore.ieee.org/document/10055063
摘要:本文研究了带惯性轮摆(IWP)的无人自行车在外部干扰和模型不完整情况下的自平衡控制问题。通过拉格朗日方法将无人自行车系统简化为倒立摆模型进行建模。为实现无人自行车在垂直方向上的稳定性并完成自平衡控制,提出了一种基于线性自抗扰控制(LADRC)的方法,并与PID控制器进行对比。为验证所提方法的性能,在具备真实物理特性仿真能力的ROS-Gazebo平台上进行实验,同时与比例-积分-微分(PID)控制器开展对比仿真。结果表明:基于LADRC控制器的无人自行车系统具有更优的自平衡性能,且对外部干扰和建模误差具有强鲁棒性。
CycleGAN包含4个网络:
其中:
Stable Diffusion的文本转图像过程是一个复杂的流程,文本提示(prompt)会被转换成嵌入向量,然后通过条件扩散模型引导图像生成。以下是完整的流程:
CFG Scale(Classifier-Free Guidance Scale,无分类器指导缩放)是Stable Diffusion中的一个关键参数,它控制生成图像在遵循文本提示的严格程度。
噪声调度器(Noise Schedulers)是扩散模型生成过程中的关键组件,它们决定了扩散过程中噪声水平如何随时间变化。合适的噪声调度可以显著提高生成质量和效率。我将详细解析 SD WebUI 中的各种调度器,包括其数学原理和具体实现。
Stable Diffusion 采样器是扩散模型去噪过程的核心组件,不同采样器采用不同的数学方法来逐步将纯噪声转换为有意义的图像。下面我将详细介绍几种主要采样器的工作原理、数学公式和代码实现。
Read file: modules/processing.py
Read file: modules/sd_samplers.py
Read file: modules/sd_samplers_kdiffusion.py
StableDiffusionProcessingTxt2Img 是 stable-diffusion-webui 中实现文本到图像生成的核心类。整个生成过程是一个复杂的管道,下面我将分步骤详细解析这个过程。
本文的代码: https://github.com/xxddccaa/stable-diffusion-webui-contorlnet-recolor
用途:专为黑白照片上色设计的轻量化模型
核心特点:
• 老照片修复/历史影像彩色化的理想选择
• 基于ControlNet架构,采用LoRA(低秩适应)技术实现模型瘦身:
• 原版ControlNet:4.7GB → Control-LoRA:仅738MB/377MB
• 训练时覆盖多样化图像概念和比例,具备优秀泛化能力
技术文档:HuggingFace项目页
展开代码apt update apt-get install libglib2.0-0 -y
全量微调Qwen2.5-VL-7B-Instruct的参数,用于图片转公式LaTex。
模型地址:https://huggingface.co/Qwen/Qwen2.5-VL-7B-Instruct
数据集:https://modelscope.cn/datasets/AI-ModelScope/LaTeX_OCR/summary
数据集下载,约有1.1G大小数据:
bash展开代码modelscope download --dataset AI-ModelScope/LaTeX_OCR --local_dir AI-ModelScope/LaTeX_OCR
该Python脚本用于处理/ssd/xiedong/vlm-r1-train-tasks-json-ui-docto/tasks_json目录下的数据,将其中所有图片等比例缩小(最长边为1024像素),并连同JSON文件一起复制到新目录/ssd/xiedong/vlm-r1-train-tasks-json-ui-docto/tasks_json_small_size中。
功能说明
一篇很好的DeepSeek R1 解读: https://zhuanlan.zhihu.com/p/20844750193
DeepSeek R1 论文: https://arxiv.org/abs/2501.12948
如何从DeepSeek-V3-Base得到DeepSeek-R1-Zero,可以看下面这图。编写一个指导性的提示词,让DeepSeek-V3-Base输出一组回答,用奖励模型进行奖励RL训练,这样就可以训练出DeepSeek-R1-Zero。
VLM-R1GRPO微调, 实战训练教程(1):
https://www.dong-blog.fun/post/1961
本博客这次使用多图进行GRPO。
官方git项目:https://github.com/om-ai-lab/VLM-R1?tab=readme-ov-file
https://github.com/pch18-docker/baota
yaml展开代码root@xd-OptiPlex-3070:~/bt_data# cat docker-compose.yml
version: '3.8'
services:
baota:
image: pch18/baota:clear
container_name: baotaxd
restart: unless-stopped
ports:
- "11000:8888" # 宝塔面板(外部11000 → 容器8888)
- "11080:80" # HTTP(外部11080 → 容器80)
- "11443:443" # HTTPS(外部11443 → 容器443)
- "11020:20" # FTP(可选)
- "11021:21" # FTP(可选)
- "11306:3306" # MySQL(可选)
- "11679:6379" # Redis(可选)
volumes:
- ./www:/www/wwwroot
- ./backup:/www/backup
- ./data:/www/data
privileged: true