Qwen团队在X post中解释停止使用混合思维模式的原始帖子地址是:https://x.com/Alibaba_Qwen/status/1947344511988076547
上nature了: https://www.nature.com/articles/s41586-025-09422-z
我之前的一个文章介绍: https://www.dong-blog.fun/post/2014
DeepSeek-R1-Zero 也是一个重要成果,纯强化学习路线也是可以走的。
基础:直接基于DeepSeek-V3 Base模型 核心特点:
结果:
这问题困扰我很久,在评论管理页面无法看到管理。
最终才发现我登录Waline不是管理员身份导致的。需要修改数据库的表是最佳最快的解决办法。
bash展开代码docker ps # 查看mongo数据库的容器ID
# 进入 MongoDB 容器
docker exec -it <mongo容器ID> mongosh
# 切换到 waline 数据库
use waline
# 查看有哪些集合
waline> show collections
Comment
Users
https://mp.weixin.qq.com/s/3t4PjpZcMVU1wCO0ThUs2A
本文系统阐述了AI Agent开发中新兴的“上下文工程”(Context Engineering)概念及其核心方法论。随着Agent在实际运行中产生海量工具调用和长程推理(long horizon reasoning),管理冗长上下文成为影响性能、成本和模型能力的关键瓶颈。
核心挑战:
五大核心策略:
核心启示与未来方向: 文章引用Hyung Won Chung的“The Bitter Lesson”指出,AI进步的根本驱动力是计算规模(Scaling Law)而非人工设计的复杂结构(归纳偏置)。随着模型能力持续指数级提升(如Claude 3.5的发布),最佳策略是构建灵活、通用、少结构化的系统,而非嵌入过多当前有效的假设,以便更好地适应未来模型的能力。企业应用应倾向于采用透明、可组合的底层编排框架(如Shopify Roast),而非黑箱化的Agent抽象,从而在模型能力追上时释放最大价值。AI Native产品(如Cursor、Windsurf)从零构建的优势正于此显现。
https://arxiv.org/pdf/2509.14786
这篇论文《无限算力下的预训练》(Pre-training under infinite compute)由斯坦福大学的研究者撰写,核心探讨了在高质量训练数据有限但计算资源无限的未来场景下,如何通过算法改进来极大提升语言模型预训练的数据效率。以下是全文的核心总结:
检查是否联网,没有联网就自动重连wifi Guest。
bash展开代码mkdir/root/autowifi/ && vim /root/autowifi/wifi-watchdog.sh
写入:
bash展开代码#!/bin/bash
interface="wlan0" # 请根据你的实际接口名修改,如 wlp3s0
while true; do
if ! ping -c 1 www.baidu.com &> /dev/null; then
echo "WiFi disconnected. Attempting to reconnect..."
sudo systemctl restart NetworkManager
sleep 5
sudo nmcli device wifi connect "Guest" password "Guest"
fi
sleep 300 # 每300秒检查一次网络状态
done
设置屏幕dpi
bash展开代码adb shell wm density 270
强制杀死某个包:
bash展开代码adb shell am force-stop com.xx.xx
我在win的cmd里一打python3,就跳转到windows的应用商店了,我安装了miniconda3,也指定path了,为啥不用我的miniconda3呢?
这个问题很常见,主要是因为Windows 10/11有一个默认的Python应用别名会拦截python3命令。即使你安装了miniconda3并设置了PATH,Windows的应用执行别名优先级更高。