2025-10-24
深度学习
00

MCP 四种服务传输类型详解:STDIO、SSE、Streamable HTTP 与 InMemory

引言

Model Context Protocol(MCP)是 Anthropic 推出的开放标准协议,旨在标准化 AI 应用与外部工具、数据源和系统之间的连接方式。就像 USB 标准统一了计算机外设接口一样,MCP 试图解决 AI 集成中的"M×N 问题"——将 M 个不同的 AI 应用与 N 个不同工具的集成从 M×N 个独立实现简化为 M+N 个标准化实现。

在 MCP 架构中,传输层(Transport)是实现客户端与服务器通信的基础。本文将深入探讨 MCP 的四种主要传输类型及其应用场景。

2025-10-23
Linux运维
00

确保所有 tmux 进程已终止:

bash
展开代码
sudo pkill -f tmux
2025-10-23
深度学习
00

https://forum.cursor.com/t/ctrl-c-will-not-copy/70657

edit keybindings.json to add:

mkdir -p ~/.cursor/User

bash
展开代码
[ { "key": "ctrl+c", "command": "workbench.action.terminal.copySelection", "when": "terminalFocus && terminalProcessSupported && terminalTextSelected" }, { "key": "ctrl+shift+c", "command": "workbench.action.terminal.sendSequence", "args": { "text": "\\u0003" }, "when": "terminalFocus" } ]
2025-10-21
深度学习
00

https://hf-mirror.com/

bash
展开代码
git lfs pull
2025-10-21
深度学习
00

访问 Node.js 官方网站 (https://nodejs.org) 。通常,官网会直接推荐最新的长期支持 (LTS) 版本,这个版本更稳定,非常适合大多数用户。直接点击页面上的推荐版本进行下载即可。

✅ 验证安装

分别输入以下两条命令并执行:

  • node -v:此命令会显示已安装的 Node.js 的版本号。
  • npm -v:此命令会显示 npm(Node Package Manager)的版本号,它通常随 Node.js 一同自动安装。 如果两个命令都返回了版本号(例如 v18.17.09.6.7),就说明安装成功了。
2025-10-21
深度学习
00
2025-10-21
深度学习
00

前Manus产品经理对Agent的思考: https://mp.weixin.qq.com/s/tewBKHgbyrjxUjAOmkXI7A

总结其核心内容:

核心观点

Agent的本质:AI Agent的强大不在于模型本身的智力提升,而在于我们为其设计的"认知流程"。这套流程让AI从"一次性生成答案"进化为"动态解决问题"。

五个成长阶段(用学霸比喻)

  1. 原生天才(基础LLM):直接输出答案,但无法验证可靠性
  2. 思考者(CoT-思维链):将复杂任务分解为线性推理步骤
  3. 细心人(Reflexion-自我反思):能复盘错误并迭代优化
  4. 战略家(Planning-规划):先制定计划再执行
  5. 学者(ReAct-工具使用):通过"思考→行动→观察"循环与外界交互

流程的三重价值

  1. 用"结构"对抗"混沌":通过规划和思维链为AI建立逻辑脚手架
  2. 用"迭代"对抗"遗忘":通过反思机制压缩和提炼关键信息
  3. 用"交互"对抗"虚无":通过工具调用获取真实世界的反馈

理论基础

  • 控制论:闭环系统通过反馈机制不断逼近目标
  • 信息论:通过获取信息降低不确定性(熵减)

未来方向

文章呼吁开发者从"提示词工程师"转变为"Agent流程架构师",关注:

  • 智能工作流编排
  • 多Agent协同(规约驱动)
  • 动态代码生成能力
  • 性能优化(并行化、模型特化、高效记忆架构)

关键洞察:Agent与Chatbot的区别不在于"调用几次",而在于是否具备目标导向的、可自我修正的动态流程

2025-10-21
DL论文
00

https://huggingface.co/deepseek-ai/DeepSeek-OCR

DeepSeek-OCR:光学压缩技术开辟文本处理新范式

引言

在大语言模型(LLM)处理长文本时面临的计算挑战日益凸显,DeepSeek-AI团队提出了一个创新性的解决方案——DeepSeek-OCR。这项研究探索了通过视觉模态实现文本信息高效压缩的可行性,为解决长上下文处理问题开辟了全新的技术路径。

2025-10-20
深度学习
00

clone到本地:

bash
展开代码
git clone git@github.com:Stabil
2025-10-18
深度学习
00
python
展开代码
import requests import json import os from tqdm import tqdm import time class FishAudioTTS: def __init__(self, api_key, reference_id): """ 初始化Fish Audio TTS客户端 Args: api_key (str): Fish Audio API密钥 reference_id (str): 参考音频ID """ self.api_key = api_key self.reference_id = reference_id self.base_url = "https://api.fish.audio/v1/tts" self.headers = { 'Authorization': f'Bearer {api_key}', 'Content-Type': 'application/json', 'model': 's1' # 使用s1模型 } def text_to_speech(self, text, output_file="output.wav", **kwargs): """ 将文本转换为语音 Args: text (str): 要转换的文本 output_file (str): 输出音频文件名 **kwargs: 其他API参数 """ # 默认参数 default_params = { "text": text, "reference_id": self.reference_id, # 使用参考音频ID "temperature": 0.7, "top_p": 0.7, "chunk_length": 200, "normalize": True, "format": "wav", "sample_rate": 44100, "latency": "normal" } # 合并用户提供的参数 params = {**default_params, **kwargs} print(f"🎵 开始文本转语音...") print(f"📝 文本内容: {text[:50]}{'...' if len(text) > 50 else ''}") print(f"🎯 参考音频ID: {self.reference_id}") print(f"🤖 使用模型: s1") try: # 发送请求 with tqdm(desc="🚀 发送请求到Fish Audio API", unit="req") as pbar: response = requests.post( self.base_url, headers=self.headers, json=params, timeout=60 ) pbar.update(1) # 检查响应状态 if response.status_code == 200: print("✅ API请求成功!") # 保存音频文件 with tqdm(desc="💾 保存音频文件", unit="B", unit_scale=True) as pbar: with open(output_file, "wb") as f: for chunk in response.iter_content(chunk_size=1024): if chunk: f.write(chunk) pbar.update(len(chunk)) print(f"🎉 音频文件已保存到: {output_file}") print(f"📊 文件大小: {os.path.getsize(output_file)} 字节") return True elif response.status_code == 401: print("❌ 认证失败: API密钥无效") return False elif response.status_code == 402: print("❌ 支付失败: 账户余额不足") return False elif response.status_code == 422: print("❌ 请求参数错误") try: error_info = response.json() print(f"错误详情: {error_info}") except: print(f"响应内容: {response.text}") return False else: print(f"❌ 请求失败: HTTP {response.status_code}") print(f"响应内容: {response.text}") return False except requests.exceptions.Timeout: print("❌ 请求超时,请检查网络连接") return False except requests.exceptions.RequestException as e: print(f"❌ 网络请求错误: {e}") return False except Exception as e: print(f"❌ 未知错误: {e}") return False def main(): """主函数 - 演示Fish Audio TTS的使用""" # 配置信息 API_KEY = "xx" REFERENCE_ID = "ef45348243c74d0d83ceb0f2f90c2d38" # 参考音频ID # 创建TTS客户端 tts_client = FishAudioTTS(API_KEY, REFERENCE_ID) # 测试文本 test_text = "你好,这是一个使用Fish Audio API的文本转语音测试。今天天气真不错,希望你能喜欢这个声音效果!" print("=" * 60) print("🎤 Fish Audio 文本转语音测试") print("=" * 60) # 执行文本转语音 success = tts_client.text_to_speech( text=test_text, output_file="fish_audio_output.wav", # 可以自定义参数 temperature=0.8, top_p=0.8, format="wav", sample_rate=44100 ) if success: print("\n🎉 文本转语音完成!") print(f"📁 输出文件: fish_audio_output.wav") else: print("\n❌ 文本转语音失败,请检查错误信息") if __name__ == "__main__": main()