https://arxiv.org/abs/2410.13863
论文研究了文本生成图像背景下的缩放问题,主要关注两个关键因素:模型使用离散还是连续的标记,以及标记是以随机顺序还是固定光栅顺序生成,使用的是类似于BERT还是GPT的转换器架构。
基于连续标记的模型相比于使用离散标记的模型,在视觉质量上显著更佳。
此外,生成顺序和注意力机制显著影响GenEval分数:随机顺序模型相比于光栅顺序模型获得了显著更好的GenEval分数。
受这些发现的启发,我们训练了Fluid,一个基于连续标记的随机顺序自回归模型。
Fluid 10.5B模型在MS-COCO 30K数据集上实现了新的零样本FID的最先进成绩6.16,并在GenEval基准测试中获得了0.69的总分。
我们希望我们的发现和结果能够鼓励未来的研究工作进一步弥合视觉和语言模型之间的扩展差距。
作为开发者,我们常遇到企业内网或特殊网络环境下无法直接访问Git仓库的情况。本教程将详细介绍如何为Git设置代理(Proxy)以及如何取消代理配置,并提供常见问题排查方法。
https://github.com/kvcache-ai/ktransformers
GitHub - kvcache-ai/ktransformers: A Flexible Framework for Experiencing Cutting-edge LLM Inference
2025 年 2 月 10 日:支持 Deepseek-R1 和 V3 在单(24GB 显存)/多 GPU 和 382G DRAM 上运行,速度提升可达 3~28 倍。详细演示和复现教程请参见此处。
KTransformers 是一个灵活且以 Python 为中心的框架,旨在通过高级内核优化和并行策略提升大型语言模型(LLM)的推理性能。该框架允许用户通过简单的代码注入,快速实现与 Transformers 兼容的接口、支持 OpenAI 和 Ollama 的 RESTful API,以及类似 ChatGPT 的简化网页界面。KTransformers 特别关注资源受限的本地部署场景,支持 GPU/CPU 异构计算和量化模型的优化,例如高效的 Llamafile 和 Marlin 内核。其核心设计理念是通过模板化的注入机制,简化模块替换和优化组合,帮助研究人员探索创新的 LLM 推理优化方案。KTransformers 还提供了详细的教程和示例,支持多 GPU 部署和多种先进模型(如 DeepSeek 和 Mixtral),并计划在未来版本中开源更多优化功能。该框架由清华大学 MADSys 小组和 Approaching.AI 团队积极维护,致力于成为实验前沿 LLM 推理优化的灵活平台。
经调研和社区讨论,该实验方案需硬件支持以下配置:1块RTX 4090显卡+双路Xeon 6430+16通道DDR5内存(总容量512GB),通过AMX指令集实现CPU矩阵加速。方案采用"访存换计算"策略,将非密集计算层部署在CPU内存,利用16根内存条达成600GB/s带宽。但实际受限于PCIe总线性能,仅能输出10+ token/s,且整套系统功耗超1000W(CPU 500W+GPU 200W),运行温度达70-80℃。此配置属原型验证级别,存在性能瓶颈和能耗过高问题,不具备量产可行性。