简洁提示:通过生成过程中的连续简洁提示提升推理效率2025 Oct 10·1556 字·4 分钟算法 论文 论文 算法 CoT压缩简洁提示:通过生成过程中的连续简洁提示提升推理效率 # ConciseHint: Boosting Efficient Reasoning via Continuous Concise Hints during Generation
Prophet:Diffusion模型基于置信度的Decoding早停2025 Oct 10·1543 字·4 分钟算法 论文 论文 算法 Diffusion DLLMProphet:Diffusion 模型基于置信度的 Decoding 早停 # Prophet: Fast Decoding for Diffusion Language Models
SpecDiff:使用扩散模型作为Draft模型2025 Oct 10·1356 字·3 分钟算法 论文 论文 算法 Diffusion DLLM SpecSpecDiff:使用扩散模型作为 Draft 模型 # Speculative Diffusion Decoding: Accelerating Language Generation through Diffusion
DiffuSpec:解锁DLM做投机采样2025 Oct 10·2609 字·6 分钟算法 论文 论文 算法 Diffusion DLLM SpecDiffuSpec:解锁 DLM 做投机采样 # DIFFUSPEC: UNLOCKING DIFFUSION LANGUAGE MODELS FOR SPECULATIVE DECODING
后端部署第二步:本地到公网——如何使用 Nginx 发布 FastAPI 服务2025 Sep 5·1668 字·4 分钟开发 运维 FastAPI Nginx 部署 Python后端 Web服务配置后端部署第二步:本地到公网——如何使用 Nginx 发布 FastAPI 服务 # 在当今的开发环境中,快速构建和部署后端服务变得至关重要。FastAPI 作为一个高性能、现代化的 Python 异步 Web 框架,广受开发者喜爱。而 Nginx 则是部署 Web 应用最常见也是最稳定的解决方案之一。
Fast-dLLM:通过KV Cache和并行Decoding加速dLLM2025 Sep 5·2003 字·4 分钟算法 论文 论文 算法 Diffusion DLLMFast-dLLM:通过 KV Cache 和并行 Decoding 加速 dLLM # Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding
后端部署第一步:Nginx 发布服务前的万全准备2025 Sep 3·1594 字·4 分钟开发 运维 后端 Nginx 服务器 部署后端部署第一步:Nginx 发布服务前的准备工作 # 你是不是刚刚用 Java、Python 或 Go 写出了第一个后端程序?它在本地跑得飞快,通过 localhost:8080 就能访问,功能也都挺顺畅。接下来,自然而然会冒出一个念头:“我要怎样才能让别人也能访问到它?”
TriangleMix:无损且高效的用于预填充阶段的注意力模式2025 Sep 2·2323 字·5 分钟算法 论文 论文 算法 CoT压缩TriangleMix:无损且高效的用于预填充阶段的注意力模式 # TriangleMix: A Lossless and Efficient Attention Pattern for Long Context Prefilling