解锁128K超长上下文:一次搞定Qwen2.5 + Xinference + vLLM的踩坑实录
一篇详细的技术排查实录,记录了如何通过升级vLLM核心,解决Xinference环境下Qwen2.5模型无法开启128K超长上下文的问题,并分享了层层递进的排查思路。
1761 字
|
9 分钟
Cover Image of the Post
在安卓手机上通过 Termux 安装 MigGPT-Server 指南
一篇详细的教程,指导你如何使用安卓手机上的 Termux 应用安装和配置 MigGPT-Server,从而实现小爱音箱与 AI 的对接。
761 字
|
4 分钟
Cover Image of the Post
1
2