© 2024 Alpha Hinex. Powered by Hexo Theme Obsidian
「 AI 」 十二月 22, 2024
文章字数 14k 阅读约需 13 mins.
本文记录了在两台机器,每台机器一块 Tesla T4 显卡的环境下,使用 vLLM 部署 Qwen2.5-32B-Instruct-GPTQ-Int4 模型的过程及遇到的问题,供类似环境使用 vLLM...