vLLM

vLLM 是一个开源的高性能 LLM 推理引擎,让大语言模型在 GPU 上运行得更快、更省显存。是大规模AI应用的理想之选。

{{totalSubscript}} 订阅 ,140 游览
暂无数据