vllm使用记录
安装
1 | # 安装 Miniconda |
1 | # (Recommended) Create a new conda environment. |
- docker 安装
1 | # vLLM 提供了一个官方 Docker 镜像用于部署。该镜像可用于运行与 OpenAI 兼容服务器,并且可在 Docker Hub 上以 vllm/vllm-openai 的形式获取。 |
- 源码安装
1 | # 启用Docker BuildKit |
使用
1 | # Run the following command to start the vLLM server with the Qwen2.5-1.5B-Instruct model: |
异常问题
ModuleNotFoundError: No module named 'torch'
1 | pip install torch |
- for instructions on how to install GCC 5 or higher.
1 | yum install centos-release-scl |