Gradle
发表于
Interpreter
发表于
interpreter
Interpreter
发表于
Jmap
发表于
未命名
发表于
未命名
发表于
vllm使用记录
安装
1 | # 安装 Miniconda |
1 | # (Recommended) Create a new conda environment. |
- docker 安装
1 | # vLLM 提供了一个官方 Docker 镜像用于部署。该镜像可用于运行与 OpenAI 兼容服务器,并且可在 Docker Hub 上以 vllm/vllm-openai 的形式获取。 |
- 源码安装
1 | # 启用Docker BuildKit |
使用
1 | # Run the following command to start the vLLM server with the Qwen2.5-1.5B-Instruct model: |
异常问题
ModuleNotFoundError: No module named 'torch'
1 | pip install torch |
- for instructions on how to install GCC 5 or higher.
1 | yum install centos-release-scl |
未命名
发表于
sshuttle
1 | # 安装 |
1 |
|
高级操作(客户端零配置功能测试失败)
一、服务器端配置(一次性操作)
1. 创建专用 VPN 用户
1 | sudo useradd -r -s /usr/sbin/nologin vpn-tunnel # 创建无登录权限的系统用户 |
2. 生成服务器专用密钥对
1 | # 在服务器上生成密钥(仅需执行一次) |
3. 配置自动授权
1 | # 将公钥设为 VPN 用户的唯一授权方式 |
4. 加固 SSH 配置 (/etc/ssh/sshd_config
)
1 | # 限制 VPN 用户权限 |
5. 应用配置
1 | # 重启sshd |
二、客户端零配置连接方案
方案 B:证书认证(更安全,适合生产环境)
1 | # 在服务器上生成 CA 证书 |
Softs
发表于
Cursor
发表于