当前位置: 首页 > news >正文

做网站得每年续费吗社区论坛网站建设

做网站得每年续费吗,社区论坛网站建设,广东做网站公司,广西网站设计公司在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。 准备vLLM镜像 在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像: # 官方镜像 docke…

在此之前,我们已成功利用Docker与Ollama框架,在内网环境中部署了Qwen2模型。下面我们再来看一下使用Docker与vLLM框架部署Qwen2模型。

准备vLLM镜像

在一台具备网络环境的机器上执行以下命令,拉取vLLM的镜像:

# 官方镜像
docker pull vllm/vllm-openai:latest# 如果因为墙的原因,以上命令拉取不到,可以去看看下面这些仓库
Docker仓库:https://docker.1panel.live ✅网友自建
Docker仓库:https://docker.agsv.top  ✅网友自建
Docker仓库:https://docker.agsvpt.work  ✅网友自建
Docker仓库:https://dockerpull.com ✅网友自建
Docker仓库:https://dockerproxy.cn ✅网友自建

下载Qwen2-7B-Instruct模型

我这里下载的是Qwen2-7B-Instruct-GPTQ-Int4的模型。下载地址:

https://huggingface.co/Qwen/Qwen2-7B-Instruct-GPTQ-Int4

编写Dockerfile

我们将Qwen2模型打包上传到服务器,然后编写Dockerfile:

# 基础镜像
FROM vllm/vllm-openai:latest# 暴露端口
EXPOSE 8000# 将模型上传到基础镜像
ADD Qwen2-7B-Instruct-GPTQ-Int4 /home/Qwen2-7B-Instruct-GPTQ-Int4# 容器启动要执行的命令,注意这里一定要是python3
ENTRYPOINT ["python3","-m","vllm.entrypoints.openai.api_server","--served-model-name","Qwen2-7B-Instruct-GPTQ","--model","/home/Qwen2-7B-Instruct-GPTQ-Int4"]

构建镜像

执行docker build命令,构建docker镜像:

docker build -t vllm_qwen2_7b:1.0 -f Dockerfile .

启动容器

执行以下命令,启动docker容器:

docker run -itd --runtime nvidia --gpus all --name vllm_qwen2 --env "HUGGING_FACE_HUB_TOKEN=<secret>" -p 8000:8000 vllm_qwen2_7b:1.0 --max-model-len 8129

经过启动、测试,模型运行没问题。

然后,我们就可以将镜像导出,提供给内网环境使用了:

# 镜像导出
docker save -o vllm_qwen2.tar vllm_qwen2_7b:1.0
# 镜像导入
docker load -i vllm_qwen2.tar

问题解决

问题1、No CUDA GPUs are available

解决方法:

(1)检查是否正确安装了CUDA驱动,执行nvidia-smi可查看。

(2)docker run命令中没有添加--runtime nvidia --gpus all。

问题2:unknown or invalid runtime name: nvidia

解决方法:

当Docker容器需要使用GPU时,需要配置Docker的default-runtimenvidia,然后重启Docker。

{"runtimes":{
"nvidia":{
"path":"nvidia-container-runtime",
"runtimeArgs":[]
}
},
"default-runtime":"nvidia"
}

 如果是Windows版Docker,需要在Docker Desktop中点击右上角的Setting,然后点击Docker Engine,在这里设置完上述配置后,点击restart

 

问题3、Try increasing gpu_memory_utilization or decreasing max_model_len when initializing the engine.

解决方法:

因为GPU内存限制而需要调整模型的最大序列长度。在docker run命令最后加--max-model-len限制。

--max-model-len 8129
http://www.yayakq.cn/news/768866/

相关文章:

  • 做二手平台公益的网站英文模板网站
  • 无锡网站制作深圳网站建设网站推广的方法
  • 邯郸做移动网站价格京山网站开发
  • 网站建设书籍附光盘colorway wordpress
  • win10建设网站目录手机网站做指向
  • 网站模板做的比较好的wordpress 图片 压缩
  • 猎上网登陆官方网站客厅设计
  • 矢量插画的网站2021给个最新网站
  • 深圳网站建设 设计没有货源怎么开网店?
  • 网站建设步骤流程详细介绍网站加seo需要多少钱
  • 邢台集团网站建设费用新建wordpress模板
  • 网站倒计时怎么做网站风格配置怎么做
  • 电影网站怎么建设灰色网站设计
  • 外包公司做的网站怎么改密码学校网站开发图片素材
  • 做一小说网站要花多钱如何让网站快速收录你
  • 做影视网站赚钱吗网站seo优化服务
  • 做公司网站的价格邮件模板网站
  • 郑州做网站企业北京建筑人才招聘网
  • 郑州做网站那家做的好什么是网站开发公司电话
  • 深圳网站建设延安网站建设 東道网络
  • 杭州教育网站建设科普类网站怎么做
  • 厦门模板建站网站开发工程师培训
  • 好的网站制作wordpress网盘
  • 手机网站怎么开发安顺高端网站建设平台
  • 潍坊专业网站建设价格低秦皇岛海三建设集团
  • 建设银行网站用什么字体wordpress去除 版权信息
  • 上海一 网站建设公司网站建设相关工作
  • 从seo角度做网站流量企业网站建设很有必要
  • flash 如何做游戏下载网站策划公司网站设计
  • 学校网站建设的软件环境网页制作与网站建设作业