当前位置: 首页 > news >正文

网站做的一般怎么评价html静态网页素材

网站做的一般怎么评价,html静态网页素材,做网站的国标有哪些,设计论坛最好的网站🛠️ 在 Windows WSL 上部署 Ollama 和大语言模型:从镜像冗余问题看 Docker 最佳实践 ⭐ 引言 随着大语言模型(LLM)和人工智能技术的迅猛发展,开发者们越来越多地尝试在本地环境中部署模型进行实验。 但部署过程中常…

🛠️ 在 Windows WSL 上部署 Ollama 和大语言模型:从镜像冗余问题看 Docker 最佳实践

⭐ 引言

随着大语言模型(LLM)和人工智能技术的迅猛发展,开发者们越来越多地尝试在本地环境中部署模型进行实验。
但部署过程中常常会遇到 网络限制、资源冲突 和 工具复杂性 等问题。本文聚焦于实际操作中遇到的 Docker 镜像冗余问题,并总结了从问题发现到解决的完整流程。同时,结合 Ollama、Open WebUI 和 Qwen 的联系,分享一套适用于本地 LLM 部署的 Docker 最佳实践工作流,帮助开发者高效部署和管理模型。
在这里插入图片描述

🔍 Ollama、Open WebUI 和 Qwen 的联系

📌 Ollama

  • 定位:本地大语言模型推理工具,支持 RESTful API。
  • 功能:
    • 提供 LLM 模型的高效推理能力。
    • 通过命令行工具快速部署 RESTful 服务。
  • 优势:
    • 轻量化:支持 CPU 和 GPU 环境。
    • 离线能力:无需联网即可本地运行模型。

📌 Open WebUI

  • 定位:基于浏览器的交互界面,方便与模型交互。
  • 功能:
    • 提供文档导入和 RAG(检索增强生成)支持。
    • 可视化界面适合复杂任务的操作。
  • 优势:
    • 用户友好:降低命令行门槛。
    • 高扩展性:与 Ollama 的后端无缝结合。

📌 Qwen

  • 定位:阿里巴巴推出的大语言模型,支持中英文双语。
  • 功能:
    • 文本生成、理解和推理能力强大。
    • 可在 Ollama 或 Hugging Face 环境中部署。
  • 优势:
    • 任务灵活:适用于对话生成、知识问答等。
    • 开放性强:支持自定义训练与开源应用。

📎 三者的协作

  • Ollama 提供模型推理服务,并通过 API 接口供其他工具调用。
  • Open WebUI 作为用户界面,与 Ollama 的 API 交互。
  • Qwen 是核心模型,为用户提供实际生成能力。

🛠️ 镜像冗余问题:从发现到解决的完整分析

📌 问题背景

在通过 Docker 部署 Open WebUI 时,始终无法正常启动容器,日志显示 网络无法访问 Hugging Face。但实际根源是 Docker 镜像冗余 导致的容器冲突。

现象:
1. 多个停止状态的容器残留。
2. 重复镜像未清理,导致新容器启动失败。
3. 错误日志显示:

Error response from daemon: conflict: unable to delete <image_id> - image is being used by stopped container.

📋 问题排查与解决

1. 检查运行状态的容器:

docker ps -a

输出结果显示多个以相同镜像启动的容器,其中一些处于停止状态。

2. 检查镜像状态:

docker images

发现重复镜像未清理,占用存储空间,可能导致冲突。

3. 停止并删除所有相关容器:

docker stop <container_id>
docker rm <container_id>

4. 强制删除镜像:
即使镜像有残留关联容器,docker rmi 也可以强制删除:

docker rmi <image_id>

• 例如:docker rmi 7d2
此命令只需提供镜像 ID 的前几位即可,Docker 会自动匹配。

5. 删除未使用的镜像:
该命令清理所有未被使用的镜像,释放存储空间。

docker image prune -a

6. 重新加载镜像并启动容器:

  • 加载离线镜像:
docker load < x86-64-images.tar.gz
  • 启动 Open WebUI 容器
docker run -d --network=host \-v /home/<user>/.ollama/models:/app/backend/data \-e OLLAMA_BASE_URL=http://127.0.0.1:11434 \--name open-webui \--restart always \ghcr.io/open-webui/open-webui:main
  • 以下是对该 docker run 命令的逐步解读,每个选项和参数的详细说明:

**1. 基本命令:docker run **
• 启动一个新的容器实例,基于指定的镜像运行。
• 这是 Docker 最常用的命令,用于容器化服务的启动。

2. 参数解析

  • -d
    • 含义:以 后台(detached)模式 运行容器。
    • 功能:让容器在后台运行,而不是占用当前终端。
    • 优势:适合需要长期运行的服务,如 API 或 Web 应用。

  • –network=host
    • 含义:让容器直接使用主机的网络栈,而不启用 Docker 默认的桥接网络。
    • 功能:
    • 容器中的服务可直接使用主机的 IP 和端口,而不需要端口映射。
    • 网络性能更高,避免了容器和主机之间的网络虚拟化开销。
    • 注意:
    • 使用 --network=host 时,容器内的端口与主机共用,因此可能引发端口冲突。
    • 在某些场景下可能降低安全性,因为容器直接暴露于主机网络。

  • -v /home//.ollama/models:/app/backend/data
    • 含义:挂载主机目录 /home//.ollama/models 到容器中的 /app/backend/data。
    • 功能:
    • 主机的 ~/.ollama/models 目录用于存储模型文件,将其挂载到容器内的对应目录。
    • 容器运行期间可以访问主机上的模型文件,实现数据共享。
    • 优势:
    • 数据持久化:即使容器删除,模型文件仍保留在主机上。
    • 方便管理:直接在主机上更新模型文件,无需重启容器。

  • -e OLLAMA_BASE_URL=http://127.0.0.1:11434
    • 含义:通过环境变量 -e 为容器中的服务设置配置。
    • 功能:
    • 定义 OLLAMA_BASE_URL 环境变量,指定 Ollama 服务的基地址。
    • 在该示例中,http://127.0.0.1:11434 表示 Ollama 服务运行在主机的 127.0.0.1 地址和 11434 端口上。
    • 优势:
    • 配置灵活:通过环境变量可动态调整服务地址,无需修改代码或重新构建镜像。

  • –name open-webui
    • 含义:为容器指定一个唯一的名字 open-webui。
    • 功能:
    • 方便管理容器,例如 docker stop open-webui。
    • 提高可读性,相比于容器的随机 ID,容器名字更易识别。

  • –restart always
    • 含义:设置容器的重启策略为 always。
    • 功能:
    • 当 Docker 守护进程启动时,自动重启该容器。
    • 如果容器崩溃,也会自动尝试重启。
    • 优势:
    • 提高服务的稳定性和可用性,适合长时间运行的容器化服务。

  • ghcr.io/open-webui/open-webui:main
    • 含义:指定容器镜像来源。
    • 解析:
    • ghcr.io/open-webui/open-webui:镜像的路径,托管于 GitHub Container Registry。
    • main:镜像的标签,通常表示主分支的最新版本。
    • 功能:
    • Docker 会从注册表拉取 open-webui:main 镜像并创建容器。
    • 如果镜像已存在本地,则直接使用,无需重复下载。

技巧总结

    1. 缩短 ID 输入:
      无需完整输入容器或镜像的 ID,只需提供前几位即可,Docker 自动匹配:
docker rm 7eb
docker rmi 7d2
    1. 强制删除镜像:
      若提示镜像被关联容器占用,可先删除关联的容器或直接用 docker rmi 强制删除。
    1. 清理未使用资源:
      使用 docker image prune -a 一次性清理所有未使用的镜像,保持存储空间整洁。

📋 Docker 最佳实践工作流

为避免类似问题,以下是一套 系统化的 Docker 清理与部署工作流,帮助开发者优化操作流程:

📌 1. 项目初始化

1. 检查已有容器和镜像状态:

docker ps -a
docker images

2. 清理未使用的容器和镜像:

docker container prune
docker image prune -a

📌 2. 加载或拉取镜像

  • 加载离线镜像:
tar -xzvf x86-64-images.tar.gz
docker load < x86-64-images.tar.gz
  • 拉取远程镜像:
docker pull ghcr.io/open-webui/open-webui:main

📌 3. 部署并启动容器

1. 启动 Open WebUI:

docker run -d --network=host \-v /home/<user>/.ollama/models:/app/backend/data \-e OLLAMA_BASE_URL=http://127.0.0.1:11434 \--name open-webui \--restart always \ghcr.io/open-webui/open-webui:main

2. 启动 Ollama 服务:

ollama serve

📌 4. 日常维护

  • 查看容器状态:
docker ps
  • 查看容器日志:
docker logs <container_id>
  • 更新镜像:
docker pull ghcr.io/open-webui/open-webui:main

📝 结语

这次部署的最大收获在于:
1. 系统化问题分析:通过逐步排查,从网络问题定位到 Docker 镜像冲突。
2. 工具高效协作:深入理解 Ollama、Open WebUI 和 Qwen 的协作方式,充分发挥其功能。
3. 优化实践工作流:总结出了一套高效的 Docker 清理与部署流程。

希望这篇博客能为遇到类似问题的开发者提供启发和帮助。如果您有任何问题或想法,欢迎留言讨论! 🚀

http://www.yayakq.cn/news/852735/

相关文章:

  • 网站开发开源框架wordpress拖拽主题
  • 青岛网上房地产网站富民网站建设
  • 怎样做同性恋女视频网站南昌网站建设公司有哪些
  • 现在推广网站最好的方式百度电商广告代运营
  • 济宁网站定制公司中山市网站建设 中企动力
  • 鹤壁市城市建设投资有限公司网站外包网站开发安全吗
  • 网站开发服务计入什么科目遵义市做网站的电话
  • 下瓦房做网站公司温州专业微网站制作价格
  • 网站做等保是什么意思响应式网站新闻部分怎么做
  • 高端 网站定制wordpress建站教程简书
  • 企业网站未来发展趋势网站开发工程师特点
  • 恢复原来的网站大连英文网站建设
  • 临沂网站建设对实体企业网站制作西安
  • 冠县网站建设公司网页编辑实践报告
  • 定制开发网站多少钱wordpress自动更新
  • 尼乐清网站建设百度广告竞价
  • 闵行西安网站建设怎样访问简版网站
  • 上海网站建设品牌十大图片素材网站
  • 佛山格尔做网站的公司厚街网站建设多少钱
  • 网站建设招标书组成湖北专业网站建设耗材
  • 多平台管理系统360优化大师官方下载手机
  • 北京网站建设公司报价浩森宇特做网站不推广管用吗
  • 站长平台验证网站网站设计权限
  • 免费网页在线代理服务器品牌推广百度seo
  • 厦门专业网站建设商丘网红打卡地
  • 视频网站点击链接怎么做海尔电子商务网站建设预算
  • 高端网站制作怎么样网站建设费用多少
  • 昆明网站设计公司php网站开发用什么ide
  • 毕业生网站建设方案书网站建设培训速成
  • 开通网站主机保定中小企业网站制作