当前位置: 首页 > news >正文

国外做海报的网站百度官网登录

国外做海报的网站,百度官网登录,网页开发软件哪个好用,网站资料清单本地部署DeepSeek-R1:8b大模型 一、摘要及版本选择说明1.1 摘要1.2 版本选择 二、下载并安装Ollama三、运行DeepSeek-R1:8b大模型四、安装Open WebUI增强交互体验五、关闭Ollama开机自动启动六、DeepSeek大模型启停步骤 一、摘要及版本选择说明 1.1 摘要 作为一名对 AI 和生成…

本地部署DeepSeek-R1:8b大模型

  • 一、摘要及版本选择说明
    • 1.1 摘要
    • 1.2 版本选择
  • 二、下载并安装Ollama
  • 三、运行DeepSeek-R1:8b大模型
  • 四、安装Open WebUI增强交互体验
  • 五、关闭Ollama开机自动启动
  • 六、DeepSeek大模型启停步骤

一、摘要及版本选择说明

1.1 摘要

作为一名对 AI 和生成式模型感兴趣的开发者或学习者,了解如何在小规模环境中部署这些模型是有趣且有益的。在个人笔记本上部署 DeepSeek-R1 是一种具有挑战性的但非常有价值的实践。它不仅可以帮助你快速实现文本生成和问答功能,还能通过不断解决遇到的问题,提升你的技术能力和对 AI 模型的理解。尽管过程中可能会遇到资源不足、配置复杂等问题,但通过仔细规划和持续学习,最终可以成功完成部署并享受到模型带来的便利。本文将介绍下载安装Ollama的方法,并且根据个人电脑的配置选择合适的DeepSeek版本进行安装部署测试,然后通过安装部署Open-WebUI交互页面来增强使用大模型的体验的整个过程。

1.2 版本选择

DeepSeek R1对硬件资源比较友好,对不同硬件配置有良好的适应性,能根据用户计算机硬件配置选择合适的模型版本。入门级设备拥有4GB 存和核显就能运行1.5B(Billion,十亿,大模型参数的数量)版本;进阶设备8GB内存搭配4GB显存就能驾驭7B版本;高性能设备则可选择32B版本。而且,DeepSeek R1支持低配置电脑,即使是没有独立显卡的低配置电脑,只要有足够的空余硬盘空间,如部署最大的6710亿参数的大模型需要至少1TB的空余空间,也能完成部署。
本人电脑配置支持DeepSeek-R1:8b,因此选择部署DeepSeek-R1:8b大模型。

二、下载并安装Ollama

  1. 下载Ollama
    访问Ollama官网, 点击“Download”,根据操作系统下载自己操作系统对应的安装包,比如,Windows用户可以点击“Windows”图标,然后,点击“Download for Windows”下载安装包。需要注意的是,对于Windows系统,这里仅支持Windows10及其以上版本。
    在这里插入图片描述
  2. 安装Ollama
    下载完成后,双击【OllamaSetup.exe】,在弹窗中点击【Install】,默认安装即可。当安装成功后,一般会在电脑右下角有个提示框,如果你点击该提示框,会打开cmd,如下图所示:
    在这里插入图片描述
    可以在该cmd中输入命令,查看当前ollama的版本:
     ollama --version
    
    执行效果如下:
    在这里插入图片描述
    如果你没有看到电脑右下角的那个弹窗,可以自己打开cmd,然后执行上述查看版本命令,也是可以的,具体如下:
    在这里插入图片描述

三、运行DeepSeek-R1:8b大模型

蒸馏模型
DeepSeek团队已经证明,大型模型的推理模式可以被提炼到小型模型中,与通过小型模型的强化学习发现的推理模式相比,可以获得更好的性能。
以下是通过使用DeepSeek-R1生成的推理数据,针对研究社区广泛使用的几个密集模型进行微调而创建的模型。
在这里插入图片描述

  1. 运行或下载模型
    在cmd中运行如下命令:

    ollama run deepseek-r1:8b
    

    该命令执行时,会进行如下两个方向的操作:

    • 本地模型检查:Ollama 会检查本地是否已经下载并缓存了 deepseek-r1:8b 模型。它会在 Ollama 默认的模型存储目录中查找该模型的相关文件。
    • 模型下载:如果本地没有找到该模型,Ollama 会尝试从其默认的模型注册表(通常是 Ollama 官方的模型仓库)下载 deepseek-r1:8b 模型。在下载过程中,会显示下载进度信息,直到模型文件全部下载完成并存储到本地。

    执行成功后,效果如下:
    在这里插入图片描述

  2. 测试模型能否正常推理
    在刚刚运行ollama run deepseek-r1:8b的cmd窗口中,输入相关的问题,如下所示:
    在这里插入图片描述
    秒级得到回复,性能还是很好的,给deepseek点赞!!

  3. (可选)检查一下运行deepseek-r1:8b用掉了多少GPU
    如果你本地电脑有Nvidia显卡,且已经安装了cuda,可在cmd中输入:nvidia-smi命令查看GPU使用情况:
    在这里插入图片描述

四、安装Open WebUI增强交互体验

这种命令行的交互方式不是特别友好,因此我们安装Open WebUI来增强交互体验。当然,只要是支持Ollama的WebUI都可以,如Dify、AnythingLLM等。这里使用比较简单而且也是与Ollama结合比较紧密的Open WebUI。可以在cmd命令行窗口中执行如下命令安装Open WebUI,注意:这里使用国内清华大学的安装源镜像,这样可以加快安装速度。具体步骤如下:

  1. 检查本地电脑是否安装Microsoft Visual C++ Build Tools

    • 按下 Win + R 组合键打开 “运行” 对话框。
    • 在对话框中输入 appwiz.cpl 并回车,打开 “程序和功能” 窗口。
    • 在程序列表中查找 “Visual Studio Build Tools” 相关的条目。如果能找到类似 “Microsoft Visual Studio Build Tools 20xx”(xx 代表具体版本号)的程序,说明已经安装了 Visual C++ Build Tools。
      我电脑没有查到,如图所示:
      在这里插入图片描述
      如果此时执行pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple命令时,报错如下:
      在这里插入图片描述
    • 需要安装Microsoft Visual C++ Build Tools
      • 到微软官网下载
        在这里插入图片描述
        下载完成后的安装包为:vs_BuildTools.exe
      • 双击vs_BuildTools.exe安装包,进行安装。
        在弹出的安装界面中(如下图所示),在界面左上角的“桌面应用和移动应用”下方,选中“使用C++的桌面开发”,然后,点击界面右下角的“安装”按钮,完成安装。
        在这里插入图片描述
        点击【安装】按钮,会看到如下页面:
        在这里插入图片描述
        等待一会儿,就完成了安装,如下图所示:
        在这里插入图片描述
        点击【确定】按钮,然后关闭“Visual Studio Install”安装窗口即可。
  2. 确保本地已经Python环境:

    python --version
    

    在这里插入图片描述

  3. 执行安装open-webui的命令:

    pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple
    

    执行过程如下:
    在这里插入图片描述

  4. 可以执行如下命令启动Open WebUI服务

    open-webui serve
    

    注意,如果启动以后,看到下面界面,说明还没有启动成功,需要继续等待。可以敲击几次回车。
    在这里插入图片描述
    在继续等待过程中,可能屏幕上会出现一些错误信息,里面会包含如下内容:
    在这里插入图片描述
    这个错误信息说明,启动过程连接Hugging Face Hub失败。Hugging Face Hub网站在国外,所以,经常会连接失败,所以,导致open-webui启动过程始终停止不动。
    直到出现下面屏幕信息以后,才说明启动成功了。
    在这里插入图片描述
    启动后,在浏览器中访问http://localhost:8080/即可进入Open WebUI界面。如果网页显示“拒绝连接”,无法访问Open WebUI界面,一般是由于你的计算机开启了Windows防火墙,可以关闭本地电脑防火墙即可。
    如正常访问,会看到如下:
    在这里插入图片描述
    点击【开始使用】,进入填写邮箱页面,即需要注册一个管理员账号(如图所示),然后,就可以开始使用了。
    在这里插入图片描述
    此时会看到如下页面(如看不到,需要确保ollama服务已启动,在任务管理器可查看):
    在这里插入图片描述
    点击【确认,开始使用!】按钮,然后会看到我们自己部署的模型:
    在这里插入图片描述
    可以在对话框中输入你想要对话的内容,比如“请问如何快速高效地学习并掌握deepseek大模型”,然后回车,页面就会给出DeepSeek R1的回答结果,如图所示:
    在这里插入图片描述

五、关闭Ollama开机自动启动

在Windows 中如果想要将应用程序设置为开机自启动,其步骤如下:

  1. 按下 Win + R 组合键,打开 “运行” 对话框,输入 shell:startup 并回车,这会打开 “启动” 文件夹。
  2. 找到 Ollama 的可执行文件(通常在安装目录下),创建其快捷方式。
  3. 将创建好的快捷方式复制或移动到 “启动” 文件夹中。
    我们可以按照这个方法检查并确认Ollama应用程序是否是开机自启动,通过如上步骤,我们得知ollama确实被设置成了开机自启动:
    在这里插入图片描述

由于ollama安装完成后会默认被设置成开启自动,为了节省当我们不需要使用ollama时的资源,可以将其关闭掉。具体步骤如下:

  1. 打开任务管理器,点击左侧【启动应用】选项,找到ollama,如图所示:
    在这里插入图片描述
  2. 把鼠标指针放到“已启动”上面,单击鼠标右键,在弹出的菜单中点击“禁用”,然后关闭任务管理器界面。经过这样设置以后,Ollama以后就不会开机自动启动了。

六、DeepSeek大模型启停步骤

  1. 停止大模型
    当我们本次使用完大模型时,只需要关闭各个cmd命令行窗口,大模型就停止运行了。
  2. 启动大模型及open-web步骤如下:
    • (可选)确保ollama应用程序处于启动状态(该步骤如关闭Ollama开机自启动的话,需要先启动ollama服务)
    • 新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动DeepSeek R1大模型:
      ollama run deepseek-r1:8b
      
    • 再新建一个cmd命令行窗口,在cmd命令行窗口中执行如下命令启动Open WebUI服务:
      open-webui serve
      
    • 在浏览器中访问大模型对话页面
      在浏览器中访问http://localhost:8080/即可进入Open WebUI界面,开始使用大模型。
http://www.yayakq.cn/news/99497/

相关文章:

  • 上海专业网站建站哈尔滨网站建设公司oeminc
  • 建设网站有哪些内容杭州网站建设公司官网
  • 深圳建网站哪家好广州网络营销品牌
  • 佛山企业模板建站四川网站建设外包业务
  • 网站设计师联盟域名出售
  • 网站开发流程简述网站建设的步骤是什么意思
  • 优秀html5网站展览展示展厅设计
  • 网站生成静态慢原因徐州网站建设 和信
  • 中国建设銀行网站投诉电话wordpress编辑我
  • 北京市城市建设档案馆网站首页乐亭网站建设
  • 深圳市交易建设工程交易服务中心网站网站2级页面怎么做
  • win8风格手机网站模板网页设计师专业培训
  • 免费推广网址大全网站首页优化模板
  • 婚纱网站设计图免费咨询个税
  • 营销网站建设阿凡达长沙做网站工作室
  • 做的好的奥运会网站北京房产网官网
  • 浏网站建设补贴成熟短视频源码大全
  • 青鸟网站开发实例如何做网站推广营销
  • 网站建设实习每天内容网站建设项目外包合同范本
  • 建站用wordpress网站同时使用asp php
  • 代做毕业设计的网站好企业管理软件开发
  • 如何模仿一个网站竞价防恶意点击
  • 如何建立自己的手机网站公司部门职责与岗位职责大全范本
  • 重庆整合网络营销之整站优化办公空间设计公司排名
  • wordpress站内跳转手机软件开发自学
  • 马家堡网站建设wordpress 配置ssl
  • 苏州网站开发公司电话centos 7 安装wordpress
  • php伪静态网站破解济南中桥信息做的小语种网站怎么样
  • 黄石网站建设哪家好头条广告入口
  • 百度有网站建设吗做网站美工需要会什么软件