当前位置: 首页 > news >正文

企业网站明细费用租车网站制作

企业网站明细费用,租车网站制作,做教程网站如何查用户搜索,东莞最新消息 今天本篇文章记录下 chatglm-6B 训练和推理过程 环境:Ubuntu 20.04 1.13.0cu116 chatglm-6B 源代码仓库:链接 chatglm-6B 模型权重:链接 源代码及模型 clone 到本地 这里使用的是 THUDM 在 hugging face 开源的模型。 因为模型比较大&#xff…

本篇文章记录下 chatglm-6B 训练和推理过程
环境:Ubuntu 20.04 + 1.13.0+cu116
chatglm-6B 源代码仓库:链接
chatglm-6B 模型权重:链接

源代码及模型 clone 到本地

这里使用的是 THUDM 在 hugging face 开源的模型。
因为模型比较大,仓库保存模式使用的是 git lfs 模式,再 clone 之后再使用 git lfs pull 去 download 大文件。

clone chatglm6B 代码

git clone https://github.com/THUDM/ChatGLM-6B

git lfs 在 ubuntu 的安装方式。参考

curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash
sudo apt-get install git-lfs

clone 模型权重到本地,并且使用 git lfs pull 最新版本的模型权重。参考

git lfs install
git clone https://huggingface.co/THUDM/chatglm-6b
git lfs pull

chatglm-6B ptuning 训练

THUDM提供的 ptuning 方式 链接 链接

这里需要配置的执行脚本如下:

# train.sh
PRE_SEQ_LEN=128
LR=2e-2CUDA_VISIBLE_DEVICES=0 python3 main.py \--do_train \ --train_file /data/AdvertiseGen/train.json \--validation_file /data/AdvertiseGen/dev.json \--prompt_column content \--response_column summary \--overwrite_cache \--model_name_or_path /data/chatglm-6b \--output_dir /data/chatglm-6b-output/adgen-chatglm-6b-pt-$PRE_SEQ_LEN-$LR \--overwrite_output_dir \--max_source_length 64 \--max_target_length 64 \--per_device_train_batch_size 1 \--per_device_eval_batch_size 1 \--gradient_accumulation_steps 16 \--predict_with_generate \--max_steps 100 \--logging_steps 10 \--save_steps 50 \--learning_rate $LR \--pre_seq_len $PRE_SEQ_LEN \--quantization_bit 4

在显卡内存较低情况下可以使用 quantization_bit=4、per_device_train_batch_size=1、gradient_accumulation_steps=16 ,这种配置下 INT4 的模型参数被冻结,一次训练迭代会以 1 的批处理大小进行 16 次累加的前后向传播,等效为 16 的总批处理大小,此时最低只需 6.7G 显存。
训练输出的 metrics 如下:
在这里插入图片描述

chatglm-6B 推理

推理阶段使用的是训练导出的 checkpoint 文件。对应好训练阶段 的 PRE_SEQ_LEN LR 以及训练 STEP ,配置方式如下

# evaluate.sh
PRE_SEQ_LEN=128
CHECKPOINT=adgen-chatglm-6b-pt-128-2e-2
STEP=100CUDA_VISIBLE_DEVICES=0 python3 main.py \--do_predict \--validation_file /data/AdvertiseGen/dev.json \--test_file /data/AdvertiseGen/dev.json \--overwrite_cache \--prompt_column content \--response_column summary \--model_name_or_path /data/chatglm-6b \--ptuning_checkpoint /data/chatglm-6b-output/$CHECKPOINT/checkpoint-$STEP \--output_dir /data/chatglm-6b-output/$CHECKPOINT \--overwrite_output_dir \--max_source_length 64 \--max_target_length 64 \--per_device_eval_batch_size 1 \--predict_with_generate \--pre_seq_len $PRE_SEQ_LEN \--quantization_bit 4

运行结果
在这里插入图片描述

web_demo 执行

相关参考

1、https://zhuanlan.zhihu.com/p/627358709

遇到的问题

1、RuntimeError: Internal: src/sentencepiece_processor.cc(1101) [model_proto->ParseFromArray(serialized.data(), serialized.size())]
这是模型权重文件下载不完全或者版本不一致导致的。
解决方法是 git lfs pull 最新的权重文件。参考
2、NameError: name ‘round_up’ is not defined
这是没有安装 cpm_kernels 的缘故。使用 pip 安装即可。 参考

http://www.yayakq.cn/news/805271/

相关文章:

  • 做网站的软件是是什么网站建设hairongsoft
  • html5响应式手机网站川制作官方网站
  • 打鱼跟电子游戏网站怎么做宁安市建设局网站
  • 15.下面对网站结构描述正确的是( )做兼职上什么网站找
  • 门户网站 集成 移动app 方案织梦网站后台密码错误
  • 网站建设和管理情况自查报告国内做进口的电商网站
  • 茂名企业网站开发seo 优化教程
  • 做网站犯法企业网站建设好处
  • 微信认证 网站WordPress设置页数
  • 免费网站建站教程手机端网站外部链接如何去优化
  • 广州市公司网站建设价格在国外做热情网站的风险
  • 华为网站建设wordpress app页面模板
  • 郑州网站建设zzmshl常德网站建设设计
  • 济南哪家公司可以做网站海南专业网站开发公司
  • 网站乱码做淘宝要用的网站
  • 制作一个网站并上传访问深圳设计公司有多少家
  • 网站数据分析表格国内软件开发培训机构
  • 电影网站开发PPT模板php网站开发兼容怎么设置
  • 众鱼深圳网站建设铜川做网站电话
  • 网站建设swot做优化网站注意什么
  • 中英网站建设宁波seo在线优化方案
  • 服装网站首页设计链接生成
  • 北京做网站哪里好网站开发的实验报告
  • 网站建设实训目的网站seo策略
  • 构建网站需要会什么意思成都旅游学院简介
  • 北京天仪建设工程质量检测所网站网站建设费用怎么算
  • 单位 内网网站建设免费客户销售管理软件
  • 东莞做网站做什么赚钱泰州网站建设优化建站
  • 织梦可以做相亲网站怎么查询网站名注册
  • 网站等保需要几年一做羽毛球赛事奖金