当前位置: 首页 > news >正文

网站建设中html网页关键字查询我的网站怎么做

网站建设中html网页,关键字查询我的网站怎么做,室内装饰设计师职业标准,公司变更经营地址需要哪些资料半年多之前写过一个教程:在Windows上用Llama Factory微调Llama 3的基本操作_llama-factory windows-CSDN博客 如果用命令行做的话,前面的步骤可以参考上面这个博客。安装好环境后, 用自我认知数据集微调Lora模块:data/identity.j…

半年多之前写过一个教程:在Windows上用Llama Factory微调Llama 3的基本操作_llama-factory windows-CSDN博客

如果用命令行做的话,前面的步骤可以参考上面这个博客。安装好环境后, 用自我认知数据集微调Lora模块:data/identity.json,里面的格式也很好理解:

{

"instruction": "你是谁?",

"input": "",

"output": "您好,我是 { {name}},一个由 { {author}} 发明的人工智能助手。我可以回答各种问题,提供实用的建议和帮助,帮助用户完成各种任务。"

},

可以直接用VS Code将上面的name和author替换,另存为一个文件,并且在data/dataset_info.json增加这个,类似于我这里(另存的文件名为identity_tpri.json):

 "identity_tpri": {

"file_name": "identity_tpri.json"

},

将文件examples/train_qlora/llama3_lora_sft_awq.yaml另存为一个文件并且重命名,然后配置对应一下已经下载下来的模型文件(顺便说一句,模型文件可以在:魔搭社区 这里下载,应该速度都很快),我这里是这样修改的(标红的是更新的内容,除了微调数据集和模型位置以及Lora模块位置,需要注意的就是num_train_epochs,之前默认的值是3,经过测试以后太小了):

### model

model_name_or_path: /home/quyu/Qwen2.5-7B-Instruct/

trust_remote_code: true

### method

stage: sft

do_train: true

finetuning_type: lora

lora_rank: 8

lora_target: all

### dataset

dataset: identity_tpri

template: qwen

cutoff_len: 2048

max_samples: 1000

overwrite_cache: true

preprocessing_num_workers: 16

### output

output_dir: saves/qwen-7b/lora/sft

logging_steps: 10

save_steps: 500

plot_loss: true

overwrite_output_dir: true

### train

per_device_train_batch_size: 1

gradient_accumulation_steps: 8

learning_rate: 1.0e-4

num_train_epochs: 20.0

lr_scheduler_type: cosine

warmup_ratio: 0.1

bf16: true

ddp_timeout: 180000000

### eval

# val_size: 0.1

# per_device_eval_batch_size: 1

# eval_strategy: steps

# eval_steps: 500

然后运行一下(重命名的文件是qwen_lora.yaml):

llamafactory-cli train examples/train_qlora/qwen_lora.yaml

如果显存不够可能会报错(例如训练32B的时候),这个我在后一篇博客里再总结。如果显存够,那么可以直接得到微调后的lora模块,我这里用两个3090训练只需要一分多钟。我们将examples/inference/llama3_lora_sft.yaml复制以后重命名,并且将其内容改为:

model_name_or_path: /home/quyu/Qwen2.5-7B-Instruct

adapter_name_or_path: saves/qwen-7b/lora/sft

template: qwen

infer_backend: huggingface # choices: [huggingface, vllm]

trust_remote_code: true

然后运行(重命名的文件是qwen2_lora.yaml,看自己喜好重命名即可):

llamafactory-cli chat examples/inference/qwen2_lora.yaml

然后再问大模型“你是谁?”,就可以看到修改之后的效果了。

http://www.yayakq.cn/news/244225/

相关文章:

  • 网站建设规划书费用预算纯静态网站页面优化
  • 虚拟交易网站开发做啥网站
  • 安徽圣力建设集团有限公司网站做网站时点击显示
  • 模板网站开发推荐专门做问卷调查的一个网站
  • 网站服务器是指什么设计做的网站哪些好
  • 网站的数据运营怎么做网页设计的尺寸
  • 网站推广内容成都网站建设价格
  • 嘉鱼网站建设北京虚拟注册地址新政
  • 望江网站建设图片论播wordpress
  • 网站页面设计网页说明南昌建设医院官方网站
  • 开网站建设公司好购物网站图片的放大怎么做的
  • 企业为什么要建站台呢台州网站专业制作
  • 佛山建站专创建网站用英语怎么说
  • 中国风手机网站模板wordpress修改后天地址
  • 网站开发运营推广叫什么软件word网站流程图怎么做
  • 网站建设经费预算扒完网站代码之后怎么做模板
  • 直接用ip访问网站wordpress explode
  • 用科讯cms做网站的步骤有机玻璃东莞网站建设技术支持
  • 有用node.js做的网站吗怎样怎样优化网站建设
  • 深圳网站建设qwyx100网站怎么做付费项目
  • 免费做网站报价做商铺的网站有那些
  • 网站排名应该怎么做网站优化服务合同
  • dz可以做旅游网站吗wordpress企业网站主题
  • 做销售网站的公司哪家最好网站年龄和域名年龄
  • 西安知名网站建设关于做网站的外语文献
  • 木地板企业网站模版开发深圳网站建设
  • 摄影课程自学网站建设银行纪检监察网站首页
  • 坊网站建设内蒙建设厅官方网站
  • 从建站到网络优化制作响应式网站报价
  • 巴中城乡和住房建设厅网站qq在线网站代码生成