网站seo课程,铁岭网站开发公司,以春天为主题的网站建设资源,自己做游戏app的网站Prompt Tuning 是啥#xff1f; prompt的思想是#xff0c;把下游任务的输入转化为预训练模型的原始任务。
以bert作为举例#xff0c;假设任务是文本分类。“今天天气很好。”我们想判断一下这句话的情感是正面还是负面
fine-tune的方法是在bert之后接一个head#xff0… Prompt Tuning 是啥 prompt的思想是把下游任务的输入转化为预训练模型的原始任务。
以bert作为举例假设任务是文本分类。“今天天气很好。”我们想判断一下这句话的情感是正面还是负面
fine-tune的方法是在bert之后接一个head然后调整整个模型。 prompt 的方法是把下游任务转化为预训练任务我们知道bert的预训练任务是MLM于是把
“今天天气很好。”转化为“今天天气很好。我很[mask][mask]”我们希望bert预测出开心两个字。然后对“开心”映射到正面情感。 prompt-tuning我们知道prompt的方法是把下游任务转化为预训练任务但是怎么转化效果会好呢。比如如下几种prompt
1.“今天天气很好。我很[mask][mask]”
2.“今天天气很好。我非常[mask][mask]”
3.“今天天气很好。我的心情是[mask][mask]”
我们并不知道哪种prompt是最好的于是我们希望模型可以自己去学习于是就提出了prompt-tuning提示微调该方法会固定预训练模型的参数与fine-tune不同之处增加额外的参数来训练常见的方法有prompt-tuning, prefix-tuning, p-tuning与fine-tune不同可训练参数一般都是加载embbeding层而不是加在最后 提示学习Prompt Tuning面向研究综述 - 知乎
huggingface上的一篇博文也解释的很清楚 Prompt Tuning 出自哪篇论文
《The Power of Scale for Parameter-Efficient Prompt Tuning》 instruct tuning
出自《FINETUNED LANGUAGE MODELS ARE ZERO-SHOT LEARNERS》 instruct tuning 指令微调是特指对数据有要求的微调它不是一种微调方法而是对用一种特定数据来微调的称呼。这种数据的特点是input是一条指令或者要求命令
例如这种数据是为了让模型学会听从指令
1.帮我写一篇关于XX主题的文章
2. 将下列内容翻译成英语具体内容
3.根据下面的聊天信息回答问题聊天信息问题
而常规数据通常如下 这种数据更像于是让模型理解知识
1. 极昼是什么
2. 怎么减肥
3.熬夜对健康有什么影响 对比以上两种数据可以看出特点指令数据一般是在要求模型干一件事而常规数据通常是在问模型“是什么”