当前位置: 首页 > news >正文

什么官网比较容易做网站建一个公司网站花多少钱

什么官网比较容易做网站,建一个公司网站花多少钱,百度资源分享网页,有没有免费的推广网站BERT 1.前言 self-supervised learning是一种无监督学习的特殊形式,算法从数据本身生成标签或者目标,然后利用这些生成的目标来进行学习。(也就是说数据集的标签是模型自动生成的,不是由人为提供的。)例如&#xff0…

BERT

1.前言

self-supervised learning是一种无监督学习的特殊形式,算法从数据本身生成标签或者目标,然后利用这些生成的目标来进行学习。(也就是说数据集的标签是模型自动生成的,不是由人为提供的。)例如,可以通过在图像中遮挡一部分内容来创建自监督任务,让模型预测被遮挡的内容。self-supervised learning 应用十分广泛,不仅用于文字方面,还可以用于语音和图像上。

在这里插入图片描述

self-supervised Learning 自监督学习的一些模型如下:

ELMO(Embeddings from Language Models)—> 最原始的

BERT(Bidirectional Encoder Representations from Transformers)

ERNIE(Enhanced Representation through Knowledge Integration)

Big Bird(Transformers for Longer Sequences)

GPT-3 —> 有 175 billion 个参数

2.BERT结构

BERT 是一个非常巨大的模型,有340 million 个参数。BERT的架构就是 Transformer 的 Encoder 部分(self-attention,residual,normalization)。

训练BERT有俩种方式:Masking Input 和 Next Sentence Prediction

1.Masking Input

在这里插入图片描述

BERT 的输入,某些部分被随机的盖住,盖住有两种方式(随机的选择一种盖住方式):

  • MASK:将句中的一些符号换为MASK符号。(这个MASK是一个新的符号,字典中没有的,表示盖住)
  • Random:随机把某一个字换为另外一个字(随机从字典中挑选一个词盖住)。

输入通过BERT后就得到了对应的Sequence(但是只关注输入被盖住所输出的 vector),然后通过Linear transformer(Linear transformer的意思就是乘以一个矩阵),并进行Softmax,就可以得到一个有关所有符号的概率分布。在训练的时候,将真实值与预测出来的值进行对比,通过minimize cross entropy不断缩小损失,进而提升模型的ACU。

2.Next Sentence Prediction

在这里插入图片描述

从资料库里面随机选两个句子,在句子中间加入一个特殊符号 [SEP] 来代表分割。在最前面加入一个特别的符号 [CLS]。将这个整体送入BERT中,在得到的sequence中只关注 [CLS] 对应输出的vector。然后经过一个Linear transformer,来进行一个二元的预测(Yes or No),表示这两个句子是否是相连接的。

3.Downstream Tasks

Downstream tasks就是利用BERT真正做的任务。而不是上面的预测某个Masked token,或者判断两句话是否是有连接关系的任务。

BERT 分化为各种任务叫做Fine-tune,中文叫做微调。产生BERT的过程叫做 Pre-train。

3.1 Sentiment analysis

在这里插入图片描述

BERT初始化用的参数是pre-train的初始化参数(也就是用于填空任务的参数),Linear用的参数是Random初始化参数。

3.2 POS tagging(词性标注)

在这里插入图片描述

3.3 NLI(自然语言推理)

在这里插入图片描述

在这里插入图片描述

3.4 Extraction-based Question Answering

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

上面的那两个向量是随机初始化的,BERT初始化依旧是利用pre-train的参数。

4.为什么BERT有用?

BERT输出的向量代表了输入的意思。具有相似含义的符号,输出具有相似的嵌入向量。而且在输出的时候还考虑了上下文,因为内部有一个self-attention的结构。

在这里插入图片描述

5.Multi-lingual BERT

Multi-lingual BERT是一个多语言的BERT模型,再训练BERT的时候是通过许多不同的语言训练出来的。尽管是不同语言,但是每个词的意思是相近的,所以输出的嵌入向量距离就很近,因此效果较好。

在这里插入图片描述

6.GPT

BERT做的是填空题,GPT做的就是预测接下来出现的token是什么。

在这里插入图片描述

首先给一个开始标记,然后通过Linear Transform输出一个embedding向量h1,然后经过Softmax得到一个概率分布,概率最大的就是下一个token的值。(在训练的时候,GPT类似于transformer的decoder,不看右边的输入),下一次将和台输入进去,重复上面的过程。


😃😃😃

本文是根据台大李宏毅教授的BERT课程所做的笔记,有想学习的小伙伴,大家直接去看这个课程就可以了。点击跳转

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

http://www.yayakq.cn/news/394801/

相关文章:

  • 网站制作jian she做pc端网站咨询
  • 湖南平台网站建设找哪家漯河网站建设兼职
  • 欧力虎网站建设特色的企业网站建设
  • 如何开发公司的网站网页ui设计模板
  • 接加工订单的网站凡科网让经营更简单
  • 哪里找网站建设的兼职网站用excel做数据库吗
  • 常州建设局网站为什么打不开网站怎样做推广
  • 网站域名缴费北京网站建设公司哪家好
  • 济宁网站建设_云科网络装修设计软件推荐
  • 制作网站哪家便宜黑龙江建筑信息网
  • 男和男做那个视频网站偏门项目网
  • 制作类网站商丘企业网站建设团队
  • 江苏省建设厅网站建造师强制注销在家自己做网站
  • 英国零售电商网站开发wordpress恢复已删除目录
  • 本地做那种网站好一些做一组静态页面网站多少钱
  • 网站需要证件怎么做网页链接图片
  • 西安建站软件5g国产天天5g天天
  • 织梦生成网站地图编程网课
  • vc6.0做网站医院双语网站建设的意义
  • 仿腾讯视频网站源码古塔网站建设
  • 杭州网站专业制作建设网站浩森宇特
  • php网站建设找哪家好wordpress如何自定义导航栏
  • 高端兼职网站开发wordpress商用
  • 怎么做网站的寄生网站建设心得体会总结
  • 自建网站代理服务器福州自适应网站建设
  • 成都都江堰网站建设wordpress直接连接数据库文件
  • 网站开发技术文档格式绵阳建设工程信息网站
  • 大型网站建设的价格简易网页一键生成
  • 如何进入官方网站北京装饰公司前十名
  • 无法启动传输wordpressseo如何网站正常更新