当前位置: 首页 > news >正文

注册app短信验证码平台win10一键优化

注册app短信验证码平台,win10一键优化,电子商务网站建设与管理习题答案,国内顶尖的公司1. 摘要 本文主要通过分析模型结构和数据选择讨论如何构建一个好的多模态大模型(MLLM),并同时提出了MM1模型,包括30B dense版本和64B的MoE版本。 具体贡献: 模型层面:影响效果的重要性排序为:…

1. 摘要

本文主要通过分析模型结构和数据选择讨论如何构建一个好的多模态大模型(MLLM),并同时提出了MM1模型,包括30B dense版本和64B的MoE版本。
具体贡献:

  • 模型层面:影响效果的重要性排序为:image resolution,visual encoder loss和capacity和visual encoder预训练数据。multimodal预训练数据类型:image caption,interleaved image-text和text-only。
    • 在few-shot和text-only上的表现:interleaved image-text和text-only两种数据最为重要。
    • 在zero-shot上的表现:image caption数据最为重要。

以上两种特性,在SFT阶段也有体现。

  • 通过扩大LLM大小的方式进行scale up。模型大小分别有3B,7B,30B等。

2. 方法和实验

2.1 简介

在这里插入图片描述
这部分主要探索三个(结构,数据和训练步骤)对多模态大模型效果的影响,

  • 模型基础配置:
    • Image Encoder:ViT-L/14模型,训练loss为clip loss,训练数据DFN-5B和VeCap-300M,image size为336*336
    • Vision-Language Connector:C-Abstractor,最大输出144 image token。
    • Pre-training Data:45% image caption数据,45% interleaved image-text数据和10% text-only数据。
    • Language Model: 1.2B transformer decoder-only模型。

2.2 模型结构影响

2.2.1 Image Encoder Pre-training

Image Encoder的选择对多模态大模型的预训练和微调都有很大的影响。
在这里插入图片描述

  • contrastive loss:能让image encoder学习到语义知识。示例模型:CLIP
  • Reconstructive loss:在一些dense prediction上,clip类模型很难达到很好的效果,比如说VQA和caption,这类任务需要对image有很好的理解。示例模型:AIM
  • 小结:
    • Image resoluton最为重要,其次是model size和训练数据组成。从上图中可以看出,增加image resolution效果最为明显,而增加model size和数据效果提升在1%左右。
    • 模型类型:对比学习loss训练的模型比reconstructive loss训练的模型效果要好。但这个结论并不确定,因为AIM模型训练数据较少。

2.2.2 Vision-Language Connector and Image Resolution

  • 配置

    • 使用64或144个token代表每个image,
    • 有两个不同的resolution:224和336.
    • 结构选择:
      • average pooling:对ViT输出结果使用n*n average pooling,然后接上linear projection。(n=[8, 12])
      • attention pooling:使用k learnable queries,通过改变k来改变输出到LLM的image token数。k=[64, 144]
      • Convolutional mapping:C-Abstractor module:ResNet block,through adaptive pooling can change the number of image tokens。
  • 小结:visual token数和image resolution最为重要,VL connector有少量影响。在instruction tuning阶段,这三种结构在不同的分辨率和image token时有着相似的结果。
    在这里插入图片描述

2.3 预训练数据影响

在这里插入图片描述

  • 小结:
    在这里插入图片描述

    • Interleaved data对few-shot和text-only的表现最为重要,captioning data对zero-shot表现比较重要。
    • Text-only数据对few-shot和text-only表现有帮助。
    • 细致的混合image和text数据能够得到最优的多模态性能和好的文本性能。最好的比例为caption:interleaved:text=5:5:1。
    • 合成数据对few-shot有帮助。

2.4 训练步骤

  • 模型参数和学习率关系:
    在这里插入图片描述
    具体关系如下:
    在这里插入图片描述

3. 结论

  • MM1模型预训练参数:
    • Image Encoder:ViT-H,分辨率378*378,训练数据DFN-5B,CLIP objective
    • Vision-Language Connector:VL connection with 144 tokens,选择用C-Abstractor
    • Data:45% interleaved image-text documents, 45% image-text pair documents, and 10% text-only documents.
    • 超参:batch size=512,max sequence lenght=4096,
    • LR schedule:在初始的2000步,linear warmup,然后在2e5训练步数中降到10%。
    • 使用AdamW优化器,在30B模型训练中,加上z-loss。
  • pretrain 效果如下:
    在这里插入图片描述
  • SFT数据配比:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

参考文献

MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training

http://www.yayakq.cn/news/217257/

相关文章:

  • wordpress搭建子網站巴州网站建设库尔勒网站建设钟爱网络
  • 湛江网站建设外包360网站托管
  • 外包加工网站有哪些网站访客记录
  • 做flash网站一键生成app的软件
  • 一个网站的建设需要什么鄂州网站建设
  • 网站建设哪些公司秦皇岛抚宁区建设局网站
  • 江门网站建设易搜互联wordpress自动保存图片
  • 黄骅市属于嘉兴网站推广优化
  • 元谋县住房和城乡建设局网站网站建设成本包含哪些方面
  • 怎么做 代刷网站装饰协会网站源码
  • 做网站最烂公司手机类网站设计
  • 深圳高端做网站公司邢台做移动网站费用
  • 商务网站规划与设计实训报告修改WordPress图片上传
  • 福州网站建设工作室项目招商
  • 广东企业微信网站开发织梦下载网站模板
  • 湟源县网站建设查看网站点击量
  • 天津先进网站建设指导wordpress上传到哪
  • 泰州城乡建设网站房屋平面图设计软件免费
  • 质量好网站建设商家动态Js文件 做网站标题
  • 周浦手机网站策划建设公司山西营销网站建设设计
  • 本科毕设做网站多少钱vs网站界面是什么做的
  • 个人网站搭建模拟感想邀请医院建设网站的通知
  • app软件网站建设网站建设要与安全防护同步规划
  • 长春火车站咨询电话南昌网站建设效果
  • 网站制作 搜索简报格式模板
  • 龙岗网站建设价格西乡移动网站建设
  • 网站推广软件预期效果网站建设代管推广
  • 眉山市建设局网站做新闻h5网站
  • 如何远程登录网站服务器大理公司网站建设
  • 南昌手机网站建设网站优化推广软件