当前位置: 首页 > news >正文

校园网站建设情况wordpress 密码爆破

校园网站建设情况,wordpress 密码爆破,pycharm 做网站,市场调研报告范文2000LLM “经济学”#xff1a;ChatGPT 与开源模型#xff0c;二者之间有哪些优劣权衡#xff1f;谁的部署成本更低#xff1f; 太长不看版#xff1a;对于日均请求在 1000 次左右的低频使用场景#xff0c;ChatGPT 的实现成本低于部署在 AWS 上的开源大模型。但面对每天数以…LLM “经济学”ChatGPT 与开源模型二者之间有哪些优劣权衡谁的部署成本更低 太长不看版对于日均请求在 1000 次左右的低频使用场景ChatGPT 的实现成本低于部署在 AWS 上的开源大模型。但面对每天数以百万计的请求在 AWS 上部署开源模型则成本更低。结论适用于 2023 年 4 月 24 日本文撰稿时。 用图表比较不同大语言模型间的实现成本 大语言模型正席卷全球。随着 2017 年 Transformers 的推出BERT、GPT 和 BART 等突破性模型开始陆续亮相凭借亿级参数在情感分析、问答、分类等语言任务当中带来了前所未见的强大能力。 几年之前OpenAI 和谷歌的研究人员曾经整理出多篇论文表明拥有超百亿参数的大语言模型出现了“涌现”能力。简言之它们似乎能够理解语言中种种复杂微妙之处并获得了与人类相似的情境反应。 GPT-3 论文称大语言模型拥有令人印象深刻的学习能力。 GPT-3 论文提到参数在 10 亿至 1000 亿级别的模型只需几十个提示词即可展示出令人印象深刻的学习能力。 然而这些大模型也极耗资源导致在经济意义上难以实现规模化部署。但这一切随着 ChatGPT 的到来而宣告终结。 就在 ChatGPT 发布后不久OpenAI 又开放了 ChatGPT API允许开发人员在自己的应用程序中接入 ChatGPT。 现在大模型的规模成本和经济可行性如何让我们一起算算这笔账 *ChatGPT API 使用成本* ChatGPT API 的价格随使用方式而变化。其成本为每 1000 个 token 计费 0.002 美元。每个 token 约为一个英文单词的 3/4就是说一条请求内的 token 数量等于提示词 所生成的输出 token 的总和。 假定大家每天需要处理 1000 个小文本块每个文本块对应一页文本即 500 个单词约合 667 个 token那么日均成本就是 0.002 美元 /1000x667*1000 约 1.3 美元。听起来还可以 但如果每天需要处理上百万份这类文档情况又会如何呢那计算下来就是日均 1300 美元每年约 50 万美元达到这个规模ChatGPT 就从酷炫的玩具一下子成了沉重的业务运营负担当然能否靠它赚到更多的钱另说。 *开源生成式模型* 在 ChatGPT 赢得众人惊叹之后一系列开源项目也相继问世。 Meta 发布了 LLaMA 一个具有数十亿参数的大语言模型且性能优于 GPT-3。斯坦福随后在 52K 指令遵循演示中对 LLaMA 的 7B 版本做了微调最终得出的 Aplaca 模型同样胜过 GPT-3。 一组研究人员最近还展示了名为 Vicuna 的 13B 参数微调版 LLaMA 模型其表现已达 ChatGPT 的九成功力以上。而且企业选择开源生成式模型而不用 OpenAI 家 GPT 系列模型的理由也有很多。可能是不满于 OpenAI 的服务经常中断可能是开源大模型更易于定制也可能是使用成本更有优势。 虽然开源模型可以免费使用但用于托管和部署模型的基础设施却不可能凭空得来。 BERT 这类早期 transformer 模型倒是可以在装有高配 CPU 和普通 GPU 的个人计算机上轻松运行和微调但如今的大语言模型却需要更多资源。一种常见的解决方案是使用 AWS 等云服务商托管和部署这类模型。 那么免费的开源模型在 AWS 那边到底会产生多少成本 *AWS 成本分析* 首先我们得先明确部署模型并以 API 的形式开放服务所对应的 AWS 标准架构。这通常分为三个步骤 \1. 使用 AWS SageMaker 将模型部署为端点。 \2. 将这个 SageMaker 端点接入 AWS Lambda。 \3. 通过 API Gateway 将此 Lambda 函数开放为 API。 使用 API Gateway 加 Lambda 调用 SageMaker 模型端点。 当客户端对 API Gateway 执行 API 调用时就会触发 Lambda 函数并在完成函数解析之后将其发送至 SageMaker 端点。之后由模型端点执行预测把信息发送至 Lambda。Lambda 再做解析将结果发送至 API 并最终返回至客户端。 SageMaker 的实际成本往往直接取决于用于托管模型的计算实例类型。大语言模型体量可观自然要用到容量极大的计算实例。 各种 SageMaker 实例类型价格表。 例如AWS 就专门发布一篇教程介绍了如何部署一套包含 200 亿参数的 Flan UL2 模型。 文章中使用的是 ml.g5.4xlarge 实例。虽然上表的 SageMaker 定价并没有列出这个特定实例的价格但粗略估算成本大约在每小时 5 美元左右。这就相当于每天 150 美元上下而且这还只是托管实例的部分我们还没算上 Lambda 和 API Gateway 的费用。 下面来看 AWS Lambda 部分的成本它的价格由内存用量和请求频率决定。 AWS Lambda 价目表。 假定 5 秒之内向用户返回响应即可那么考虑到将数据路由至 AWS SageMaker 端点的需求128 MB 内存就够了。这样对于每 1000 条请求成本为 5*.12810000.0000166667 美元 0.01 美元。如果按 100 万条请求计算则费用为 10 美元。 最后是 API Gateway 部分的成本 AWS API Gateway 价目表。 如大家所见API Gateway 倒是非常便宜每百万条请求只需 1 美元。 也就是说在 AWS 上托管像 Flan-UL2 这样的开源大模型每天 1000 请求时的成本为 150 美元每天 150 万请求则为 160 美元。 但我们有必要选择这么昂贵的计算实例吗对于像 BERT 这样亿级参数的小语言模型选择 ml.m5.xlarge 这类更便宜的实例就足够了其每小时成本仅为 0.23 美元全天只合约 5 美元。与所谓能够理解语言中细微差别的大模型相比这些小模型也已经相当强大还能针对特定任务和训练数据进行微调。 *写在最后* 那么到底是商用大模型好还是开源大模型好OpenAI 的 GPT 家族到底有没有性价比最终答案还是要看大家的实际需求 付费服务模型的优势和短板。 开源大模型的优势和短板 注意因为这个领域仍在快速发展所以在规模化需求的推动之下大语言模型的部署成本很可能会快速下降。而且虽然开源大模型的托管比较复杂但像 BERT 这类亿级参数的小语言模型在特定任务上仍是个很好的选择。 从性能上看ChatGPT 和 GPT-4 的响应质量确实比开源大模型强一些。但开源模型阵营也在迎头赶上所以我们将有越来越坚定的理由选择这一派。 首先企业希望根据特定数据源对开源模型做微调。在经过针对性微调之后开源模型的性能往往会反超专为通用场景打造的 ChatGPT 及其他 OpenAI 后续模型。事实证明BloombergGPT 等领域特定模型已经成为生成式 AI 世界中一股不容忽视的重要力量。 最后希望 OpenAI 不会进一步提高 ChatGPT API 的价格。毕竟跟早期的 GPT-3 API 相比ChatGPT API 在亮相之初就把价格压到了十分之一的水平但愿 OpenAI 能继续保持住这样的优良传统。
http://www.yayakq.cn/news/1087/

相关文章:

  • 两学一做网站条幅小说网站设计模板
  • 制作公司网站怎样收费中国建筑有几个工程局
  • 可以做代发货源的网站国内做交互网站
  • 山东网站建设哪家权威icp备案网站接入信息 ip地址段
  • 口碑好的网站建设商家用wordpress还是php
  • phpcms网站模板下载徐州网站建设 网站制作
  • 网站建设家乡网页设计模板网上注册公司需要什么材料和手续
  • 做网站能成功吗wordpress网站很慢
  • 浙江中联建设集团网站wordpress 没有中文
  • 建设中网站如何上传图片网页设计公司兴田德润在那里
  • 建商城网站需要什么条件制作网站得多少钱
  • 企业建站用什么软件杭州python做网站
  • 网站备案号找回密码国外ip地址怎么弄
  • 哪个网站容易做二级域名建网站用什么系统
  • 广州电子商务网站建设费用女同wordpress
  • 美团网站界面设计网站招聘怎么做
  • 免费的个人空间建网站网站开发网页权限如何控制
  • 中旅远洋商务网站建设策划书免费收录软文网站
  • wordpress 导航网站无二制造 网站升级建设中
  • wordpress注册模板下载seo关键词快速排名软件
  • 深圳做网站de公司优化网站做什么的
  • 建设教育网站法律网站的建设流程
  • app网站建设宣传方案怎么查网站建设时间
  • 八宝山做网站的公司家装公司十大口碑排名
  • 建设网站有哪些步骤网站空间查询
  • 合肥网站制作方案凡科互动答题辅助
  • 深圳网站设计九曲网站建设毕业设计网站开发流程
  • 网站建设依据标题设计网站
  • 企业网站设计服务90设计网怎么样
  • 上海智能模板建站泉州人才网