OPT

OPT

Open Pre-trained Transformer (OPT) 模型是参数范围从 1.25 亿到 1750 亿个的大型语言模型的集合。这些模型经过训练可以执行零样本和少样本学习,这在各种语言任务中都表现出了显着的能力。 OPT 模型被设计为比其他大规模语言模型(例如 GPT-3)更易于访问的替代品,GPT-3 由于计算成本而通常需要大量资源来复制。

OPT 还因其开发过程中的环境足迹较小而脱颖而出,与 GPT-3 相比,其碳足迹仅为七分之一。 OPT 背后的研究人员小心翼翼地全面、负责任地分享他们的模型,不仅提供模型权重,还提供他们的开发挑战日志和实验所需的代码。

主要功能:
  1. 高性能模型: OPT 模型在零样本和少样本学习任务中表现出强大的性能。

  2. 尺寸范围: OPT 套件提供各种模型尺寸,从 125M 到 175B 参数。

  3. 可访问且透明: 完整的模型权重和开发细节与研究社区共享。

  4. 环保开发: 与 GPT-3 等模型相比,OPT 所需的碳足迹显着减少。

  5. 支持资源: 该版本包括供研究人员使用的详细日志和代码。

常见问题:

1) 什么是开放式预训练 Transformer (OPT)?

开放式预训练 Transformers (OPT) 是一系列仅用于解码器的预训练语言模型,专为各种语言任务而设计,旨在与研究人员完全、负责任地共享。

2) OPT模型的参数范围是多少?

OPT模型的参数范围从1.25亿到1750亿个,满足不同的研究需求和计算能力。

3) OPT-175B 型号有何特别之处?

OPT-175B 与 GPT-3 相当,是可用的模型尺寸之一,因其在零样本和少样本学习方面的卓越能力而特别引人注目。

4) OPT论文的作者是谁?

研究人员 Susan 张、Stephen Roller、Naman Goyal、Mikel Artetxe 和其他几位研究人员为 OPT 模型的开发做出了贡献。

5) 在环境影响方面,OPT 模型与 GPT-3 相比如何?

开发 OPT 模型的目标之一是创建对环境影响较小的大型语言模型,而 OPT-175B 模型的碳足迹仅为 GPT-3 的 1/7。

定价:

免费试用和收费混合

标签:

Open Pre-trained Transformers
Large Language Models
Zero-Shot Learning
Few-Shot Learning
GPT-3 Comparison

评论:

Give your opinion on OPT :-

Overall rating

Join thousands of AI enthusiasts in the World of AI!

最佳免费 OPT 替代方案(和付费)

By Rishit