能够写诗、摘要和计算机代码的大型语言模型正在推动对“自然语言处理 (NLP) 即服务”的需求。随着这些模型变得更加强大——相对而言,更易于使用——企业对它们的需求也在增长。根据 John Snow Labs 和 Gradient Flow 2021 年的一项调查,60% 的技术领导者表示他们的 NLP 预算与 2020 年相比至少增长了 10%,而三分之一(33%)表示他们的支出增长了 30% 以上。

自然语言处理 NLP Natural Language Processing

OpenAI、Cohere 和 AI21 Labs 等资源丰富的提供商正在从中受益。截至今年 3 月,OpenAI 说是 GPT-3 在超过 300 个不同的应用程序以“数万”的开发者和每天生产 4.5 十亿词被使用。从历史上看,没有大量资金的初创公司无法训练和部署这些模型——更不用说计算资源了。但是开源 NLP 模型、数据集和基础设施的出现正在以令人惊讶的方式使该技术大众化。

开源自然语言处理

开发最先进的语言模型的障碍很大。那些有资源来开发和培训它们的人,比如 OpenAI,通常选择不开源他们的系统,而是将它们商业化(或专门许可它们)。但即使是开源模型也需要大量计算资源才能商业化。

以微软和英伟达联合打造并发布的威震天 530B 为例。该模型最初是在 560 个 Nvidia DGX A100 服务器上训练的,每个服务器托管 8 个 Nvidia A100 80GB GPU。微软和英伟达表示,他们在训练威震天 530B 时观察到每 GPU 每秒 113 到 126 teraflops,这将使训练成本达到数百万美元。(teraflop 等级衡量硬件的性能,包括 GPU。)

推理——实际运行经过训练的模型——是另一个挑战。将 Megatron 530B 的推理(例如,句子自动完成)时间缩短到半秒需要两个价值 199,000 美元的 Nvidia DGX A100 系统。虽然云替​​代方案可能更便宜,但它们并不显着——据估计 ,在单个 Amazon Web Services 实例上运行 GPT-3 的成本至少为每年 87,000 美元。

然而,最近,像 EleutherAI 这样的开放研究工作降低了进入门槛。作为 AI 研究人员的草根集合,EleutherAI 旨在最终提供运行与 GPT-3 相似(但不完全相同)模型所需的代码和数据集。该小组已经发布了一个名为 The Pile 的数据集,旨在训练大型语言模型来完成文本、编写代码等。(顺便说一句,威震天 530B 是在 The Pile 上训练的。)6 月,EleutherAI 在 Apache 2.0 许可下推出了 GPT-Neo 及其继任者 GPT-J,这是一种在谷歌第三代 TPU 上训练了五周的语言模型,该模型执行几乎与同等大小的 GPT-3 模型相当。

将 EleutherAI 的模型作为服务提供服务的初创公司之一是 NLP Cloud,它于一年前由 Hunter.io 的前软件工程师和借贷服务 StudyLink.fr 的创始人 Julien Salinas 创立。Salinas 说,当他意识到作为一名程序员时,将开源 NLP 模型用于业务应用程序变得越来越容易,但让它们在生产中正常运行变得更加困难时,他想到了这个想法。

拥有五名员工的 NLP Cloud 没有从外部投资者那里筹集资金,但声称可以盈利。

“我们的客户群正在迅速增长,我们看到使用 NLP Cloud 的客户非常多样化——从自由职业者到初创公司和更大的科技公司,”萨利纳斯通过电子邮件告诉。“例如,我们目前正在帮助客户创建不为您编码的编程专家 AI,但更重要的是,为您提供有关特定技术领域的高级信息,您在开发应用程序时可以利用这些信息(例如,作为 Go 开发人员,您可能想学习如何使用 goroutines)。我们有另一位客户在 NLP Cloud 上微调了自己的 GPT-J 版本,以便对医生和患者之间的对话进行医学总结。”

NLP Cloud 与 Neuro 竞争,后者通过 API 提供模型服务,包括 EleutherAI 的 GPT-J,按使用付费。为了追求更高的效率,Neuro 表示它运行了一个更轻量级的 GPT-J 版本,该版本仍然可以为生成营销副本等应用程序产生“强大的结果”。作为另一项节省成本的措施,Neuro 还让客户共享云 GPU,公司将其功耗限制在一定水平以下。

“客户增长一直很好。我们已经有许多用户在没有与他们交谈的情况下将我们置于他们的生产环境中——这对于企业产品来说是惊人的,”首席执行官保罗赫瑟林顿通过电子邮件告诉。“有些人在使用的第一天花费了超过 1,000 美元,在许多情况下集成时间为几分钟。我们有客户以各种方式使用 GPT-J……包括市场复制、生成故事和文章,以及为游戏或聊天机器人中的角色生成对话。”

Neuro 声称在内部运行所有计算,拥有一个 11 人的团队,最近从 Y Combinator 的 2021 年冬季队列毕业。Hetherington 表示,该计划是继续构建其云网络并发展与 EleutherAI 的关系。

另一个 EleutherAI 模型采用者是 CoreWeave,它也与 EleutherAI 密切合作以训练该组的更大模型。最初专注于加密货币挖掘的云服务提供商 CoreWeave 表示,为 NLP 模型提供服务是其“迄今为止最大的用例”,目前与包括 Novel AI 在内的客户合作,Novel AI 的 AI 支持平台可帮助用户创建故事并开始使用文本-基于冒险。

CoreWeave 联合创始人兼首席技术官 Brian Venturo 通过电子邮件告诉:“由于市场规模和我们作为云提供商填补的空白,我们已经倾向于 NLP。” “我认为我们在这里取得了真正的成功,因为我们构建的基础设施以及我们的客户在 CoreWeave 上看到的与竞争对手相比的成本优势。”

偏见问题

没有语言模型不受偏见 和 毒性,如 研究 已反复表示。较大的 NLP 即服务提供商采取了一系列方法来试图减轻影响,从咨询外部咨询委员会到实施过滤器,以防止客户使用模型生成某些内容,例如与自我伤害有关的内容。

在数据集层面,EleutherAI 声称已经对 The Pile 进行了“广泛的偏见分析”,并做出了“艰难的编辑决定”,以排除他们认为对某些群体或观点存在“不可接受的负面偏见”的数据。

NLP Cloud 允许客户上传单词黑名单,以降低其托管模型生成违规内容的风险。为了保持原始模型、缺陷等的完整性,该公司尚未部署过滤器或试图对其服务的任何模型进行解毒。但是 Salinas 表示,如果 NLP Cloud 将来确实进行了修改,那么它已经这样做的事实将是透明的。

“最重要的毒性风险来自 GPT-J,因为它是一种强大的文本生成 AI 模型,因此应该负责任地使用它,”萨利纳斯说。

NLP Cloud 和 Neuro 都没有明确禁止客户将模型用于可能有问题的用例——尽管两者都保留以任何理由撤销对模型的访问的权利。就 CoreWeave 而言,它认为不对客户的应用程序进行监管是其服务的一个卖点——但它提倡一般的“人工智能安全”。

“[O]您的客户定期微调模型[例如,减少毒性]。这使他们能够在相对较小的数据集上‘重新训练’大型语言模型,使模型与他们的用例更相关,”Venturo 继续说道。“我们目前没有可供客户执行此操作的现成解决方案,但我预计这种情况会在未来几周内发生变化。”

Hetherington 指出,Neuro 还提供“几乎不需要编程专业知识”的微调功能。

前进的道路

虽然模型审核的不干涉方法可能并不适合每个客户,但 NLP Cloud、Neuro 和 CoreWeave 等初创公司认为,与资金充足的竞争对手相比,他们正在使 NLP 技术更容易获得。

例如,在 NLP Cloud 上,使用 GPT-J 每分钟三个请求的计划在云 CPU 上每月花费 29 美元,在 GPU 上花费每月 99 美元——无论令牌(即单词)的数量如何。相比之下,OpenAI 按令牌收费。Towards Data Science 比较了 OpenAI 和 NLP Cloud 的产品,发现如果客户提供一个每分钟收到 10 个请求的论文生成应用程序,如果他们使用 OpenAI 的一个功能较弱的模型(居里),则每月需要支付约 2,850 美元,而在自然语言处理云。

建立在像 EleutherAI 这样的开源模型上的初创公司可能会推动下一波 NLP 的采用。咨询公司 Mordor Intelligence 预测,随着商业对人工智能的兴趣上升,到 2025 年 NLP 市场的收入将增加两倍以上。

“有效地部署这些模型,以便我们能够维持可承受的价格,同时使它们可靠而不受任何干扰,这是一项挑战。[但目标是提供]一种让开发人员和数据科学家在生产中充分利用 NLP 而不必担心 DevOps 的方法,”萨利纳斯说。

0个人收藏 收藏

评论交流

泪雪默认头像 请「登录」后参与评论
  1. 加载中..

相关推荐