独家 | 使用ONNX搭建NLP Transformers pipelines
cac55 2024-10-01 07:40 34 浏览 0 评论
作者:Thomas Chaigneau
翻译:欧阳锦校对:和中华
本文约3000字,建议阅读7分钟本文介绍了如何使用ONNX构建真实世界的NLP应用。
如何用ONNX构建真实世界的NLP应用,而不仅仅是为了张量做基准测试。
图片源自网络
ONNX是一种用于神经网络的机器学习格式。它是可移植的,开源的,并且在不牺牲准确性的情况下提高推理速度,真的很厉害。
我发现了很多关于ONNX基准的文章,但没有一篇文章介绍将其用于真实世界NLP任务的简便方法。我还在Hugging Face的discord server上回答了很多关于ONNX以及将其用于NLP的最佳方式的问题。
这就是我决定写这篇博文的原因。我想帮助你使用ONNX与超强的Transformers pipelines获得尽可能好的结果。
本教程将告诉你如何将Hugging Face的NLP Transformers模型导出到ONNX,以及如何将导出的模型与适当的Transformers pipeline一起使用。我使用命名实体识别(NER)模型作为例子,但它并不限于NER。
所有的代码片段都可以在相关的GitHubrepo中找到。所以不用担心复制的问题,只需克隆仓库并在阅读这篇博文时运行notebook。
运行环境
首先,你需要安装所需的依赖项。建议使用一个隔离的环境以避免冲突。
该项目需要Python 3.8或更高版本。你可以使用任何你想要的软件包管理器。我推荐在本教程中使用conda。所有需要的依赖项都列在requirements.txt文件中。要安装它们,请运行以下命令。
$ conda create -y -n hf-onnx python=3.8$ conda activate hf-onnx
$ git clone https://github.com/ChainYo/transformers-pipeline-onnx.git$ cd transformers-pipeline-onnx
$ pip install -r requirements.txt
导出ONNX模型
对于这个例子,我们可以使用Hugging Face库中的任何TokenClassification模型,因为我们要解决的任务是NER。
我选择了dslim/bert-base-NER模型,因为它是一个基础模型,意味着在CPU上的计算时间适中。另外,BERT架构是NER的一个不错的选择。
Huggging Faces的Transformers库提供了一个方便的方法来将模型导出为ONNX格式。你可以参考官方文档了解更多细节。
我们使用上面提到的bert-base-NER模型和token-classification作为特征。token-classification是我们要解决的任务。你可以通过执行以下代码看到可用的特征列表:
from transformers.onnx.features import FeaturesManager
distilbert_features = list(FeaturesManager.get_supported_features_for_model_type("bert").keys())
print(distilbert_features)
>>> ['default', 'masked-lm', 'causal-lm', 'sequence-classification', 'token-classification', 'question-answering']
通过调用转换脚本,你必须指定模型名称,从本地目录或直接从Hugging Face的枢纽中指定。你还需要指定如上所示的特征。输出文件将被保存在output目录中。
我们把onnx/作为输出目录。这就是ONNX模型将被保存的地方。
我们让opset参数为默认值,该参数在模型的ONNX配置中定义。
最后,我们还将atol参数设为默认值,即1e-05。这是原始PyTorch模型和ONNX模型之间数值精度的公差。
下面是将模型导出为ONNX格式的命令:
$ python -m transformers.onnx \ --model=dslim/bert-base-NER \ --feature=token-classification \ onnx/
通过Transformers pipeline来使用ONNX模型
现在我们已经将模型导出为ONNX格式,我们可以用Transformers pipeline来使用它,这个过程很简单。
- 用ONNX模型创建一个会话,允许你将模型加载到管道中并进行推理。
- 覆盖管道的_forward和preprocess方法以使用ONNX模型。
- 运行管道。
首先,让我们导入所需的包。
import torch
from onnxruntime import (
InferenceSession, SessionOptions, GraphOptimizationLevel
)
from transformers import (
TokenClassificationPipeline, AutoTokenizer, AutoModelForTokenClassification
)
创建一个ONNX模型会话:
options = SessionOptions() # initialize session options
options.graph_optimization_level = GraphOptimizationLevel.ORT_ENABLE_ALL
session = InferenceSession(
"onnx/model.onnx", sess_options=options, providers=["CPUExecutionProvider"]
)
# disable session.run() fallback mechanism, it prevents for a reset of the execution provider
session.disable_fallback()
这里我们将只使用CPUExecutionProvider,它是ONNX模型的默认执行提供者(execution provider)。你可以为会话提供一个或多个执行提供者。例如,你可以使用CUDAExecutionProvider来在GPU上运行模型。默认情况下,会话将从列表中的第一个开始,使用机器上可用的那个。
Onnxruntime提供了一个函数来查看所有可用的执行提供者。
from onnxruntime import get_all_providers
get_all_providers()
正如你所看到的,有很多可用于各种用例和配置的provider。
使用ONNX模型创建pipeline
现在我们有一个带有ONNX模型的会话可以使用,我们可以继承原来的TokenClassificationPipeline类以使用ONNX模型。
为了充分理解原理,你可以参考TokenClassificationPipeline python类的源代码。
我们将只覆盖_forward和preprocess方法,因为其他方法不依赖于模型格式。
class OnnxTokenClassificationPipeline(TokenClassificationPipeline):
def __init__(self, *args, **kwargs):
super().__init__(*args, **kwargs)
def _forward(self, model_inputs):
"""
Forward pass through the model. This method is not to be called by the user directly and is only used
by the pipeline to perform the actual predictions.
This is where we will define the actual process to do inference with the ONNX model and the session created
before.
"""
# This comes from the original implementation of the pipeline
special_tokens_mask = model_inputs.pop("special_tokens_mask")
offset_mapping = model_inputs.pop("offset_mapping", None)
sentence = model_inputs.pop("sentence")
inputs = {k: v.cpu().detach().numpy() for k, v in model_inputs.items()} # dict of numpy arrays
outputs_name = session.get_outputs()[0].name # get the name of the output tensor
logits = session.run(output_names=[outputs_name], input_feed=inputs)[0] # run the session
logits = torch.tensor(logits) # convert to torch tensor to be compatible with the original implementation
return {
"logits": logits,
"special_tokens_mask": special_tokens_mask,
"offset_mapping": offset_mapping,
"sentence": sentence,
**model_inputs,
}
# We need to override the preprocess method because the onnx model is waiting for the attention masks as inputs
# along with the embeddings.
def preprocess(self, sentence, offset_mapping=None):
truncation = True if self.tokenizer.model_max_length and self.tokenizer.model_max_length > 0 else False
model_inputs = self.tokenizer(
sentence,
return_attention_mask=True, # This is the only difference from the original implementation
return_tensors=self.framework,
truncation=truncation,
return_special_tokens_mask=True,
return_offsets_mapping=self.tokenizer.is_fast,
)
if offset_mapping:
model_inputs["offset_mapping"] = offset_mapping
model_inputs["sentence"] = sentence
return model_inputs
运行pipeline
已经设置好了一切,现在我们可以运行管道。
像往常一样,管道需要一个分词器、一个模型和一个任务。我们将使用ner任务。
model_name_from_hub = "dslim/bert-base-NER"
tokenizer = AutoTokenizer.from_pretrained(model_name_from_hub)
model = AutoModelForTokenClassification.from_pretrained(model_name_from_hub)
onnx_pipeline = OnnxTokenClassificationPipeline(
task="ner",
model=model,
tokenizer=tokenizer,
framework="pt",
aggregation_strategy="simple",
)
看看我们是否可以运行pipeline并检查输出。
sequence = "Apple was founded in 1976 by Steve Jobs, Steve Wozniak and Ronald Wayne to develop and sell Wozniak's Apple I personal computer"
onnx_pipeline(sequence)
ONNX pipeline输出
在这里,管道在ONNX模型下运行良好! 现在,我们有了一条完全可以使用ONNX的NER管道。
可以看看下面可选读的基准测试章节,看看与原始的PyTorch模型相比,该模型的表现如何,或者直接跳到最末尾结论部分,对该过程进行快速总结。
对完整pipeline进行基准测试(可选读)
我们将对ONNX模型和PyTorch模型的推理时间做基准测试。
我们首先需要加载PyTorch模型,并用它创建一个管道:
pytorch_pipeline = TokenClassificationPipeline(
task="ner",
model=model,
tokenizer=tokenizer,
framework="pt",
aggregation_strategy="simple",
)
我们将用相同的数据和3个不同的序列长度来测试两个管道:
sequences = {
"short_sequence": "Hello my name is Thomas and I love HuggingFace.",
"medium_sequence": "Winston Churchill was born in 1874 in Stoke-on-Trent, England, to a German father, William and Elizabeth Churchill.",
"long_sequence": """The first person to reach the summit of Everest was the South Nepalese Everest Gurun, who was a member of the Royal Nepal Expedition, led by the Nepalese Mountaineer, Sir Edmund Hillary. Hilary lived in the Himalayas for a time. He sadly died in 1953 at the age of 88."""
}
让我们比较一下每个管道在3个不同序列长度下的推理时间。我们将对每个序列的长度重复300次,以获得更准确的基准,并将所有内容放在一个表格中,以比较结果:
import timeit
from tabulate import tabulate
results = [["Sequence Length", "PyTorch", "ONNX"]]
for k, v in sequences.items():
results.append( [k, timeit.timeit(lambda: pytorch_pipeline(v), number=300), timeit.timeit(lambda: onnx_pipeline(v), number=300)])
print(tabulate(results, headers="firstrow"))
基准测试结果
看起来很不错! 看来,对于每个序列长度,ONNX模型都比原来的PyTorch模型快得多。让我们计算一下ONNX模型和PyTorch模型的推理时间之比。
print(f"For a short sequence: ONNX is {results[1][1]/results[1][2]:.2f}x faster than PyTorch")
print(f"For a medium sequence: ONNX is {results[2][1]/results[2][2]:.2f}x faster than PyTorch")
print(f"For a long sequence: ONNX is {results[3][1]/results[3][2]:.2f}x faster than PyTorch")
基准测试比例
在长序列上,我们几乎实现了3倍的速度提升!我们甚至没有根据模型结构和模型运行的硬件做任何优化,而这是可以用ONNX做的。
优化可能非常有用,但这是一个很深的话题,在这篇文章中无法涵盖。但知道你能做到这一点是很好的,我们可以在未来的文章中探讨它。
另外,我们的测试是在CPU上进行的,但我看到的所有GPU上的基准测试都比CPU上的基准测试更令人印象深刻。查看这篇(https://towardsdatascience.com/nlp-transformers-pipelines-with-onnx-9b890d015723)很不错的伟大的文章,了解更多关于不同架构和推理配置的基准测试。
结论
综上所述,我们已经用ONNX建立了一个完全正常的NER管道。我们将PyTorch模型转换为ONNX模型,并对原有的pipeline类进行了继承以适应ONNX模型的新要求。最后,我们将ONNX模型与原来的PyTorch模型进行了基准测试,并比较了结果。
不幸的是,PyTorch模型必须与ONNX模型一起加载。这是因为Transformers pipeline需要加载PyTorch模型,特别是对模型的配置。
我正在寻找一种方法来避免这种PyTorch模型的加载,因为它可能在某些系统上产生RAM问题。
我们用来使其工作的过程对于Hugging Face的Transformers库中的每个模型和任务都是一样的。
你唯一需要关注的是,模型架构是否有为ONNX实现的配置。你可以在文档中看到完整的架构列表。
如果你要找的架构还没有实现,你仍然可以创建它,并向Transformers库进行pull request以添加它。这正是我几个月前为CamemBERT架构所做的事情。你可以在Transformers的GitHub repo中查看完整的PR。
GitHub repo链接:https://github.com/huggingface/transformers/pull/14059
我希望你觉得这篇文章有用,有趣。如果你有任何问题或面临任何问题,请告诉我。我很想增加更多的例子和对其他NLP任务的支持,所以如果你有任何想法或要求,请告诉我!
如有疑问或问题,请在GitHub上或在下面的评论中打开一个问题。
P.S. 我还计划增加另一个基准部分,以测试ONNX模型是否能达到与原始模型相同的结果。
感谢Katherine Prairie和Ben Huberman。
原文标题:
NLP Transformers pipelines with ONNX
原文链接:
https://towardsdatascience.com/nlp-transformers-pipelines-with-onnx-9b890d015723
相关推荐
- 无力吐槽的自动续费(你被自动续费困扰过吗?)
-
今天因为工作需要,需要在百度文库上下载一篇文章。没办法,确实需要也有必要,只能老老实实的按要求买了个VIP。过去在百度文库上有过类似经历,当时为了写论文买了一个月的VIP,后面也没有太注意,直到第二个...
- 百度文库推出“文源计划”创作者可一键认领文档
-
11月7日,百度文库发布了旨在保护创作者权益的“文源计划”。所谓“文源计划”,即为每一篇文档找到源头,让创作者享受更多的权益。据百度文库总经理李小婉介绍,文源计划分为三部分,分别是版权认证、版权扶持和...
- 有开放大学学号的同学,百度文库高校版可以用了。
-
还在网上找百度文库的下载方式,只要从身边的朋友在读开放大学的,那他(她)的学号就可以登陆到国家开放大学图书馆,还使用百度文库高校版来下载。与百度文库稍有不同,但足够使用了。现转国图链接如下:htt...
- 搜索资源方法推荐(搜索资源的方法)
-
今天msgbox就要教大家如何又快又准的搜到各类资源,第一点,排除干扰百度搜索出来啊经常前排展示它的产品以及百度文库,如何去除呢?很简单,后面输入空格减号百度文库,比如你搜高等数学百度文库很多,只要后...
- 一行代码搞定百度文库VIP功能(2021百度文库vip账号密码共享)
-
百度文库作为大家常用查资料找文档的平台,大多数文档我们都可以直接在百度文库找到,然而百度文库也有让人头痛的时候。好不容易找到一篇合适的文档,当你准备复制的时候他却提示你需要开通VIP才能复制~~~下载...
- 百度文库文档批量上传工具用户说明书
-
百度文库文档批量上传工具用户说明书1、软件主要功能1、批量上传文档到百度文库,支持上传到收费、VIP专享、优享以及共享。2、支持自动分类和自动获取标签3、支持多用户切换,一个账户传满可以切换到...
- 百度文库现在都看不到文档是否上传成功,要凉了吗?
-
打开知识店铺,百度文库文档里显示都是下载这一按键,上传的文档也看不到是否成功?咋情况,要取消了吗?没通过审核的也不让你删除,是几个意思,想通吃吗?现在百度上传文档也很费劲,有时弄了半天的资料上传审核过...
- 微信推广引流108式:利用百度文库长期分享软文引流
-
百度文库相对于百度知道、百度百科来说,操作上没那么多条条框框,规则上也相对好把握些。做一条百度知道所花费的精力一般都会比做一条百度文库的要多些,老马个人操作下来觉得百度文库更好把握。但见仁见智吧,今天...
- 职场“避雷”指南 百度文库推出标准化劳动合同范本
-
轰轰烈烈的毕业季结束了,众多应届生在经过了“职场海选”后,已正式成为职场生力军的一员。这一阶段,除了熟悉业务,签订劳动合同、了解职场福利也迅速被提上日程。而随着国人法律意识的增强,百度文库内《劳动合同...
- 《百度文库》:素材精选宝库(百度文库官网首页)
-
《百度文库》:独特功能助力选择高质量素材在当今信息爆炸的时代,如何高效地获取并利用有价值的素材成为了许多人面临的挑战。而《百度文库》作为百度公司推出的一款在线文档分享平台,凭借其丰富的资源、强大的功能...
- 深度整合和开放AI能力 百度文库和网盘推出内容操作系统「沧舟OS」
-
【TechWeb】4月25日消息,Create2025百度AI开发者大会上,百度文库和百度网盘推出全球首个内容操作系统——沧舟OS。基于沧舟OS,百度文库APP全新上线「GenFlow超能搭子」...
- 女子发现大二作业被百度文库要求付费下载,律师:平台侵权,应赔偿
-
近日,28岁的黎女士在百度百科搜索家乡的小地名时,发现了自己在大二完成的课题作业。她继续搜索,发现多个平台收录了该文,比如豆丁网和文档之家等,有的还设置了付费或积分下载。2月15日,九派新闻记者以用户...
- 2016杀入百度文库的新捷径,只有少数人才知道的喔
-
百度的产品在SEO优化中的分量真不用多说,其实很多人都像我一样一直在找捷径。但是我经常发现很多人都是在用死方法。比如发贴吧发帖而不知道去申请一个吧主,知道自问自答而不知道去申请一个合作资格。口碑和贴吧...
- 百度文库付费文档搜索方法(百度文库付费文档搜索方法有哪些)
-
一直以来,百度文库中无论是个人中心还是个人主页,都没有像淘宝一样的店内搜索功能,连最近新开的知识店铺也没有设计店内搜索功能,这无论是对上传用户还是下载用户都不方便,上传用户想要搜索自己的文档无法办到...
- 供读者免费使用!泰达图书馆机构版百度文库新年上新啦
-
在泰达图书馆读者使用百度文库数字资源不需要VIP,免-费-用!惊不惊喜?快来了解一下吧……新年伊始,为满足区域企业、高校、科研院所以及居民群众在教学、科研及学习过程中,对各类文献资源的需求,泰达图书馆...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- 如何绘制折线图 (52)
- javaabstract (48)
- 新浪微博头像 (53)
- grub4dos (66)
- s扫描器 (51)
- httpfile dll (48)
- ps实例教程 (55)
- taskmgr (51)
- s spline (61)
- vnc远程控制 (47)
- 数据丢失 (47)
- wbem (57)
- flac文件 (72)
- 网页制作基础教程 (53)
- 镜像文件刻录 (61)
- ug5 0软件免费下载 (78)
- debian下载 (53)
- ubuntu10 04 (60)
- web qq登录 (59)
- 笔记本变成无线路由 (52)
- flash player 11 4 (50)
- 右键菜单清理 (78)
- cuteftp 注册码 (57)
- ospf协议 (53)
- ms17 010 下载 (60)