我是靠谱客的博主 光亮时光,最近开发中收集的这篇文章主要介绍transformers 使用bert中文模型,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

pytorch 下载


gpu版
pip install torch===1.5.0 torchvision===0.6.0 -f https://download.pytorch.org/whl/torch_stable.html

cpu版
pip install torch==1.5.0+cpu torchvision==0.6.0+cpu -f https://download.pytorch.org/whl/torch_stable.html

离线安装

或者将whl文件放到localpath目录下 运行 pip install --no-index --find-links=/localpath torch torchvision

清华镜像下载(解压,将对应文件复制到python安装目录下的Lib/site-packages 和Scripts,再安装 python依赖包:pyyaml mkl cmake cffi 否则会报错)

 

从源码编译

1.4版本加载模型出错segmentation fault,官方的1.5版本不支持cuda10.0,公司的环境只能用cuda10.0所以自己编译了一遍

注意:一定要完全按照git文档的命令行去操作,不能跳过,否则会报错。

 

中文bert-wwm 模型 下载

中文bert-wwm github 仓库 内含下载方式

bert wwm,Chinese pytorch版本 讯飞云下载链接  

提取密码:hteX

ps: 可换成 bert-wwm-ext 或其他模型

在transforms中使用

transformers官方文档

下载的模型解压到D:/XXX/chinese-bert_chinese_wwm_pytorch

data目录下文件改名:

bert_config.json 改名为 config.json

chinese_wwm_pytorch.bin 改名为 pytorch_model.bin

使用

from transformers import BertTokenizer,BertModel
# tokenizer = BertTokenizer.from_pretrained("hfl/chinese-bert-wwm-ext")
# model = BertModel.from_pretrained("hfl/chinese-bert-wwm-ext")
tokenizer = BertTokenizer.from_pretrained("D:/XXX/chinese-bert_chinese_wwm_pytorch/data")
model = BertModel.from_pretrained("D:/XXX/chinese-bert_chinese_wwm_pytorch/data")
def use_bert_wwm():
text = "[CLS] 李明是做什么的?[SEP] 李明是个老师。[SEP]"
tokenized_text = tokenizer.tokenize(text)
print(tokenized_text)
input_ids = torch.tensor([tokenizer.encode("一壶浊酒喜相逢", add_special_tokens=True)])
# Add special tokens takes care of adding [CLS], [SEP], <s>... tokens in the right way for each model.
with torch.no_grad():
last_hidden_states = model(input_ids)[0]
# Models outputs are now tuples
print(last_hidden_states)

 

 

 

 

最后

以上就是光亮时光为你收集整理的transformers 使用bert中文模型的全部内容,希望文章能够帮你解决transformers 使用bert中文模型所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(44)

评论列表共有 0 条评论

立即
投稿
返回
顶部