概述
1.下载地址
huggingface
https://huggingface.co/hfl/chinese-roberta-wwm-ext/tree/main
mackedward-nlp
https://github.com/makcedward/nlp
中文预训练模型
https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models
https://github.com/ymcui/MacBERT
https://github.com/lonePatient/NeZha_Chinese_PyTorch
https://github.com/huawei-noah/Pretrained-Language-Model/tree/master/NEZHA-TensorFlow
中文BERT
https://github.com/stupidHIGH/bert_family_tasks
中文RoBERTa
https://github.com/ymcui/Chinese-BERT-wwm
wobert
https://github.com/ZhuiyiTechnology/WoBERT
ngram_mask:ernie/spanbert
https://www.zhihu.com/question/315190433/answer/618543076
2.综述:
bert介绍
预训练模型综述-邱锡鹏
预训练模型综述
- https://zhuanlan.zhihu.com/p/114785639
- https://zhuanlan.zhihu.com/p/115014536
ps:上面模型下载地址中,基本都会附带使用说明以及相关论文
最后
以上就是负责水杯为你收集整理的预训练模型汇总:下载地址&综述的全部内容,希望文章能够帮你解决预训练模型汇总:下载地址&综述所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复