套件标识:ais-suite-nlp-model-a
NLP模型列表
google-bert/bert-base-chinese
是 BERT 的中文优化版本,专门针对中文语言特点设计。
压缩包文件大小:约 1.6GB 下载路径
hfl/chinese-xlnet-base
是由 Google 和 CMU(卡内基梅隆大学)于 2019 年提出的新一代预训练语言模型,通过改进传统的自编码器(Autoencoder)架构,采用 自回归语言建模(Autoregressive LM) 结合 双向上下文感知 的创新目标(排列语言建模,Permutation LM),显著提升了模型对长距离依赖和上下文关联的建模能力。
压缩包文件大小:约 1GB 下载路径
google-bert/bert-base-uncased
BERT(Bidirectional Encoder Representations from Transformers)是由 Google 在 2018 年提出的经典预训练语言模型,广泛应用于自然语言处理(NLP)任务。bert-base-uncased 是 BERT 系列中的一种轻量级版本。此模型不区分大小写:它对”english”和”English”不做区分。
压缩包文件大小:约 3.3GB 下载路径
dienstag/chinese-roberta-wwm-ext
Chinese-RoBERTa-wwm-ext 是由哈工大(HIT)和科大讯飞联合研发的中文预训练语言模型,基于 RoBERTa 架构,并针对中文文本优化,采用 全词掩码(Whole Word Masking, WWM) 技术,在多项中文 NLP 任务中表现优异。
压缩包文件大小:约 1.14GB 下载路径