自然语言处理模型套装

套件标识:ais-suite-nlp-model-a

NLP模型列表

google-bert/bert-base-chinese

是 BERT 的中文优化版本,专门针对中文语言特点设计。

压缩包文件大小:约 1.6GB 下载路径

hfl/chinese-xlnet-base

是由 Google 和 CMU(卡内基梅隆大学)于 2019 年提出的新一代预训练语言模型,通过改进传统的自编码器(Autoencoder)架构,采用 自回归语言建模(Autoregressive LM) 结合 双向上下文感知 的创新目标(排列语言建模,Permutation LM),显著提升了模型对长距离依赖和上下文关联的建模能力。

压缩包文件大小:约 1GB 下载路径

google-bert/bert-base-uncased

BERT(Bidirectional Encoder Representations from Transformers)是由 Google 在 2018 年提出的经典预训练语言模型,广泛应用于自然语言处理(NLP)任务。bert-base-uncased 是 BERT 系列中的一种轻量级版本。此模型不区分大小写:它对”english”和”English”不做区分。

压缩包文件大小:约 3.3GB 下载路径

dienstag/chinese-roberta-wwm-ext

Chinese-RoBERTa-wwm-ext 是由哈工大(HIT)和科大讯飞联合研发的中文预训练语言模型,基于 RoBERTa 架构,并针对中文文本优化,采用 全词掩码(Whole Word Masking, WWM) 技术,在多项中文 NLP 任务中表现优异。

压缩包文件大小:约 1.14GB 下载路径

发表评论