pytorch的bert预训练模型(pretrained_model_name_or_path),直接复制链接,迅雷下载
PRETRAINED_VOCAB_ARCHIVE_MAP = {
'bert-base-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-uncased-vocab.txt",
'bert-large-uncased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-large-uncased-vocab.txt",
'bert-base-cased': "https://s3.amazonaws.com/models.huggingface.co/bert/bert-base-cased-vocab.txt"

本文提供了PyTorch的BERT预训练模型下载链接,包括uncased、cased、multilingual及Chinese版本,适用于不同语言环境的自然语言处理任务。
最低0.47元/天 解锁文章
5125

被折叠的 条评论
为什么被折叠?



