自然语言处理
文章平均质量分 63
NLP相关
小樊努力努力再努力
有希望,有事做,能爱人。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
学习笔记——BiLSTM模型中CRF层的运行原理
老师让我跑crf框架但是我完全不知道是怎么下手,查资料过程中找到了BiLSTM模型中CRF层的运行原理。记录一下,以备以后使用,嘻嘻。由于我是小白,所以很多公式我也不是太懂。我就说点通俗易懂得叭。一,符号介绍我们规定在数据集中有两类实体,人名和组织机构名称。所以,其实在我们的数据集中总共有5类标签:B-Person (人名的开始部分)I- Person (人名的中间部分)B-Organization (组织机构的开始部分)I-Organization (组织机构的中间部分)O (原创 2021-07-26 09:58:18 · 1373 阅读 · 0 评论 -
PyCharm安装torch以及pytorch-pretrained-bert简单使用
安装torch运行Pycharm中的代码时候提示ModuleNotFoundError: No module named ‘torch’。试了很多种方法都不行,然后进入官网查了下具体的安装方法,附上网址https://pytorch.org/get-started/previous-versions/。摘取一段放在这里供大家参考。# CUDA 10.0pip install torch===1.2.0 torchvision===0.4.0 -f https://download.pytorc原创 2021-08-24 17:52:14 · 8679 阅读 · 2 评论 -
基于条件随机场(CRF)对中文案件语料进行命名实体识别(NER)
## 文件组织 - **corpus.py** 语料类 - **model.py** 模型类 - **utils.py** 工具函数、映射、配置 - **data** 语料 - **requirements.txt** 依赖 ## 运行 ``` pip install -r requirements.txt python main.py ``` ...原创 2021-09-04 18:15:36 · 1338 阅读 · 1 评论 -
学习笔记——报错cannot import name joblib from sklearn.externals
使用scikit-learn跑一个两年前的案例, 报错:cannot import name ‘joblib’ from ‘sklearn.externals’原因: scikit-learn版本太新了,解决方法一: 直接使用import joblib感谢高赞评论的回答解决方法二: 回退版本删除当前版本的scikit-learn pip uninstall scikit-learn安装旧版本的scikit-learn pip install scikit-learn==0.20.3...原创 2021-08-24 14:40:02 · 342 阅读 · 0 评论 -
model(**inputs)括号里边是什么?
inputs = {"input_ids": batch[0], "attention_mask": batch[1], "labels": batch[3]} if args.model_type != "distilbert": # XLM and RoBERTa don"t use segment_ids inputs["token_type_ids"] = (batch[2] if args.model_typ.原创 2022-04-16 22:07:08 · 5781 阅读 · 0 评论 -
安装gensim,fasttsxt,以及如何安装后缀whl文件,tar.gz文件
安装gensim,fasttsxt,以及如何安装后缀whl文件,tar.gz文件原创 2022-11-06 20:48:29 · 878 阅读 · 1 评论 -
Bert代码详解及模型介绍
前言写在前边:很多东西我也仅仅是一知半解,仅仅记录学习过程,个人观点,还需要看大量的代码。必须要耐住性子看代码,别无他法,看的多了自然就会了。因为个人不用tensorflow,so这是bert的pytorch版本,地址:https://github.com/huggingface/pytorch-pretrained-BERT 主要内容在pytorch_pretrained_bert/modeling文件中。、BertModel 主要为 transformer encoder 结构,包含三个部分原创 2022-04-17 17:05:20 · 8755 阅读 · 8 评论 -
input_Ids, attention_mask
1, input_ids: 将输入到的词映射到模型当中的字典IDinput_ids = tokenizer.encode("I love China!", add_special_tokens=False)# print:[100, 657, 436, 328] # 可以使用 如下转回原来的词,在选用的模型是Roberta可以用这个转回原来的#RoBERTa相较于BERT最大的改进有三点:1.动态Masking2.取消NSP (Next Sentence predict) 任务3.扩大B原创 2022-04-17 16:19:22 · 5052 阅读 · 0 评论
分享