
NLP
文章平均质量分 53
白驹_过隙
你怎么过一天,就怎么过一年;你怎么过一年,就怎么过一生。
当下的每一天都是最珍贵的
展开
-
【NLP】依存句法关系符号解释
npsubj — 被动型主语(nominal passive subject),专指由“被”引导的被动句中的主语,一般是谓词语义上的受事 (称作,镍)ccomp — 从句补语,一般由两个动词构成,中心语引导后一个动词所在的从句(IP) (出现,纳入)assmod — 关联修饰(associative modifier),NP|QP (教训,特区)cop: copula。cpm — 补语化成分(complementizer),一般指“的”引导的CP (振兴,的)原创 2022-09-14 16:55:13 · 1581 阅读 · 0 评论 -
端到端、序列到序列、pipeline理解
端到端是:输入->模型->输出。端到端意味着,模型的输入是原始的数据,模型的输出是我们想要的结果。端到端不太Care模型的具体处理过程,更在乎的是输入和输出结果。pipeline是输入->模型A->输出A->模型B->输出B->…不同于端到端,pipeline可以看作是一个流水线工作,后一个模型的输入依赖于前一个模型的输出结果。序列到序列一种通用的端到端序列学习方法,它基于编码-解码(Encoder - Decoder)的架构。序列到序列是:输入是序列->模型->输出是序列。端到端(end-to-end)转载 2022-09-14 15:11:42 · 1115 阅读 · 0 评论 -
【NLP】最大概率法(负对数相加)
参考了https://blog.youkuaiyun.com/chase1998/article/details/83247192把概率的相乘转为负对数的相加。词典的txt:https://pan.baidu.com/s/1ARx3-fetzOmrw2c8mVAK8w提取码:hts4import mathdef load_dict(): """ 加载字典 :return:返回字典==>"词:频率" """ dic_file = open("WordFr原创 2020-12-22 17:26:25 · 788 阅读 · 0 评论 -
【NLP】EM算法教材抛硬币
自然语言处理中EM算法抛硬币的实现:import numpyimport mathdef em_single(theta,O):#对于当前的模型求对应的期望值(估算步骤)# 三个值分别为选择硬币c1的概率、抛c1硬币为正面的概率、抛c2硬币为正面的概率。 pi=theta[0] h1=theta[1] h2=theta[2] new_pi=0 new_h1=0 new_h2=0 PB=[] head=[] for o in原创 2020-11-17 19:32:51 · 938 阅读 · 2 评论