《textanalytics》课程简单总结(1):两种word relations——Paradigmatic vs. Syntagmatic

本文是Coursera《Text Analytics》课程的初步总结,重点介绍了词汇的Paradigmatic(聚合)与Syntagmatic(组合)关系。Paradigmatic关系关注词的类别相似性,如“cat”与“dog”,而Syntagmatic关系关注词的组合出现,如“cat”与“sit”。文章探讨了如何挖掘和计算这两个概念的强弱,提到了使用Bag of Words和Vector Space Model的方法,并指出在衡量相似度时,平滑TF-IDF的重要性。
部署运行你感兴趣的模型镜像

coursera上的公开课《https://www.coursera.org/course/textanalytics》系列,讲的非常不错哦。


1、两种关系:Paradigmatic vs. Syntagmatic(聚合和组合)

• Paradigmatic:  A & B have paradigmatic relation if they can be substituted for each other (i.e., A & B are in the same class) 
– E.g., “cat” and “dog”; “Monday” and “Tuesday” (聚合:同一类别的,high similar context)
• Syntagmatic: A & B have syntagmatic relation if they can be combined with each other (i.e., A & B are related semantically) 
– E.g., “cat” and “sit”;  “car” and “drive”(组合:常在一起出现的,high correlated occurrences  but relatively low individual occurrences)




2、挖掘Paradigmatic(聚合)关系:

2.1、如何挖掘两个词(例如dog和cat)的聚合关系强不强?

因为聚合关系本质上反映的是context similarity,所以我们可以首先获取所有文档中出现dog、cat的句子的context,dog左边一个词的context、dog右边一个词的context,例如:Left1(“cat”) = {“my”, “his”, “big”, “a”, “the”,…},Right1(“cat”) = {“eats”, “ate”, “is”, “has”, ….},Window(“cat”)  =   {“my”, “his”, “big”,  “eats”,  “fish”, …};同理可获得Left1(“dog”) 、Right1(“dog”)、Window(“dog”) 的context;这样,我们就可以通过计算Sim(“Cat”,  “Dog”) = Sim(Left1(“cat”), Left1(“dog”)) + Sim(Right1(“cat”), Right1(“dog”)) +  … + Sim(Window(“cat”), Window(“dog”))的大小来表示这两个词之间的聚合关系的强弱了。。。。

2.2具体到计算,常用的办法是Bag of Words,也就是Vector Space Model (VSM),需要解决两个问题:

1)如何计算每一个向量,即把Left1(“cat”) = {“my”, “his”, “big”, “a”, “the”,…}转化为vectorLeft1 = {3, 5, 8, 2, 7, ...}等VSM可用的形式。

2)如何计算Sim(x1, x2)。

解决这两个问题的一般性办法:Expected Overlap of Words in Context (EOWC):

d1=(x1, …xN) ,其中xi =count(wi,d1)/|d1| (从文档d1中随机选一个词,是wi的概率

d2=(y1, …yN) ,其中yi =count(wi,d2)/|d2| (从文档d2中随机选一个词,是wi的概率

Sim(d1,d2)=d1.d2= x1y1+...+xnyn(分别从d1、d2中随机选一个词,两个词一样的概率)

EOWC有两个主要问题:

– It favors matching one frequent term very well over matching more distinct terms.  ——通过平滑TF实现

情况1,d1、d2中的w1都非常频繁,其他wi却几乎不匹配,此时Sim(d1,d2)=10*10+0*0+...+1*3=123;情况2,d1、d2中的每个wi都不是非常频繁,但几乎都出现了几次,此时Sim(d1,d2)=5*5+4*3+...+2*6=111对于这两种情况,EOWC是无法区分的,而我们更倾向于情况2代表的相似度!
– It treats every word equally (overlap on “the” isn’t as so meaningful as overlap on “eats”). ——通过IDF实现

通过平滑TF:BM25 Transformation


通过IDF:IDF Weighting


最终表达式:


-----



3、挖掘Syntagmatic(组合)关系:

参考下一篇博客:。

您可能感兴趣的与本文相关的镜像

ACE-Step

ACE-Step

音乐合成
ACE-Step

ACE-Step是由中国团队阶跃星辰(StepFun)与ACE Studio联手打造的开源音乐生成模型。 它拥有3.5B参数量,支持快速高质量生成、强可控性和易于拓展的特点。 最厉害的是,它可以生成多种语言的歌曲,包括但不限于中文、英文、日文等19种语言

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值