PSGAN: A Minimax Game for Personalized Search with Limited and Noisy Click Data总结

PSGAN: A Minimax Game for Personalized Search with Limited and Noisy Click Data总结


首先提出问题:

深度学习由于良好的自动从数据中提取特征的能力而广泛应用在个性化搜索中。然而历史记录里一些噪音信息,比如和当前query相关性不高的数据对于当前query来说是无用的,因此有了一个挑战:在具有相关数据和无关数据的条件下,如何找到合适的(个性化)分类边界,也就是如何判别某个document和当前的query以及用户是否相关。

然后放出解决方法:

作者提出了一个PSGAN======>针对个性化搜索的GAN。
它通过对抗训练,使得模型更加关注那些难以分辨的训练数据。
分辨器的目标是:更好的接近满足用户意向的documents的分布。(找到更好的分辨边界)
生成器的目标是:生成更好的负样本(混淆分辨器)
简单说一下PSGAN的结构:分辨器评估文章的相关性,生成器学习相关文档的分布。

那么如何构建生成器呢?文章提供了两种思路:

基于文档选择的生成器 or 基于生成query的生成器。
更详细的说明:
基于文档的是:在负样本空间(documents)里采样作为生成的文档。
基于生成query的是:先根据用户的意向(user intents)和当前query生成相关的一系列queries,然后根据生成的queries计算documents的相关性,希望能通过增强信息来更好的估计文档的相关性。
实验表明后者更好

深度学习模型的好处是
可以自动的从训练集中学习 文章的表示、用户描述文件以及其他相关的特征,而不用手工设计。也可以覆盖大范围的特征。

所以:训练集很重要!
但是他们有很多参数,并且需要大量的数据才可以。然而个性化搜索十分依赖用户的个人信息,然而用户的历史记录数据量有限,每个搜索只点几下,而且历史记录是有噪音的,用户可能点击无关的(自己不感兴趣的)文章,而且不同的偏好重要程度也不一样,

因此,作者的目标:设计一个能选择更细粒度的偏好作为训练集的方法。

做GAN的一个挑战:文字数据是离散的,所以无法随意生成一个负样本。解决方法是:跟着IRGAN学,我们从负样本空间采样(未点击过的或者没有标签的数据集),作为生成的样本。

注意,这里给负样本空间下了一个定义:未点击过的或者没有标签的数据集

接下来就是具体的模型描述

先把一些符号含义明确一下:
在这里插入图片描述 U = L u ∪ { S M } , L u = { S 1 , . . . , S i , . . . , S M − 1 } U=L_u \cup \{S_M\}, L_u = \{S_1,...,S_i,...,S_{M-1} \} U=Lu{SM},Lu={S1,...,Si,...,SM1}
M M M是用户 u u u的session数量。每一个Session S i S_i Si都包含了一系列queries, 每一个queries都包含一个string和一个搜索引擎返回的文档列表。
如果单说 d d d时,隐含意思是用户 u u u提出的 q q q的结果里面的一个文档 d d d

p t r u e ( d ∣ q , U , r ) p_{true}(d\mid q,U,r) ptrue(dq,U,r)表示对于用户 u u u,query q q q,文档的相关性的真实分布。
discriminator f ϕ ( d , q , U ) f_{\phi}(d,q,U) fϕ(d,q,U)。努力学习真实的样本相关性分布,来分辨对于 q q q, U U U来说相关的文档和无关的文档。

generator p θ ( d ∣ q , U , r ) p_{\theta}(d\mid q,U,r) pθ(dq,U,r)。通过生成器 g θ g_{\theta} gθ努力学习一个接近 p t r u e ( d ∣ q , U , r ) p_{true}(d\mid q,U,r) ptrue(dq,U,r)的分布 p θ ( d ∣ q , U , r ) p_{\theta}(d\mid q,U,r) pθ(dq,U,r),基于该分布来生成负样本。

优化目标:
J G ∗ , D ∗ = min ⁡ θ max ⁡ ϕ ∑ q ∈ Q ( E d ∼ p t r u e ( d ∣ q , U ) log ⁡ D ϕ ( d ∣ q , U ) + E d ∼ p θ ( d ∣ q , U ) log ⁡ ( 1 − D ϕ ( d ∣ q , U ) ) ) J^{G^*,D^*} = \min \limits_{\theta} \max\limits_{\phi} \sum\limits_{q\in Q}(\mathbb{E}_{d\sim p_{true}(d\mid q,U)}\log D_{\phi}(d \mid q, U)+ \mathbb{E}_{d\sim p_{\theta}(d\mid q,U)} \log (1-D_{\phi}(d\mid q,U))) JG,D=θminϕmaxqQ(Edptrue(dq,U)logDϕ(dq,U)+Edpθ(dq,U)log(1Dϕ(dq,U)))
p θ ( d ∣ q , U ) p_{\theta}(d\mid q,U) pθ(dq,U)就是G, D ϕ D_{\phi} Dϕ表示分类器,输出相关可能性:
D ϕ ( d ∣ q , U ) = σ ( f ϕ ( d , q , U ) ) = exp ⁡ f ϕ ( d , q , U ) 1 + exp ⁡ f ϕ ( d , q , U ) D_{\phi}(d\mid q,U) = \sigma(f_{\phi}(d,q,U)) = \frac{\exp f_{\phi}(d,q,U)}{1+\exp f_{\phi}(d,q,U)} Dϕ(dq,U)=σ(fϕ(d,q,U))=1+expfϕ(d,q,U)expfϕ(d,q,U)
分类器的优化:
ϕ ∗ = arg ⁡ max ⁡ ϕ ∑ q ∈ Q ( E d ∼ p t r u e ( d ∣ q , U ) log ⁡ D ϕ ( d ) + E d ∼ p θ ( d ∣ q , U ) log ⁡ ( 1 − D ϕ ( d ) ) ) \phi^{*} = \arg\max\limits_{\phi} \sum\limits_{q\in Q}(\mathbb{E}_{d\sim p_{true}(d\mid q,U)}\log D_{\phi}(d)+ \mathbb{E}_{d\sim p_{\theta}(d\mid q,U)} \log (1-D_{\phi}(d))) ϕ=argϕmaxqQ(Edptrue(dq,U)logDϕ(d)+Edpθ(dq,U)log(1Dϕ(d)))
论文中把训练集变成了正负样本对的形式,这样把公式转变成:
ϕ ∗ = arg ⁡ max ⁡ ϕ ∑ q ∈ Q ( E d + , d θ log ⁡ D ϕ ( d ) + log ⁡ ( 1 − D ϕ ( d ) ) ) \phi^{*} = \arg\max\limits_{\phi} \sum\limits_{q\in Q}(\mathbb{E}_{d_+,d_\theta}\log D_{\phi}(d )+ \log (1-D_{\phi}(d))) ϕ=argϕmaxqQ(Ed+,dθlogDϕ(d)+log(1Dϕ(d)))
d + d_+ d+ p t r u e ( d ∣ q , U , r ) p_{true}(d\mid q,U, r) ptrue(dq,U,r)中采样, d − d_- d p θ ( d ∣ q , U , r ) p_\theta(d\mid q,U, r) pθ(dq,U,r)中采样

进一步简化为
ϕ ∗ = arg ⁡ max ⁡ ϕ ∑ q ∈ Q ( E d + , d θ log ⁡ D ϕ ( d ) − log ⁡ D ϕ ( d ) ) \phi^{*} = \arg\max\limits_{\phi} \sum\limits_{q\in Q}(\mathbb{E}_{d_+,d_\theta}\log D_{\phi}(d )-\log D_{\phi}(d)) ϕ=argϕmaxqQ(Ed+,dθlogDϕ(d)logDϕ(d))

更进一步:
基于生成概率添加一个权重 r θ ( d + , d − ) r_\theta(d_+,d_-) rθ(d+,d),表示当前这个文档对的重要程度
r θ ( d + , d − ) = p θ ( d θ ∣ q , U , r ) − p θ ( d + ∣ q , U , r ) r_\theta(d_+,d_-)=p_\theta(d_\theta\mid q,U,r)-p_\theta(d_+\mid q,U,r) rθ(d+,d)=pθ(dθq,U,r)pθ(d+q,U,r)
p θ ( d θ ∣ q , U , r ) p_\theta(d_\theta\mid q,U,r) pθ(dθq,U,r)较大而 p θ ( d + ∣ q , U , r ) p_\theta(d_+\mid q,U,r) pθ(d+q,U,r)较小时,说明 d θ d_\theta dθ难以分辨,对于这种困难样本对,应该重点关注,因此对应的权重大。

生成器的优化
文中只给出了梯度计算公式:
∇ θ J G ( q ) ≅ 1 ∣ D ′ ∣ ∑ d ∈ D ′ ∇ θ log ⁡ p θ ( d ∣ q , U ) log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) \nabla_\theta J^{G}(q) \cong \frac{1}{|D^{'}|} \sum\limits_{d \in D^{'}}\nabla_\theta \log p_\theta(d\mid q,U)\log (1+\exp(f_\phi(d))) θJG(q)D1dDθlogpθ(dq,U)log(1+exp(fϕ(d)))
( D ′ D^{'} D 表示生成的样本,也就是从负样本集里选出来的相关性较高的样本)
通过查阅IRGAN相关论文和博客,整理出改梯度公式的推导过程如下:

原始的优化目标如下:
θ ∗ = arg ⁡ min ⁡ ϕ ∑ q ∈ Q ( E d ∼ p t r u e ( d ∣ q , U ) log ⁡ D ϕ ( d ) + E d ∼ p θ ( d ∣ q , U ) log ⁡ ( 1 − D ϕ ( d ) ) ) \theta^{*} = \arg\min\limits_{\phi} \sum\limits_{q\in Q}(\mathbb{E}_{d\sim p_{true}(d\mid q,U)}\log D_{\phi}(d)+ \mathbb{E}_{d\sim p_{\theta}(d\mid q,U)} \log (1-D_{\phi}(d))) θ=argϕminqQ(Edptrue(dq,U)logDϕ(d)+Edpθ(dq,U)log(1Dϕ(d)))
= = > θ ∗ = arg ⁡ min ⁡ ϕ ∑ q ∈ Q ( E d ∼ p θ ( d ∣ q , U ) log ⁡ ( 1 − D ϕ ( d ) ) ) ==>\theta^{*} = \arg\min\limits_{\phi} \sum\limits_{q\in Q}( \mathbb{E}_{d\sim p_{\theta}(d\mid q,U)} \log (1-D_{\phi}(d))) ==>θ=argϕminqQ(Edpθ(dq,U)log(1Dϕ(d)))
= = > θ ∗ = arg ⁡ max ⁡ ϕ ∑ q ∈ Q ( E d ∼ p θ ( d ∣ q , U ) l o g ( 1 + exp ⁡ ( f ϕ ( d ) ) ) ==>\theta^{*} = \arg\max\limits_{\phi} \sum\limits_{q\in Q}( \mathbb{E}_{d\sim p_{\theta}(d\mid q,U)} log(1+\exp(f_\phi(d))) ==>θ=argϕmaxqQ(Edpθ(dq,U)log(1+exp(fϕ(d)))
(注意这里比较特殊的是优化目标是最大值)
= = > ∇ θ J G ( q ) = ∇ θ E d ∼ p θ ( d ∣ q , U ) log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) ==>\nabla_\theta J^{G}(q)=\nabla_\theta \mathbb{E}_{d\sim p_{\theta}(d\mid q,U)} \log(1+\exp(f_\phi(d))) ==>θJG(q)=θEdpθ(dq,U)log(1+exp(fϕ(d)))
= = > ∇ θ J G ( q ) = 1 M ∑ i = 1 m ∇ θ p θ ( d i ∣ q , U ) log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) ==>\nabla_\theta J^{G}(q) = \frac{1}{M}\sum\limits_{i=1}^m \nabla_\theta p_{\theta}(d_i\mid q,U)\log(1+\exp(f_\phi(d))) ==>θJG(q)=M1i=1mθpθ(diq,U)log(1+exp(fϕ(d)))
= = > ∇ θ J G ( q ) = 1 M ∑ i = 1 M p θ ( d i ∣ q , U ) ∇ θ log ⁡ ( p θ ( d i ∣ q , U ) ) log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) ==>\nabla_\theta J^{G}(q) = \frac{1}{M}\sum\limits_{i=1}^M p_{\theta}(d_i\mid q,U) \nabla_\theta \log(p_{\theta}(d_i\mid q,U))\log(1+\exp(f_\phi(d))) ==>θJG(q)=M1i=1Mpθ(diq,U)θlog(pθ(diq,U))log(1+exp(fϕ(d)))
= = > ∇ θ J G ( q ) = E d ∼ p θ ( d ∣ q , U ) ∇ θ log ⁡ ( p θ ( d i ∣ q , U ) ) log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) ==>\nabla_\theta J^{G}(q)=\mathbb{E}_{d\sim p_{\theta}(d\mid q,U)} \nabla_\theta \log(p_{\theta}(d_i\mid q,U))\log(1+\exp(f_\phi(d))) ==>θJG(q)=Edpθ(dq,U)θlog(pθ(diq,U))log(1+exp(fϕ(d)))
= = > ∇ θ J G ( q ) = 1 K ∑ i = 1 K ∇ θ log ⁡ ( p θ ( d i ∣ q , U ) ) log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) ==>\nabla_\theta J^{G}(q)= \frac{1}{K}\sum\limits_{i=1}^K\nabla_\theta \log(p_{\theta}(d_i\mid q,U))\log(1+\exp(f_\phi(d))) ==>θJG(q)=K1i=1Kθlog(pθ(diq,U))log(1+exp(fϕ(d)))
其中M表示所有负样本的数量,K表示按照 p θ ( d i ∣ q , U ) ) p_{\theta}(d_i\mid q,U)) pθ(diq,U))采样出的生成样本的数量,以采样数据来近似期望。

上面讲了生成器和分类器的优化公式,接下来我们详细讲一下两种生成器:

基于文档的生成器:

停留时间超过30s的点击以及一个session里最后一次click,当作满意的点击(文档),把正样本上方被跳过的那些文档以及下一个没被点击的文档当作无关文档。

对于这个模型,生成器和分类器的模型结构一致。

我们先看看分类器的结构:

对于当前的用户 U U U和query q q q f ϕ ( d ) = s c o r e ϕ ( d ∣ q , S M , S M − 1 , . . . , S 1 ) f_\phi(d)=score_\phi(d|q,S_M,S_{M-1},...,S_1) fϕ(d)=scoreϕ(dq,SM,SM1,...,S1)
可以把 f ϕ ( d ) f_\phi(d) fϕ(d)分为三个部分:一部分计算d和q的相关性,一部分计算d和当前用户短期描述文件的相关性,一部分计算d和当前用户长期描述文件的相关性:
f ϕ ( d ) = F f ( s c o r e ϕ ( d dim ⁡ q ) , s c o r e ϕ ( d dim ⁡ L u ) , s c o r e ϕ ( d dim ⁡ S M ) f_\phi(d) = F_f(score_\phi(d\dim q),score_\phi(d\dim L_u),score_\phi(d\dim S_M) fϕ(d)=Ff(scoreϕ(ddimq),scoreϕ(ddimLu),scoreϕ(ddimSM)
L u L_u Lu表示长期描述, S M S_M SM表示短期描述, F f F_f Ff是一层把三个score连接在一起的神经网络。
下面是作者在HRNN基础上设计的HRNN+网络结构,作为分类器和基于文档的生成器的网络结构:
在这里插入图片描述下面介绍HRNN+网络结构:

对于 s c o r e ϕ ( d ∣ q ) score_\phi(d\mid q) scoreϕ(dq):

根据SLTB提取文档的原始排序,点击熵和其他典型的特征作为相关特征 r q , d r_{q,d} rq,d
s c o r e ϕ ( d dim ⁡ q ) = t a n h ( F q ( r q , d ) ) score_\phi(d\dim q) = tanh(F_q(r_{q,d})) scoreϕ(ddimq)=tanh(Fq(rq,d))

对于 s c o r e ϕ ( d ∣ S M ) score_\phi(d\mid S_M) scoreϕ(dSM):
RNN的第 i i i步的输入 x i x_i xi是每一个query及其相关\无关文档的向量表示:
x i = [ q i , v d i + , v d i − ] x_i = [q_i,v_{d_i^+},v_{d_i^-}] xi=[qi,vdi+,vdi]
q i q_i qi是query的字符串的向量表示, v d i + v_{d_i^+} vdi+ q i q_i qi所有相关文档的平均向量, v d i − v_{d_i^-} vdi是所有无关文档的平均向量。
对于 S M S_M SM中有 n n n个query的用户来说,用户的短期描述形式就是RNN的最后一步输出:
h M 1 = R N N ( h M , n − 1 1 , x n ) h^{1}_M = RNN(h^1_{M,n-1},x_n) hM1=RNN(hM,n11,xn)(上标1表示第一层RNN,也就是上图中最下面的一层RNN)
那么:
s c o r e ϕ ( d ∣ S M ) = t a n h ( F s ( h M 1 , d ) ) score_\phi(d\mid S_M) = tanh(F_s(h^1_M,d)) scoreϕ(dSM)=tanh(Fs(hM1,d))

对于 s c o r e ϕ ( d ∣ L u ) score_\phi(d\mid L_u) scoreϕ(dLu):

把第一层RNN的历史输出作为第二层RNN的输入: h i 2 = R N N ( h i − 1 2 , h i 1 ) h^2_i = RNN(h^2_{i-1}, h^1_i) hi2=RNN(hi12,hi1)
同时使用attention机制对于历史输出附权重:
α i = s o f t m a x ( e i ) = exp ⁡ ( e i ) ∑ i = 1 i = M − 1 exp ⁡ ( e i ) \alpha_i = softmax(e_i) = \frac{\exp(e_i)}{\sum_{i=1}^{i=M-1}\exp(e_i)} αi=softmax(ei)=i=1i=M1exp(ei)exp(ei)
e i = u i T u d e_i = u_i^Tu_d ei=uiTud,其中, u i = t a n h ( F d ( q , h i 2 ) ) u_i=tanh(F_d(q,h^2_i)) ui=tanh(Fd(q,hi2)),代表 q q q和Session S i S_i Si的匹配程度,个人理解 u d u_d ud表示的是q和当前Session的匹配程度,这样 e i e_i ei可以表示 q q q S i S_i Si和当前上下文的匹配程度,进而 α i \alpha_i αi可以表示 S i S_i Si的权重。
进而该用户的长期描述可以表示为: h M − 1 2 = ∑ i = 1 M − 1 α i h i 2 h^2_{M-1} = \sum_{i=1}^{M-1}\alpha_i h^2_i hM12=i=1M1αihi2
s c o r e ϕ ( d ∣ L u ) = t a n h ( F l ( h M − 1 2 , d ) ) score_\phi(d\mid L_u) = tanh(F_l(h^2_{M-1},d)) scoreϕ(dLu)=tanh(Fl(hM12,d))

上面介绍的 f ϕ f_\phi fϕ直接作为分类器的公式,不过HRNN+和PSGAN的分类器区别是,对于HRNN+, f ϕ f_\phi fϕ的正负样本就是历史数据,是固定的,测试时输出每个文档的相关性,并基于这个生成排序序列。而基于文档的模型里 f ϕ f_\phi fϕ需要反复训练,每次的训练数据都会被生成器更新(主要更新负样本)

接下来深入聊聊生成器:

他的目标是从候选文档集里选择一个看起来是相关文档的负样本。生成器公式可以如下表示:
g θ ( d , q , U ) = F g ( s c o r e θ ( d ∣ q ) , s c o r e θ ( d ∣ S M ) , s c o r e θ ( d ∣ L u ) ) g_\theta(d,q,U) = F_g(score_\theta(d\mid q), score_\theta(d\mid S_M), score_\theta(d\mid L_u)) gθ(d,q,U)=Fg(scoreθ(dq),scoreθ(dSM),scoreθ(dLu))
那么我们用生成器来逼近真实样本分布的分布概率 p θ p_\theta pθ如下:
p θ = exp ⁡ ( g θ ( d , q , U ) ) ∑ d ∈ D ′ exp ⁡ ( g θ ( d , q , U ) ) p_\theta = \frac{\exp(g_\theta(d,q,U))}{\sum_{d\in D^{'}}\exp(g_\theta(d,q,U))} pθ=dDexp(gθ(d,q,U))exp(gθ(d,q,U))
可以根据这个分布采样作为负样本,带入前面提到的PSGAN优化公式里

基于生成查询的模型:

分类器还是上述的分类器,我们只聊生成器
由于当前的query可能会和用户的意图有偏差,因此为了更好的估计用户的意图,提出了这个模型,可以根据用户的历史记录来生成一些看起来和用户意图一致的queries,进而评估文档的相关性。作者的想法是根据分类器的反馈来使得生成器拟合相关queries的分布。
定义 g θ ( q ′ ∣ q , U ) g_\theta(q'\mid q,U) gθ(qq,U)为生成器的公式。query的生成概率如下:
p θ ( q ′ ∣ q , U ) = s o f t m a x ( g θ ( q ′ ∣ q , U ) ) p_\theta(q'\mid q,U) = softmax(g_\theta(q'\mid q,U)) pθ(qq,U)=softmax(gθ(qq,U))
对于每一个生成的query,也可以计算文档的相关性的概率分布:
p θ ( d ∣ q ′ ) = s o f t m a x ( f ϕ ( d , q ′ , U ) ) ≡ p ϕ ( d ∣ q ′ ) p_\theta(d\mid q') = softmax(f_\phi(d,q',U)) ≡ p_\phi(d\mid q') pθ(dq)=softmax(fϕ(d,q,U))pϕ(dq)
p θ ( d ∣ q ) = ∑ q ′ p θ ( d ∣ q ′ ) p θ ( q ′ ∣ q , U ) = ∑ q ′ p ϕ ( d ∣ q ′ ) p θ ( q ′ ∣ q , U ) p_\theta(d\mid q) = \sum_{q'} p_\theta(d\mid q') p_\theta(q'\mid q,U) = \sum_{q'} p_\phi(d\mid q') p_\theta(q'\mid q,U) pθ(dq)=qpθ(dq)pθ(qq,U)=qpϕ(dq)pθ(qq,U)
这样生成器的梯度公式变成如下:
∇ θ J G ( q ) = 1 K ∑ i = 1 K ∇ θ log ⁡ ( p θ ( q ′ ∣ q , U ) p ϕ ( d ∣ q ′ ) log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) \nabla_\theta J^{G}(q)= \frac{1}{K}\sum\limits_{i=1}^K\nabla_\theta \log(p_{\theta}(q^{'}\mid q,U)p_\phi(d\mid q^{'} )\log(1+\exp(f_\phi(d))) θJG(q)=K1i=1Kθlog(pθ(qq,U)pϕ(dq)log(1+exp(fϕ(d)))
由于 log ⁡ ( 1 + exp ⁡ ( f ϕ ( d ) ) ) \log(1+\exp(f_\phi(d))) log(1+exp(fϕ(d))) p ϕ ( d ∣ q ′ ) p_\phi(d\mid q^{'} ) pϕ(dq)都可以看成是分类器的反馈,所以对于生成器的优化可以看做是使得生成器越来越一致于用户意图
接下来详细说说生成器的结构:
使用了seq2seq模型
在这里插入图片描述这里也是同时考虑了长期历史和短期历史(当前session),使用两个子结构来编码长期描述和短期描述。

对于长期描述:
假设 L u L_u Lu里有m个query,RNN的输入就是 { q 1 , q 2 , . . . , q m } \{q_1,q_2,...,q_m\} {q1,q2,...,qm}每当有一个新的 q i q_i qi输入的时候,都有 h i = R N N ( h i − 1 , q i ) h_i = RNN(h_{i-1},q_i) hi=RNN(hi1,qi)

对于当前session的描述:
设当前session里有 n n n个query使用了层级RNN,先对每一个query的terms使用双向RNN处理来编码query,对于第一层的RNN输出作为第二层RNN的输入来编码当前session描述:
对第一层:
h t w → = R N N ( h t − 1 w → , w t ) \overrightarrow{h^w_t} = RNN(\overrightarrow{h^{w}_{t-1}},w_t) htw =RNN(ht1w ,wt) h t w ← = R N N ( h t + 1 w ← , w t ) \overleftarrow{h^w_t} = RNN(\overleftarrow{h^{w}_{t+1}},w_t) htw =RNN(ht+1w ,wt) h t 1 = [ h t w → , h t w ← ] h^1_t = [\overrightarrow{h^w_t},\overleftarrow{h^w_t}] ht1=[htw ,htw ]
对第二层:
h i 2 = R N N ( h i − 1 2 , h i 1 ) h^2_i = RNN(h^2_{i-1}, h^1_i) hi2=RNN(hi12,hi1)
对于解码器:
使用短期描述的最后一个输出初始化状态: s 0 = t a n h ( F h ( h n 2 ) ) s_0 = tanh(F_h(h^2_n)) s0=tanh(Fh(hn2)),可以把 s 0 s_0 s0理解为初始语境(query一个单词都没输入时的状态,每输入一个单词s状态更新一次)。
判断 q ′ q^{'} q的第 t t t个单词的生成概率,是通过比较单词的编码与长期描述和短期描述的隐藏状态直接的相似性来确定的:
α t , i L = s o f t m a x ( u i T u m ) , u i = u t , i L = t a n h ( F m ( s t − 1 , h i ) ) \alpha^{L}_{t,i} = softmax(u^T_iu_m),\quad u_i = u^L_{t,i} = tanh(F_m(s_{t-1},h_i)) αt,iL=softmax(uiTum),ui=ut,iL=tanh(Fm(st1,hi))
个人理解 u m u_m um这一项的意义是把整体的长期描述的状态引入,使得 ( u i T u m ) (u^T_iu_m) (uiTum)可以更好的表示 s t − 1 s_{t-1} st1 h i h_i hi(第i个query的隐藏状态)和整体long-term 编码之间的相似度。
h t L = ∑ i α t , i L h i h^L_t = \sum_i \alpha^L_{t,i}h_i htL=iαt,iLhi
α t , i S H = s o f t m a x ( ( u t , i S H ) T u n ) , u t , i S H = t a n h ( F n ( s t − 1 , h i 2 ) ) \alpha^{SH}_{t,i} = softmax((u^{SH}_{t,i})^Tu_n),\quad u^{SH}_{t,i} = tanh(F_n(s_{t-1},h_i^2)) αt,iSH=softmax((ut,iSH)Tun),ut,iSH=tanh(Fn(st1,hi2))
h t S H = ∑ i α t , i S H h i 2 h^{SH}_t = \sum_i\alpha^{SH}_{t,i}h^2_i htSH=iαt,iSHhi2
这样就可以生成一个上下文向量,来作为解码器选择下一项(单词)的依据之一:
c t = [ h t L , h t S H ] c_t = [h^L_t ,h^{SH}_t] ct=[htL,htSH]
于是可以计算单词生成概率:(其中, w i w_i wi表示第 i i i个单词向量)
P ( w t ∣ w 1 , w 2 , . . . , w t − 1 , c t ) = s o f t m a x ( F o ( R N N ( s t − 1 , [ c t , w t ] ) ) ) P(w_t\mid w_1,w_2,...,w_{t-1},c_t) = softmax(F_o(RNN(s_{t-1},[c_t,w_t]))) P(wtw1,w2,...,wt1,ct)=softmax(Fo(RNN(st1,[ct,wt])))
生成的query q ′ q^{'} q可以如下表示: q ; = [ w 1 , w 2 , . . . , w k ] q^{;}=[w_1,w_2,...,w_k] q;=[w1,w2,...,wk]
g θ ( q ′ , q , U ) = ∏ i = 1 n P ( w i ∣ w 1 , w 2 , . . . , w i − 1 ) g_\theta(q^{'},q,U) = \prod_{i=1}^nP(w_i\mid w_1,w_2,...,w_{i-1}) gθ(q,q,U)=i=1nP(wiw1,w2,...,wi1)
把上面的生成器表示形式带入之前提到的公式里就可以计算出 p θ ( d ∣ q ) p_\theta(d\mid q) pθ(dq)

现在还有一个问题: w i w_i wi从哪儿来呢?
如果直接生成一个query的话无法保证query在用户的历史记录里出现过,如果没出现过就更不会有点击记录,也就没办法计算 p ϕ ( d ∣ q ′ ) p_\phi(d\mid q^{'}) pϕ(dq)
所以作者只在搜索记录里出现过的query形成的candidates list里挑选合适的query来生成。
如何生成candidates list呢?给所有的query排个序吧,选前10个
R ( q j ∣ q ) = e ( q , q j ) + s ( q , q j ) + f ( q , q j ) + r ( q , q j ) R(q_j\mid q) = e(q,q_j)+s(q,q_j)+f(q,q_j)+r(q,q_j) R(qjq)=e(q,qj)+s(q,qj)+f(q,qj)+r(q,qj)

  1. q j q_j qj q q q的扩充的时候, e ( q , q j ) = l e n ( q j ) − l e n ( q ) l e n ( q ) e(q,q_j) = \frac{len(q_j)-len(q)}{len(q)} e(q,qj)=len(q)len(qj)len(q),否则 e ( q , q j ) = 0 e(q,q_j) = 0 e(q,qj)=0,这样当 q j q_j qj包含的扩充单词越多时,相比于 q q q越具体
  2. s ( q , q j ) = s i m ( q , q j ) s(q,q_j) = sim(q,q_j) s(q,qj)=sim(q,qj) q q q q j q_j qj之间的相似性
  3. f ( q , q j ) = n q , q j n q f(q,q_j) = \frac{n_{q,q_j}}{n_q} f(q,qj)=nqnq,qj n q , q j n_{q,q_j} nq,qj是两个query在同一时间同一session同时出现的次数。 n q n_q nq表示的是query q q q出现在query log里的所有的次数。
  4. r ( q , q j ) = c q , q j c q r(q,q_j) = \frac{c_{q,q_j}}{c_q} r(q,qj)=cqcq,qj c q , q j c_{q,q_j} cq,qj是在query q q q和query q j q_j qj下都被点击过的URL的数量, c q c_q cq是query q q q下点击的URL的数量。
    确定了query candidates list后,就可以计算 g θ ( q ′ ∣ q , I ) = = > p θ ( q ′ ∣ q , U ) = = > p θ ( d ∣ q , U ) g_\theta(q^{'}\mid q,I)==>p_\theta(q^{'}\mid q,U) ==>p_\theta(d\mid q,U) gθ(qq,I)==>pθ(qq,U)==>pθ(dq,U)

允许生成器选择当前输入的query q q q作为 q ′ q^{'} q,所以candidates list里也要有 q q q

以上就是PSGAN的结构内容,下面我们聊聊作者文中用来评价模型的几个指标:

  1. MAP(Mean Average Precision): 每个query的平均准确率的平均值。一个query的平均准确率:假设对于一个query q,个性化搜索方法返回的文章里满意文章的等级分别是1,3,5,7,平均准确率是:(1/1 + 2/3 + 3/5 + 4/7)/4=0.71。MAP就是所有query的平均准确率的平均值。(越大越好)
  2. MRR(Mean Reciprocal Rank)): 是把标准答案在被评价系统给出结果中的排序取倒数作为它的准确度,再对所有的问题取平均。在这里插入图片描述(黑体为返回结果中最匹配的一项)
    可计算这个系统的MRR值为:(1/3 + 1/2 + 1)/3 = 11/18=0.61。(越大越好)
  3. Avg.Click:满意点击文档的平均等级位置。当Avg.Click越小,说明满意结果排序越高。(越小越好)
  4. #Better:由于搜索引擎返回的初始排序对于用户选择有一定的影响,所以把满意点击上方被跳过的文档以及满意点击的下一个文档当作不相关的文档是十分可靠的。所以可以构建两种文档对:满意文档+被跳过的文档/满意文档+未点击的下一个文档。对于第一种文档对,重排序只会产生更好的结果(满意文档排到了被跳过的前面),或者结果不变,不会产生更差的结果,所以#Better表示:重排序后产生更好结果的这类文档对的数量。(越大越好)
  5. #Worse:对于第二种文档对,重排序只会产生更差的结果,所以#Worse表示的是:重排序后产生更差结果的这类文档对的数量。(越小越好)

最后我们简单说一下作者的几个实验方向:

  1. 直接对所有数据训练,然后比较结果。
  2. 把数据集分为点击熵<1 和点击熵>1两类,分别实验对比结果。
  3. 把数据集分为查询过的queries和没查询过的queries。

有不足的地方欢迎评论指正=v=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值