利用BERT whitening可以将embedding 比如768维降到256维
def compute_kernel_bias(vecs, n_components=256):
"""计算kernel和bias
vecs.shape = [num_samples, embedding_size],
最后的变换:y = (x + bias).dot(kernel)
"""
mu = vecs.mean(axis=0, keepdims=True)
cov

该博客介绍了如何利用BERT-whitening技术将高维嵌入向量(如768维)降至256维。通过计算kernel和bias,实现向量的线性变换,并进行标准化处理。文章引用了苏剑林的两篇博客作为参考,讨论了BERT-whitening的超参数调整及其效果。
最低0.47元/天 解锁文章
1656

被折叠的 条评论
为什么被折叠?



