WV.50-母函数详解

母函数详解

在数学中,某个序列的母函数(Generating function,又称生成函数)是一种形式幂级数,其每一项的系数可以提供关于这个序列的信息。使用母函数解决问题的方法称为母函数方法。
母函数可分为很多种,包括普通母函数指数母函数、L级数、贝尔级数和狄利克雷级数。对每个序列都可以写出以上每个类型的一个母函数。构造母函数的目的一般是为了解决某个特定的问题,因此选用何种母函数视乎序列本身的特性和问题的类型。

这里先给出两句话,不懂的可以等看完这篇文章再回过头来看:

1.“把组合问题的加法法则和幂级数的乘幂对应起来”

2.“母函数的思想很简单 — 就是把离散数列和幂级数一 一对应起来,把离散数列间的相互结合关系对应成为幂级数间的运算关系,最后由幂级数形式来确定离散数列的构造. “

我们首先来看下这个多项式乘法:

 

由此可以看出:

1.x的系数是a1,a2,…an 的单个组合的全体。

2. x^2的系数是a1,a2,…a2的两个组合的全体。

………

n. x^n的系数是a1,a2,….an的n个组合的全体(只有1个)。

进一步得到:

 

母函数的定义

对于序列a0,a1,a2,…构造一函数:

称函数G(x)是序列a0,a1,a2,…的母函数。

这里先给出2个例子,等会再结合题目分析:

 

第一种:

有1克、2克、3克、4克的砝码各一枚,能称出哪几种重量?每种重量各有几种可能方案?

考虑用母函数来解决这个问题:

我们假设x表示砝码,x的指数表示砝码的重量,这样:

1个1砝码可以用函数1+1*x^1表示,

1个2克的砝码可以用函数1+1*x^2表示,

1个3克的砝码可以用函数1+1*x^3表示,

1个4克的砝码可以用函数1+1*x^4表示,克的

上面这四个式子懂吗?

们拿1+x^2来说,前面已经说过,x表示砝码,x的指数表示砝码的重量!初始状态时,这里就是一个质量为2的砝码。

那么前面的1表示什么?按照上面的理解,1其实应该写为:1*x^0,即1代表重量为0的砝码数量为1个。

所以这里1+1*x^2 = 1*x^0 + 1*x^2,即表示1个0克的砝码(相当于没有,只是形象说明)和2克的砝码,不取或取,不取则为1*x^0,取则为1*x^2

 

不知道大家理解没,我们这里结合前面那句话:

把组合问题的加法法则和幂级数的乘幂对应起来

 

接着讨论上面的1+x^2,这里x前面的系数有什么意义?

这里的系数表示状态数(方案数)

1+x^2,也就是1*x^0 + 1*x^2,也就是上面说的不取2克砝码,此时有1种状态;或者取2克砝码,此时也有1种状态。(分析!)

 

所以,前面说的那句话的意义大家可以理解了吧?

几种砝码的组合可以称重的情况,可以用以上几个函数的乘积表示:

(1+x)(1+x^2)(1+x^3)(1+x^4)

=(1+x+x^2+x^4)(1+x^3+^4+x^7)

=1 + x + x^2 + 2*x^3 + 2*x^4 + 2*x^5 + 2*x^6 + 2*x^7 + x^8 + x^9 + x^10

从上面的函数知道:可称出从1克到10克,系数便是方案数。(!!!经典!!!)

例如右端有2^x^5 项,即称出5克的方案有2种:5=3+2=4+1;同样,6=1+2+3=4+2;10=1+2+3+4。

故称出6克的方案数有2种,称出10克的方案数有1种 。


接着上面,接下来是第二种情况:

 

第二种:

求用1分、2分、3分的邮票贴出不同数值的方案数:

大家把这种情况和第一种比较有何区别?第一种每种是一个,而这里每种是无限的。

 

以展开后的x^4为例,其系数为4,即4拆分成1、2、3之和的拆分方案数为4;

 

即 :4=1+1+1+1=1+1+2=1+3=2+2

 

 

 

这里再引出两个概念"整数拆分"和"拆分数":

 

所谓整数拆分即把整数分解成若干整数的和(相当于把n个无区别的球放到n个无标志的盒子,盒子允许空,也允许放多于一个球)。

 

整数拆分成若干整数的和,办法不一,不同拆分法的总数叫做拆分数

 

 接下来给出第二种无限的情况的一个模板:

 

#include<iostream>
using namespace std;
#define M 1000
int a[M],b[M];//a[M]中存最终项系数;b[M]中存取中间变量;
int main()
{
    int m,n;
    int i,j,k;
    cout<<"请输入最初有几项表达式相乘: "<<endl;
    cin>>m;
    while(1)
    {
        //可以加一个跳出循环的条件
        cout<<"请输入所求的指数 n 的值: ";
        cin>>n;
        //因为只求指数为n的系数的值:所以循环只到n就结束
        for(i=0;i<=n;i++)//初始化第一个式子:(1+X^2+X^3+...) 所以将其系数分别存到a[n]
        {
            a[i]=1;
            b[i]=0;    
        }
        for(i=2;i<=m;i++)//从第2项式子一直到第n项式子与原来累乘项的和继续相乘
        {
            for(j=0;j<=n;j++)//从所累乘得到的式子中指数为0遍历到指数为n 分别与第i个多项式的每一项相乘
                 for(k=0;k+j<=n;k+=i)//第i个多项式的指数从0开始,后面的每项指数依次比前面的多i,比如当i=3时,第3项的表达式为(1+x^3+x^6+x^9+……),直到所得指数的值i+j>=n退出
                 {
                     b[j+k]+=a[j];//比如前面指数为1,系数为3,即a[1]=3 的一项和下一个表达式的指数为k=3的相乘,则得到的式子的系数为,b[j+k]=b[4]+=a[1],又a[1]=3,所以指数为4的系数为b[4]=3;
                 }    
                 
             for(j=0;j<=n;j++)//  然后将中间变量b数组中的值依次赋给数组a,然后将数组b清零,继续接收乘以下一个表达式所得的值
              {
                  a[j]=b[j];
                  b[j]=0;
              }
        }
        printf("指数为%d的项的系数为:%d\n\n",n,a[n]);
    }
    
    return 0;
}

 

 转载请注明出处http://www.cnblogs.com/hsqdboke/archive/2012/04/17/2453677.html 

你提供的这段输出是一个长度为 **100** 的浮点数数组,它看起来像是一个 **词向量(word embedding)** 或 **句子向量(sentence embedding)** 的表示。 这类向量通常由以下几种模型生成: - **Word2Vec** - **FastText** - **Doc2Vec** - **BERT / Sentence-BERT** - **Gensim** 中的模型 - 或你自己训练/加载的模型生成的向量 --- ## 🧠 一、这段向量的含义 这段输出表示一个 **100 维的向量**,每个值代表该维度上的权重或激活值。例如: ```python [-0.0052772, -0.00601762, ..., 0.00234289] ``` ### 它可以代表什么? | 场景 | 含义 | |------|------| | Word2Vec | 一个词的向量表示,如 "人工智能" | | FastText | 一个词的向量,支持未登录词(OOV) | | Doc2Vec | 一个句子、段落的向量表示 | | Sentence-BERT | 一个句子的语义向量,用于相似度计算 | --- ## 🧪 二、如何使用这个向量 ### 1. 获取相似词或句子(以 Gensim 模型为例) 如果你是从 Gensim 模型中获取的向量,可以使用如下方式查找相似词或句子: ```python from gensim.models import Word2Vec # 加载模型 model = Word2Vec.load("word2vec.model") # 获取某个词的向量 vector = model.wv["人工智能"] # 查找最相似的词 similar_words = model.wv.most_similar("人工智能") print(similar_words) ``` ### 2. 向量相似度计算(cosine similarity) ```python import numpy as np from sklearn.metrics.pairwise import cosine_similarity vec1 = np.array([-0.0052772, ..., 0.00234289]) # 第一个向量 vec2 = np.array([0.00312068, ..., -0.00486073]) # 第二个向量 # reshape 为二维数组 vec1 = vec1.reshape(1, -1) vec2 = vec2.reshape(1, -1) similarity = cosine_similarity(vec1, vec2) print("Cosine Similarity:", similarity[0][0]) ``` --- ## 💾 三、如何保存和加载向量 ### 1. 保存为文件(如 numpy 文件) ```python import numpy as np vector = np.array([-0.0052772, ..., 0.00234289]) # 你的向量 np.save("vector.npy", vector) ``` ### 2. 加载向量 ```python vector = np.load("vector.npy") print(vector) ``` --- ## 🧰 四、常见用途 | 用途 | 说明 | |------|------| | 文本相似度 | 使用 cosine similarity 比较两个句子/词的语义相似性 | | 聚类 | 将多个向量进行聚类分析,如 KMeans | | 分类 | 作为特征输入到分类模型中(如 SVM、MLP) | | 可视化 | 使用 t-SNE 或 PCA 降维后可视化向量空间 | --- ## ✅ 五、总结 你看到的这段向量是一个 **100 维的嵌入向量**,可能是: - 某个词的向量(Word2Vec/FastText) - 某个句子的向量(Doc2Vec) - 某个模型输出的语义向量(如 BERT) 你可以: - 用它做相似度计算 - 用它做聚类或分类 - 用它做可视化分析 --- ##
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值