广搜之迷宫问题

#include<iostream>
using namespace std;
struct node
{
    int x,y,pre;
};
node a[100];
int m[6][6];
int dx[]= {1,-1,0,0};
int dy[]= {0,0,1,-1};
int head,tail;
void print(int i)
{
    if(a[i].pre!=-1)
    {
        print(a[i].pre);
        cout<<"("<<a[i].x-1<<", "<<a[i].y-1<<")"<<endl;
    }
}
void bfs()
{
    a[0].x = 1;
    a[0].y=1;
    a[0].pre=-1;
    head=0;
    tail=1;
    while(head<tail)
    {
        int px = a[head].x;
        int py=a[head].y;
        for(int i=0; i<4; i++)
        {
            int endx = px+dx[i];int endy = py+dy[i];
            if(endx<=0||endx>5||endy<=0||endy>5||m[endx][endy])
                continue;
            else
            {
                m[endx][endy]=1;
                a[tail].x = endx;
                a[tail].y=endy;
                a[tail].pre=head;
                tail++;
            }
            if(endx==5&&endy==5)
                print(head);
        }
        head++;//队首元素出队列
    }
}
int main()
{
    for(int i=1; i<=5; i++)
        for(int j=1; j<=5; j++)
            cin >> m[i][j];
    cout<<"("<<0<<", "<<0<<")"<<endl;
    bfs();
    cout<<"("<<4<<", "<<4<<")"<<endl;
    return 0;
}

由于要求写出路径,所以结点必须记录父亲信息。不能用stl的队列,原因是pop()之后就找不到了,用数组实现,维护头尾指针

### 特征分类与概率密度函数关系 在机器学习模式识别领域,特征分类通常依赖于对数据分布的理解。概率密度函数(Probability Density Function, PDF)作为一种描述连续型随机变量分布特性的工具,在特征分类中扮演着重要角色。 #### 1. 基本原理 通过概率密度函数可以量化不同类别下某一特定特征值的可能性大小。假设存在两个类别 \( C_1 \) \( C_2 \),以及一组观测到的特征向量 \( X \),则可以通过计算条件概率密度函数 \( p(X|C_i) \)[^1]来评估该特征属于某类别的可能性。具体而言: - 如果已知先验概率 \( P(C_i) \),利用贝叶斯定理可进一步得到后验概率 \( P(C_i | X) = \frac{p(X|C_i)P(C_i)}{\sum_{j} p(X|C_j)P(C_j)} \)[^5]。 此过程表明,基于给定的数据集构建合适的PDF模型是实现有效分类的关键之一。 #### 2. 参数化方法 vs 非参数化方法 ##### (a) 参数化估计 当假定数据服从某种特定形式的概率分布时(如高斯分布),可通过最大似然估计(Maximum Likelihood Estimation, MLE)或其他技术拟合这些分布参数[如均值μ方差σ²][^5]。一旦获得了各目标类别对应的PDF表达式,则可以直接用于预测新样本所属类别。 例如,在Python中使用scipy库完成正态分布建模如下所示: ```python from scipy.stats import norm # 定义正态分布参数 mu_c1, sigma_c1 = 0, 1 # 类别C1的均值标准差 pdf_c1 = lambda x: norm.pdf(x, mu_c1, sigma_c1) mu_c2, sigma_c2 = 3, 1 # 类别C2的均值标准差 pdf_c2 = lambda x: norm.pdf(x, mu_c2, sigma_c2) ``` 上述代码片段展示了如何分别针对两类创建各自的正态分布PDF实例[^3]。 ##### (b) 非参数化估计 如果无法事先确定数据的具体分布形态,则需采用非参数化的手段来进行PDF近似。常见的有直方图法、核密度估计(Kernel Density Estimation,KDE)以及k近邻(k-nearest neighbors,kNN)算法等[^2]^。 其中KDE是一种较为灵活的方式,它通过对局部区域内的点赋予权重从而形成光滑曲线表示整体趋势;而窗口宽度的选择直接影响最终效果——过窄可能引入过多波动,太宽又会掩盖细节特性[^4]。 以下是简单的一维KDE实现例子: ```python import numpy as np from sklearn.neighbors import KernelDensity data = [[...]] # 输入训练数据列表 kde_model = KernelDensity(bandwidth=0.2).fit(data.reshape(-1,1)) def estimate_pdf(new_x): log_densities = kde_model.score_samples(np.array([[new_x]])) return np.exp(log_densities) ``` 这里我们借助sklearn包里的KernelDensity类完成了基础设置,并提供了自定义查询接口以便后续调用。 --- ### 结论 无论是采取何种途径获取所需PDFs,它们都构成了连接原始输入空间至决策边界的桥梁。合理运用此类理论框架能够显著提升各类监督学习任务的表现水平。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值