codeforces 192

本文分享了一次CodeForces比赛的经历,作者因时间管理不当导致排名下降,并详细解析了两道题目(A题和B题)的解题思路及代码实现。

这次好悲剧啊。掉进div2了。

昨天晚上吃夜宵的时候我跟还跟姐讲,晚一点开始做cf不怕的。然后就拖了近半小时才开始看题。最后的结果是从70名到400名都只做了两题。而我在400名。。。输给了时间。。(ps:好几天前跟小屁孩讲不会输给时间的,,,欲哭无泪)

A题:只要每行,或者每列有‘.'就行了,然后把每行或者每列第一个点的位置输出。开始的时候考虑错了,然后改改通过的,改过的代码特别搓。


#include <iostream>
#include <cstdio>
#include <cstring>
#include <algorithm>
#include <queue>
#include <cmath>
#include <stack>
#include <map>
#include <string>
#define LL long long
#define DB double
#define SF scanf
#define PF printf
#define N 109
#define bug cout<<"bug"<<endl;
using namespace std;
int col[N],row[N];
char ch[N][N];
int n;
int fg()
{
    for(int i=0;i<=n;i++)
    {
        if(i==n)
        {
            for(int j=0;j<n;j++)
            {
                for(int k=0;k<n;k++)
                {
                    if(ch[j][k]=='.')
                    {
                        PF("%d %d\n",j+1,k+1);
                        break;
                    }
                }
            }
            return 1;
        }
        if(row[i]==0) break;
    }
    for(int i=0;i<=n;i++)
    {
        if(i==n)
        {
            for(int j=0;j<n;j++)
            {
                for(int k=0;k<n;k++)
                {
                    if(ch[k][j]=='.')
                    {
                        PF("%d %d\n",k+1,j+1);
                        break;
                    }
                }
            }
            return 1;
        }
        if(col[i]==0) break;
    }
    return 0;
}
int main()
{
    #ifndef ONLINE_JUDGE
    freopen("in.txt","r",stdin);
    #endif
    SF("%d",&n);
    for(int i=0;i<n;i++)
    {
        SF("%s",ch[i]);
        for(int j=0;j<n;j++)
        if(ch[i][j]=='.')
        col[j] = row[i] = 1;
    }
    if(!fg())
    {
        PF("-1\n");
        return 0;
    }
    return 0;
}

B:假设只能在出口的地方打架,(其实跟题目的意思差不多),问题就简单多了。从出口开始找到各的点最短路,当距离不大于s到e的距离时,都会打架。注意有些点到不了的。


#include <iostream>
#include <cstdio>
#include <cstring>
#include <algorithm>
#include <queue>
#include <cmath>
#include <stack>
#include <map>
#include <string>
#define LL long long
#define DB double
#define SF scanf
#define PF printf
#define N 1009
#define bug cout<<"bug"<<endl;
using namespace std;
char ch[N];
int n,m;
struct nod{
    int x,y;
} st,en;
int re[N][N];
int dis[N][N];
int v[N][N];
queue<nod> que;
int dx[] = {0,0,-1,1};
int dy[] = {-1,1,0,0};
int oor(int x,int y)
{
    if(x<0||x>=n) return false;
    if(y<0||y>=m) return false;
    return true;
}
void mindis()
{
    que.push(en);
    dis[en.x][en.y] = 1;
    nod e,t;
    while(!que.empty())
    {
        e = que.front();que.pop();
        v[e.x][e.y] = 1;
        for(int i=0;i<4;i++)
        {
            int tx= e.x+dx[i],ty=e.y+dy[i];
            if(!oor(tx,ty)||re[tx][ty]==-1||dis[tx][ty]) continue;
            dis[tx][ty] = dis[e.x][e.y]+1;
            t.x = tx;t.y = ty;
            que.push(t);
        }
    }
//    for(int i=0;i<n;i++)
//    {
//        for(int j=0;j<m;j++)
//        cout<<dis[i][j]<<" ";
//        cout<<endl;
//    }
}
int solve()
{
    int ret=0;
    int d = dis[st.x][st.y];
    for(int i=0;i<n;i++)
    for(int j=0;j<m;j++)
    if(dis[i][j]<=d&&re[i][j]>0&&v[i][j])
    {
        ret+=re[i][j];
    }return ret;
}
int main()
{
    #ifndef ONLINE_JUDGE
    freopen("in.txt","r",stdin);
    #endif
    SF("%d%d",&n,&m);
    for(int i=0;i<n;i++)
    {
        SF("%s",ch);
        for(int j=0;j<m;j++)
        {
            if(ch[j]=='S')
            {
                st.x = i;
                st.y = j;
            }else if(ch[j]=='E')
            {
                en.x = i;
                en.y = j;
            }else if(ch[j]=='T')
            {
                re[i][j] = -1;
            }else
            {
                re[i][j] = ch[j] - '0';
            }
        }
    }
    mindis();
    PF("%d\n",solve());
    return 0;
}


训练数据保存为deep_convnet_params.pkl,UI使用wxPython编写。卷积神经网络(CNN)是一种专门针对图像、视频等结构化数据设计的深度学习模型,在计算机视觉、语音识别、自然语言处理等多个领域有广泛应用。其核心设计理念源于对生物视觉系统的模拟,主要特点包括局部感知、权重共享、多层级抽象以及空间不变性。 **1. 局部感知与卷积操作** 卷积层是CNN的基本构建块,使用一组可学习的滤波器对输入图像进行扫描。每个滤波器在图像上滑动,以局部区域内的像素值与滤波器权重进行逐元素乘法后求和,生成输出值。这一过程能够捕获图像中的边缘、纹理等局部特征。 **2. 权重共享** 同一滤波器在整个输入图像上保持相同的权重。这显著减少了模型参数数量,增强了泛化能力,并体现了对图像平移不变性的内在假设。 **3. 池化操作** 池化层通常紧随卷积层之后,用于降低数据维度并引入空间不变性。常见方法有最大池化和平均池化,它们可以减少模型对微小位置变化的敏感度,同时保留重要特征。 **4. 多层级抽象** CNN通常包含多个卷积和池化层堆叠在一起。随着网络深度增加,每一层逐渐提取更复杂、更抽象的特征,从底层识别边缘、角点,到高层识别整个对象或场景,使得CNN能够从原始像素数据中自动学习到丰富的表示。 **5. 激活函数与正则化** CNN中使用非线性激活函数来引入非线性表达能力。为防止过拟合,常采用正则化技术,如L2正则化和Dropout,以增强模型的泛化性能。 **6. 应用场景** CNN在诸多领域展现出强大应用价值,包括图像分类、目标检测、语义分割、人脸识别、图像生成、医学影像分析以及自然语言处理等任务。 **7. 发展与演变** CNN的概念起源于20世纪80年代,其影响力在硬件加速和大规模数据集出现后真正显现。经典模型如LeNet-5用于手写数字识别,而AlexNet、VGG、GoogLeNet、ResNet等现代架构推动了CNN技术的快速发展。如今,CNN已成为深度学习图像处理领域的基石,并持续创新。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值