POJ 1753 Flip Game 高斯消元法

   高斯很好写,当有自由变元时再枚举一下自由变元就行了。

#include <cstdio>   
#include <iostream>
#include <string.h>   
#include <cmath>
#include <vector>
#include <algorithm>   
using namespace std;
typedef long long ll;
#define sfint(x) scanf("%d",&x)
#define sfint2(x,y) scanf("%d%d",&x,&y)
#define sfint3(x,y,z) scanf("%d%d%d",&x,&y,&z)
#define sfstr(c) scanf("%s",c)
#define sfdl(x) scanf("%lf",&x)
#define sfch(c) scanf("%d",&c)
#define pfint(x) printf("%d\n",x)
#define fr(i,s,n) for(int i=s;i<n;++i)
#define _fr(i,n,s) for(int i=n-1;i>=s;--i)
#define cl(a) memset(a,0,sizeof(a))

int a[20][20];
int b[20][20];
int de[2][4] = {0,1,0,-1,1,0,-1,0};


int best = 20;
int x[20];
int lim;
int freeval(int r){
	int ret=0;
	fr(i , 16-lim,16) ret+=a[r][i]*x[i-(16-lim)];
	return ret%2;
}
int cal(int cnt){
	fr(i , 0 ,16-lim) cnt+=a[i][16]^freeval(i);
	return cnt;
}
void dfs(int u,int cnt){
	if (cnt>=best) return ;
	if(u == lim){
		best = min(best,cal(cnt));
		return;
	}
	x[u] = 1;dfs(u+1,cnt+1);
	x[u] = 0;dfs(u+1,cnt);
}

int gauss(int a[][20],int n){
	int r,c;
	for(r = 0, c=0;r<n,c<n;++r,++c){
		int p = r;
		fr(i , r+1,n){
			if(a[i][c] > a[p][c]) p = i;
		}
		if (p != r){
			fr(i , c,n+1){
				swap(a[p][i],a[r][i]);
			}
		}
		if(a[r][c] == 0){
			r--;continue;
		}
		fr(i , 0,n){
			if (a[i][c] == 0||i == r) continue;
			fr(j,c,n+1) a[i][j] = a[i][j]^a[r][j];
		}
	}
	fr(i , r,n) if (a[i][n]) return -1;
	return n-r;
}

int main(){
#ifdef local
	fi;
#endif
	char c[6];
	fr(i , 0 ,4){
		sfstr(c);
		fr(j , 0 ,4){
			if (c[j] == 'b') a[i*4+j][16] = 1;
		}
	}
	int cnt = 0;
	fr(i , 0 ,16){
		cnt+=a[i][16];
	}
	if(cnt == 0 || cnt == 16) {
		puts("0");
		return 0;
	}

	fr(i , 0 ,16){
		a[i][i] = 1;
		int r = i/4,c = i%4;
		fr(d, 0,4){
			int x = r+de[0][d],y = c+de[1][d];
			if (x>=0 && x<=3 && y>=0 && y<= 3) a[x*4+y][i] = 1;
		}
	}
	fr(i , 0 ,16){
		fr(j , 0 ,16) b[i][j] = a[i][j];
		b[i][16] = a[i][16] ^ 1;
	}
	int ans1=gauss(a,16);
	if(ans1 != -1){
		lim = ans1;
		dfs(0,0);
	}
	fr(i , 0 ,16){
		fr(j , 0 ,17) a[i][j] = b[i][j];
	}
	ans1=gauss(a,16);
	if(ans1 != -1){
		lim = ans1;
		dfs(0,0);
	}
	if(best == 20) puts("Impossible");
	else printf("%d\n",best);
	return 0;
}


训练数据保存为deep_convnet_params.pkl,UI使用wxPython编写。卷积神经网络(CNN)是一种专门针对图像、视频等结构化数据设计的深度学习模型,在计算机视觉、语音识别、自然语言处理等多个领域有广泛应用。其核心设计理念源于对生物视觉系统的模拟,主要特点包括局部感知、权重共享、多层级抽象以及空间不变性。 **1. 局部感知与卷积操作** 卷积层是CNN的基本构建块,使用一组可学习的滤波器对输入图像进行扫描。每个滤波器在图像上滑动,以局部区域内的像素值与滤波器权重进行逐元素乘法后求和,生成输出值。这一过程能够捕获图像中的边缘、纹理等局部特征。 **2. 权重共享** 同一滤波器在整个输入图像上保持相同的权重。这显著减少了模型参数数量,增强了泛化能力,并体现了对图像平移不变性的内在假设。 **3. 池化操作** 池化层通常紧随卷积层之后,用于降低数据维度并引入空间不变性。常见方法有最大池化和平均池化,它们可以减少模型对微小位置变化的敏感度,同时保留重要特征。 **4. 多层级抽象** CNN通常包含多个卷积和池化层堆叠在一起。随着网络深度增加,每一层逐渐提取更复杂、更抽象的特征,从底层识别边缘、角点,到高层识别整个对象或场景,使得CNN能够从原始像素数据中自动学习到丰富的示。 **5. 激活函数与正则化** CNN中使用非线性激活函数来引入非线性达能力。为防止过拟合,常采用正则化技术,如L2正则化和Dropout,以增强模型的泛化性能。 **6. 应用场景** CNN在诸多领域展现出强大应用价值,包括图像分类、目标检测、语义分割、人脸识别、图像生成、医学影像分析以及自然语言处理等任务。 **7. 发展与演变** CNN的概念起源于20世纪80年代,其影响力在硬件加速和大规模数据集出现后真正显现。经典模型如LeNet-5用于手写数字识别,而AlexNet、VGG、GoogLeNet、ResNet等现代架构推动了CNN技术的快速发展。如今,CNN已成为深度学习图像处理领域的基石,并持续创新。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值