确定性神经网络连子棋模型的训练(五)

本文介绍了一种利用不同棋盘大小的数据混合训练模型的方法。基于确定性神经网络,该方法能够处理不同规模的棋盘数据,同时保持模型的兼容性和尺度不变性。文章详细展示了实现过程,包括代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本篇继续上篇的未完部分。前面介绍完了多目录数据训练的例子,本篇继续介绍不同棋盘大小的数据混合训练模型的例子。

5. 不同棋盘大小的数据混合训练

基于确定性神经网络开发的连子棋应用对于棋盘大小这样的源数据尺度因素不敏感,具有兼容性,即可以用不同尺度的数据(不同大小的棋盘上得到的数据)来训练同一个模型。但是,目前阶段,不同规则的应用不能训练在一个模型上,即五连子和六连子不能训练在一起,这点将在未来得到解决。

在使用不同尺度的数据训练模型的时候,确定性神经网络支持每条数据训练的时候都带有尺度作为传入参数,也就是将尺度信息写入数据文件中;也可以将不同尺度的数据放在不同的目录下,每个目录使用一组尺度参数。我们倾向于后一种方式,这更便于管理,在数据的其它处理方面也更便宜。注:SDK的训练函数中有尺度的参数,尺度本身由开发者自行解码并作为参数传入,至于使用什么方式获取或解码尺度,可自行设计。

确定性神经网络在接收不同尺度数据进行训练的时候,会隔离不同尺度数据之间的影响,不用担心小尺度的数据会造成溢出、越界等问题,也不用担心小尺度数据会造成大尺度数据已经学出的模型消失或衰退。同样的,大尺度数据训练出的模型用于小尺度应用场景时,也不用担心模型会失效或者预测溢出、越界等,确定性神经网络在尺度方面具有较大的兼容性,具有较高的尺度不变性。

(1)创建项目并导入SDK

按照前面文章的介绍进行项目创建,并导入SDK,详细内容请参考前面的文章。

(2)编码

整体代码依旧分为四部分,即神经网络初始化、训练数据读取、网络模型训练、模型保存,其中的数据读取和模型训练两部分放在三层的循环之中,内层循环用于读取一个目录下的所有数据进行训练,中间层的循环用于读取多个目录,外层循环用于迭代直至所有数据都不会引起模型的增长为止。在本例的设计中,将不同尺度的数据存放于不同的目录下,所以在中间层的循环中进行目录切换的时候,需要同步切换数据尺度变量的值,以便调用训练函数时使用。整体的代码如下所示:

void main(void)
{
	FILE* pFile = NULL;
	char strFoldName[256] = { 0 };
	char strFileName[256] = { 0 };
	int nPieces = 0;				//训练数据中(一局对弈)的棋子数
	int narrSteps[1000] = { 0 };	//对弈中从第一子到最后一子的信息:X坐标、Y坐标、落子者(黑为-1,白为1)
	int nFileIndexStart = 1;		//第一个数据文件的名称所对应的数字
	int nFoldIndexStart = 1;		//第一个目录的名称所对应的数字
	int* parrSteps = NULL;
	bool bAgain = false;		//标志着是否还要再循环一次迭代
	int nInterCount = 0;		//迭代次数

	int nIndexBoardSize = 0;	//尺度数据数组索引
	int narrBoardSize[][2] = {	//二维数组,每行表示一个目录的数据尺度;第一列表示数据宽度,第二列表示数据高度
		{50, 50},		//50x50大小的棋盘上产生的数据存放于名称为0的目录下
		{15, 15},		//15x15大小的棋盘上产生的数据存放于名称为1的目录下
		{19, 19},		//19x19大小的棋盘上产生的数据存放于名称为2的目录下
		{17, 17},		//17x17大小的棋盘上产生的数据存放于名称为3的目录下
		{21, 21}		//21x21大小的棋盘上产生的数据存放于名称为4的目录下
	};

	InitWithoutModelFile(15, 15, 5);

	do
	{
		nInterCount++;
		bAgain = false;
		nFoldIndexStart = 1;
		nIndexBoardSize = 0;

		bool bNext = true;	//需要继续操作下一个目录
		sprintf(strFoldName, "D:/Data/%d", nFoldIndexStart++);
		while (bNext)
		{
			bNext = false;
			nFileIndexStart = 1;

			sprintf(strFileName, "%s/%d.txt", strFoldName, nFileIndexStart++);
			while ((pFile = fopen(strFileName, "r")) != NULL)
			{
				bNext = true;
				printf("%d: %s\n", nInterCount, strFileName);

				nPieces = 0;
				parrSteps = narrSteps;
				while (fscanf(pFile, "%d %d %d", parrSteps, parrSteps + 1, parrSteps + 2) == 3)
				{
					parrSteps += 3;
					nPieces++;
				}
				fclose(pFile);

				bAgain = bAgain || TrainNetwork(narrSteps, nPieces, narrBoardSize[nIndexBoardSize][0], narrBoardSize[nIndexBoardSize][0]);

				sprintf(strFileName, "%s/%d.txt", strFoldName, nFileIndexStart++);
			}
			sprintf(strFoldName, "D:/Data/%d", nFoldIndexStart++);
			nIndexBoardSize++;
		}
	} while (bAgain);

	SaveModel("D:/Model/model.mod");
}

首先,调用SDK的函数InitWithoutModelFile(15,15,5)进行神经网络初始化,此处表示从空模型初始化为15x15棋盘上的五子棋,若想在已有模型上进行追加训练,则调用的是InitFromModelFile()函数。若想训练的是六连子模型,则只需将第三个参数从5改为6即可。注:此处调用时传入的15x15与后续训练用数据的尺度不会产生冲突,此处的15主要用于游戏本身及内存初始分配,不会限制神经网络的操作。

然后,使用一个while循环来逐个打开和读取数据文件,并使用读取的数据调用TrainNetwork()函数来训练神经网络模型,调用时传入的棋盘大小(尺度)参数是在函数开头部分通过二维数组narrBoardSize硬编码且与目录对应的,通过中间层的循环来控制从该二维数组中获取对应的棋盘大小,也可根据自己的设计修改此处的尺度对应方式。

在该while循环外再包一层while循环,用来依次递增目录,即逐个目录遍历,该层循环的控制变量bNext在指定目录不存在或为空目录时为false,此时会中止目录的继续遍历,进入外层循环。另外,该循环内在目录切换时通过自增索引nIndexBoardSize来定位下一个目录中数据的尺度,若使用了自己的尺度对应方法,可在此处进行修改。

在该while循环外面再包一层do循环,用于对整批数据进行迭代,直到整批数据都不会再对模型产生增长为止。在do循环表示的迭代中,一开始就要将目录名称对应的数值nFoldIndexStart重置为1(起始目录名称),而且要将bAgain重置为false以免受上一轮的影响,同时,还要将尺度数组的索引nIndexBoardSize重置为0以便正确对应目录与数据尺度之间的关系;而在中间的循环内,一开始的时候就要将文件名称对应的数值nFileIndexStart重置为1(起始文件名称),而且要将bNext重置为false以便在遇到不存在的目录或空目录时退出本层循环。

最后,在模型训练结束之后调用SDK函数SaveModel()保存训练得到的模型。

总体上,本例代码与多目录数据训练的代码相差不大,只是增加了不同目录与数据尺度之间的对应关系,以及根据该关系为每个训练数据获取正确的尺度并传入训练函数。当然了,此处的对应关系较为简单且生硬,最便宜的方法还是将尺度写入数据文件,每次读取和解析数据文件时顺便读出数据尺度,这不仅能解决对应关系简单生硬的问题,还能放开对数据存放目录的限制,所有数据混合存放于同一个目录下也能正常训练。

(3)测试

至此为止,不同棋盘大小的数据混合训练的例子已经编码完成,可以运行看效果。运行程序之后可以在D盘的Model目录下看到新训练出的模型文件model.mod,可以将该模型用于之前文章中介绍的“神经网络五子棋(家庭版)”等软件中进行测试。这里需要注意的是,数据和其尺度一定要对应正确,否则有可能会出现运行时错误。

(4)后续

不同棋盘大小的数据混合训练的例程已经介绍完毕,至此,控制台版本上的案例已经全部结束,几乎可以涵盖训练的所有方面了。后续将再介绍一个MFC对话框版本的案例,通过文件系统遍历目录来解决数据文件名称的问题,即不再限定文件名称必须为数字,请继续关注后续文章。

本例的完整代码如下所示:

#include "stdio.h"

#include "Inter.h"
#pragma comment(lib, "AIWZQDll.lib")

void main(void)
{
	FILE* pFile = NULL;
	char strFoldName[256] = { 0 };
	char strFileName[256] = { 0 };
	int nPieces = 0;				//训练数据中(一局对弈)的棋子数
	int narrSteps[1000] = { 0 };	//对弈中从第一子到最后一子的信息:X坐标、Y坐标、落子者(黑为-1,白为1)
	int nFileIndexStart = 1;		//第一个数据文件的名称所对应的数字
	int nFoldIndexStart = 1;		//第一个目录的名称所对应的数字
	int* parrSteps = NULL;
	bool bAgain = false;		//标志着是否还要再循环一次迭代
	int nInterCount = 0;		//迭代次数

	int nIndexBoardSize = 0;	//尺度数据数组索引
	int narrBoardSize[][2] = {	//二维数组,每行表示一个目录的数据尺度;第一列表示数据宽度,第二列表示数据高度
		{50, 50},		//50x50大小的棋盘上产生的数据存放于名称为0的目录下
		{15, 15},		//15x15大小的棋盘上产生的数据存放于名称为1的目录下
		{19, 19},		//19x19大小的棋盘上产生的数据存放于名称为2的目录下
		{17, 17},		//17x17大小的棋盘上产生的数据存放于名称为3的目录下
		{21, 21}		//21x21大小的棋盘上产生的数据存放于名称为4的目录下
	};

	InitWithoutModelFile(15, 15, 5);

	do
	{
		nInterCount++;
		bAgain = false;
		nFoldIndexStart = 1;
		nIndexBoardSize = 0;

		bool bNext = true;	//需要继续操作下一个目录
		sprintf(strFoldName, "D:/Data/%d", nFoldIndexStart++);
		while (bNext)
		{
			bNext = false;
			nFileIndexStart = 1;

			sprintf(strFileName, "%s/%d.txt", strFoldName, nFileIndexStart++);
			while ((pFile = fopen(strFileName, "r")) != NULL)
			{
				bNext = true;
				printf("%d: %s\n", nInterCount, strFileName);

				nPieces = 0;
				parrSteps = narrSteps;
				while (fscanf(pFile, "%d %d %d", parrSteps, parrSteps + 1, parrSteps + 2) == 3)
				{
					parrSteps += 3;
					nPieces++;
				}
				fclose(pFile);

				bAgain = bAgain || TrainNetwork(narrSteps, nPieces, narrBoardSize[nIndexBoardSize][0], narrBoardSize[nIndexBoardSize][0]);

				sprintf(strFileName, "%s/%d.txt", strFoldName, nFileIndexStart++);
			}
			sprintf(strFoldName, "D:/Data/%d", nFoldIndexStart++);
			nIndexBoardSize++;
		}
	} while (bAgain);

	SaveModel("D:/Model/model.mod");
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

De-Chang Wang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值