【一维数组】1222: 统计直角的数目

题目描述

输入一批角的度数,让计算机统计其中有多少个直角。

输入

输入数据为两行。

      第一行输入角的个数你。

     第二行输入n角的度数。

输出

输出直角的个数s的值。

样例输入

复制

6
78 45 60 90 90 12
样例输出

复制

2

点个赞吧,还有关注!!!

上代码!!!

#include <bits/stdc++.h>

using namespace std;

#define N 1000

int a[N];

int main()

{

    int n, t = 0, sum = 0;

    cin >> n;

    for (int i = 1; i <= n; i++)

    {

        cin >> a[i];

    }

    t = a[1];

    for (int i = 1; i <= n; i++)

    {

        if (a[i] % 90 == 0)

        {

            sum++;

        }

    }

    cout << sum;

    return 0;

}

 

任务描述 本关任务:编写一个能构建出多层感知机进行图像识别的小程序。 相关知识 为了完成本关任务,你需要掌握: 1.多层感知机的原理; 2.多层感知机实现图像识别的方法和步骤; 多层感知机原理 简单来说,多层感知机就是合并了多个隐藏层,将最后一层看作线性模型的网络结构。当数据不适合直接用线性关系表示,线性模型无法很好的预测时,就需要使用多层感知机,比如经典的异或问题。 具体来说:输入可能是非线性的,直接使用线性模型难以进行预测。因为线性模型中如果权重是正数,那么特征增大则影响到输出增大,权重负则减小。而有时情况是不管特征增大或减小都会导致输出增大,比如直角坐标系上计算到y轴的距离时,x增大或减小都会导致距离的增大。 图 1 多层感知机 而经过了多层感知机后,相当于将原始的特征转化成了新的特征,或者说提炼出更合适的特征,这就是隐藏层的作用;中间部分的层就是隐藏层,我们可以合并一个或多个隐藏层来处理这样的问题。如果所有输入神经元和所有输出神经元都相连了,就是全连接,称为全连接层;最简单的隐藏层就是直接放几个全连接层。通常可以有大量隐藏层,这也会导致参数太多,所以设计时需要综合效率和准确率的提升来选择层数和单元。如图1所示,为单隐藏层的多层感知机,中间一层为含有5个隐藏单元的隐藏层。 多层感知机图像识别 1、加载数据集 在本实训中,我们将采用 DBRHD 图像数据集。DBRHD 数据集包含大量的数字0~9的手写体图片,这些图片来源于44位不同的人的手写数字,图片已归一化为以手写数字为中心的32∗32规格的图片。DBRHD 的训练集与测试集组成如下: 训练集:7,494个手写体图片及对应标签,来源于40位手写者 测试集:3,498个手写体图片及对应标签,来源于14位手写者 代码示例: with open('/data/workspace/myshixun/src/step1/train_dataSet.pkl', 'rb') as f: train_dataSet = pickle.load(f) with open('/data/workspace/myshixun/src/step1/train_hwLabels.pkl', 'rb') as f: train_hwLabels = pickle.load(f) 2、构建多层感知机 在这个过程中,我们需要设置网络的隐藏层数、各隐藏层神经元个数、激活函数、学习率、优化方法、最大迭代次数。代码示例: clf = MLPClassifier(hidden_layer_sizes=(100,), activation='logistic', solver='adam', learning_rate_init = 0.0001, max_iter=2000) 其中,我们设置含100个神经元的隐藏层;hidden_layer_sizes存放的是一个元组,表示第i层隐藏层里神经元的个数;使用logistic激活函数和adam优化方法,并令初始学习率为0.0001。 3、训练多层感知机 我们采用fit函数,它能够根据训练集及对应标签集自动设置多层感知机的输入与输出层的神经元个数。例如train_dataSet为n*1024的矩阵,train_hwLabels为n*10的矩阵,则fit函数将MLP的输入层神经元个数设为1024,输出层神经元个数为10: clf.fit(train_dataSet,train_hwLabels) 4、测试集评价 在完成训练以后,我们可以使用训练好的MLP对测试集进行预测,并计算错误率。代码示例: dataSet,hwLabels = readDataSet('testDigits') res = clf.predict(dataSet) #对测试集进行预测 error_num = 0 #统计预测错误的数目 num = len(dataSet) #测试集的数目 for i in range(num): #遍历预测结果 #比较长度为10的数组,返回包含01的数组,0为不同,1为相同 #若预测结果与真实结果相同,则10个数字全为1,否则不全为1 if np.sum(res[i] == hwLabels[i]) < 10: error_num += 1 print("Total num:",num," Wrong num:", \ error_num," WrongRate:",error_num / float(num)) 编程要求 根据提示,在右侧编辑器补充代码,完成基于多层感知机进行图像识别的代码流程。 测试说明 平台会对你编写的代码进行测试: 测试输入:无; 预期输出: 任务完成!实训通过! 开始你的任务吧,祝你成功!import pickle import numpy as np from os import listdir from sklearn.neural_network import MLPClassifier def img2vector(fileName): retMat = np.zeros([1024], int) # 定义返回的矩阵,大小为1*1024 fr = open(fileName) # 打开包含32*32大小的数字文件 lines = fr.readlines() # 读取文件的所有行 for i in range(32): # 遍历文件所有行 for j in range(32): # 并将01数字存放在retMat中 retMat[i * 32 + j] = lines[i][j] return retMat def readDataSet(path): fileList = listdir(path) # 获取文件夹下的所有文件 numFiles = len(fileList) # 统计需要读取的文件的数目 dataSet = np.zeros([numFiles, 1024], int) # 用于存放所有的数字文件 hwLabels = np.zeros([numFiles, 10]) # 用于存放对应的one-hot标签 for i in range(numFiles): # 遍历所有的文件 filePath = fileList[i] # 获取文件名称/路径 digit = int(filePath.split('_')[0]) # 通过文件名获取标签 hwLabels[i][digit] = 1.0 # 将对应的one-hot标签置1 dataSet[i] = img2vector(path + '/' + filePath) # 读取文件内容 return dataSet, hwLabels def test(): print("1、开始进行数据集的读取") with open('/data/workspace/myshixun/src/step1/train_dataSet.pkl', 'rb') as f: train_dataSet = pickle.load(f) with open('/data/workspace/myshixun/src/step1/train_hwLabels.pkl', 'rb') as f: train_hwLabels = pickle.load(f) with open('/data/workspace/myshixun/src/step1/dataSet.pkl', 'rb') as f: dataSet = pickle.load(f) with open('/data/workspace/myshixun/src/step1/hwLabels.pkl', 'rb') as f: hwLabels = pickle.load(f) # 任务:补全代码,完成多层感知机模型的构建 ########## Begin ########## ########## End ########## print("2、开始进行模型的训练") clf.fit(train_dataSet, train_hwLabels) res = clf.predict(dataSet) print("3、开始测试模型") error_num = 0 num = len(dataSet) for i in range(num): if np.sum(res[i] == hwLabels[i]) < 10: error_num += 1 print("数据量总数为:", num, " 分类错误的数量为:", \ error_num, " 分类错误率为:", error_num / float(num))
11-20
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呱呱呱~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值