
人工智能机器学习
文章平均质量分 80
管它的
啊这,,,
展开
-
卷积神经网络——猫狗分类
目录一、搭建环境,完成猫狗分类一)安装TensorFlow和Keras二)猫狗分类实验三)附加问题二、Vgg19实现猫狗分类实验目的:1.按照网上教程,利用TensorFlow和Keras,自己搭建卷积神经网络完成狗猫数据集的分类实验(将关键步骤注释出来)。附加问题:解释什么是overfit(过拟合)?什么是数据增强?如果单独只做数据增强,精确率提高了多少?然后再添加的dropout层,是什么实际效果?2.用Vgg19网络模型完成狗猫分类,写出实验结果。实验环境:参考资料:【TensorFlo原创 2021-06-07 14:38:18 · 3381 阅读 · 3 评论 -
信息熵与压缩编码基础
目录一、信息熵二、信息熵与消息三、实例演示1.什么是信息熵?2.一串消息包含A,B,C,D,E共5类符号,其内容AABBBBAAAACCCCCCCCCEEEEEEDDDDEEEEEEEEEEEEE,请问其信息熵是多少?如果分别采用香农-凡诺编码,霍夫曼编码,压缩率分别是多少?3.一幅1024*768的24位RGB彩色图像一共在内存中占有多少字节? 如果将其保存为非压缩格式的BMP文件,文件有多少字节?请用实例验证。一、信息熵1948年,香农提出了“信息熵”的概念,解决了对信息的量化度量问题原创 2021-05-28 15:58:28 · 359 阅读 · 0 评论 -
机器学习人工智能——逻辑回归
目录一、实验目的:1.学习理解逻辑回归的基本概念,练习python代码的实现。2.准确理解机器学习算法的常用评价指标。实验环境:Jupyter Notbook参考资料:(周志华–西瓜书) 真正例率(TPR)、假正例率(FPR)与查准率(P)、查全率(R)一、...原创 2021-04-22 16:06:49 · 395 阅读 · 0 评论 -
Python矩阵运算、下降梯度和最小二乘法
目录一、python矩阵二、梯度下降法三、最小二乘法实验目的:1.练习Python矩阵2.解释微分、梯度的含义? 什么是梯度下降法?并用用梯度下降法手工求解参考,在Excel里用牛顿法、或者梯度下降法求解 z=2(x-1)2+y2 的近似根。3.线性回归可以用最小二乘法求解,也可以用梯度下降法求解,试比较二者的结果。参考1,参考2实验环境:python3.x,Anaconda参考资料:python矩阵基本运算.doc前置实验:环境搭建好一、python矩阵二、梯度下降法三、最小原创 2021-04-14 09:33:15 · 593 阅读 · 0 评论 -
线性规划问题求解(Excel、python和手工求解)
目录一、用Excel和python编程完成线性规划问题的求解二、用拉格朗日方法求解,手工求解和编程求解实验目的:1.用Excel和python编程完成线性规划问题的求解。2.用拉格朗日方法求解,手工求解和编程求解。给定椭球(x2)/(a2)+(y2)/(b2)+(z2)/(c2)=1求这个椭球的内接长方体的最大体积。这个问题实际上就是条件极值问题,即在(x2)/(a2)+(y2)/(b2)+(z2)/(c2)=1下,求f(x,y,z)=8xyz的最大值。实验环境:Windows10参考资原创 2021-03-31 16:54:55 · 1934 阅读 · 0 评论 -
鸢尾花数据集的线性多分类
目录一、实验目的:实验环境:参考资料:一、原创 2021-03-29 22:14:39 · 443 阅读 · 0 评论 -
在Python虚拟环境下对鸢尾花数据集进行SVM线性分类
这里写目录标题一、实验目的:使用python3.6/3.7、Anaconda 和 jupyter、spyder软件。创建一个名为 exam1的虚拟环境,在虚拟环境下安装 numpy、pandas、sklearn包, 并对鸢尾花Iris数据集进行SVM线性分类练习。实验环境:Windows10,python3.x,参考资料:一、...原创 2021-03-21 15:40:33 · 1024 阅读 · 0 评论 -
Excel求解线性回归问题
目录一、一元线性回归1.设置Excel2.高尔顿数据集线性回归分析二、线性回归方法的有效性判别一、一元线性回归实验目的:1.对“父母子女身高”数据集(高尔顿数据集)进行线性回归分析(简化的做法可选取父子身高数据为X-Y),用excel计算线性回归方程和相关系数、方差、p值等,判断回归方程是否成立?2.现在如果有一个新家庭的数据,已知父亲身高75英寸,请测算儿子的身高为多少?实验环境:Excel2019等参考资料:Excel实现数据的线性回归1.设置Excel打开Excel,进入菜单界面,原创 2021-03-17 18:19:01 · 1782 阅读 · 0 评论