- 博客(88)
- 收藏
- 关注
原创 机器学习之实战篇——图像压缩(K-means聚类算法)
②进行图像压缩,需要减少像素点颜色的种类,本案例中假设压缩后颜色种类为16,假设用整数0~15表示每个整数可以用4bit(即0.5byte)表示,对于压缩后的图片,每个像素点只需存储相应的颜色编号,因此占据的存储空间为128×128×0.5+(16×1×3)≈ 8KB,大小仅仅是原始图像的。=48kb的存储空间。③因此可以采用K-means聚类算法,数据集由包含三个颜色分量特征的128×128个像素点构成,设置目标聚类类别K=16,并使用编写的kmeans.py中的run_kMeans函数实现聚类算法。
2024-09-21 16:44:02
1363
原创 微分方程人口模型以及Matlab代码实现
1.设x(t)表示t时刻的人口数,且x(t)连续可微。2.人口的增长率r是常数(增长率=出生率-死亡率)。3.人口数量的变化是封闭的,即没有人口迁移,且人口数量的增加与减少只取决于人口中个体的生育和死亡,且每一个体都具有同样的生育能力与死亡率。
2024-09-15 12:30:43
1887
原创 蒙特卡罗——排队模拟python代码实现
指数分布是连续概率分布,常用于描述某些事件发生的时间间隔。fx;λλe−λx其中,λ是速率参数,λ0,并且x≥0。
2024-09-09 23:47:41
1206
原创 机器学习之监督学习(四)决策树和随机森林
在这棵决策树中,在根结点中选取耳朵形状作为特征,然后根据耳朵尖状或松散分叉成左右子树,左孩子结点选择脸型作为特征,右孩子结点选择胡须作为特征,再进一步分叉后第三层的叶子结点输出类别(是猫/不是猫)。看上图,当选择cat DNA作为特征时,可以发现左边都是猫,右边都是狗,即完全分门别类,左右边纯度都是100%。按第三个特征分裂,左边猫占3/4,右边非猫占2/3,可以发现两个比例都是按第一个特征分裂最高,因此选取第一个特征最优。上面案例中的特征都是二元特征,也就是只有两个取值,这样构建的决策树属于二叉树。
2024-09-07 23:39:22
1324
原创 机器学习之实战篇——MNIST手写数字0~9识别(全连接神经网络模型)
MNIST数据集是机器学习和计算机视觉领域中最知名和广泛使用的数据集之一。它是一个大型手写数字数据库,包含 70,000 张手写数字图像,60,000 张训练图像,10,000 张测试图像。每张图像是 28x28 像素的灰度图像素值范围从 0(白色)到 255(黑色),每张图像对应一个 0 到 9 的数字标签。在实验开始前,为了熟悉这个伟大的数据集,读者可以先做一下下面的小实验,测验你的手写数字识别能力。# 加载MNIST数据集# 随机选择100个样本# 显示图像plt.show()
2024-09-06 17:58:36
3672
原创 机器学习实战篇——肿瘤良性/恶性分类器(二元逻辑回归)
实验中难免有许多缺陷和错误,望批评指正!如环境配置(jupyter notebook、模块不兼容)遇到问题,可参考传送门。
2024-09-03 23:44:37
1235
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人