- 博客(12)
- 收藏
- 关注
原创 探索开源MiniMind项目:让大语言模型不再神秘(1)
现在,每个人都能迅速从零基础开始,训练出一个强大的大型语言模型。本文已经汇总了可以免费获取的高端GPU算力资源,让AI训练之旅更加顺畅。
2024-11-02 18:53:56
1030
原创 卷积神经网络实验三:模型优化(1)
上篇文章《卷积神经网络实验二:CNN实现猫狗分类任务-优快云博客》通过在原有的多层感知机上增加卷积层,在相同的数据上表现明显好于多层感知机模型。但是在损失变化曲线上可以发现,训练损失在逐渐的减少,但是测试损失不降反增,出现了过拟合现象。因此,我在设想,既然训练集上模型的性能能逐渐的提升,是不是只要让模型不再过拟合,在测试集上的效果也能提升?实验过程中,只提供更改的代码,完整代码请参考《卷积神经网络实验一:多层感知机进行猫狗分类》通过一系列模型修改实验,我们其实可以得出结论。
2024-10-29 15:20:58
1101
原创 卷积神经网络实验二:CNN实现猫狗分类任务
本文总结了两轮实验的结果,强调了模型架构对性能的重要性和卷积层在特征提取中的关键作用。同时指出了实验中未优化模型结构以保持结果的可比性,并遇到了模型过拟合的问题。作者将在下一篇文章分享优化模型结构和改进训练过程的策略,以提高模型的学习和泛化能力。
2024-10-20 15:05:44
1095
原创 卷积神经网络实验一:多层感知机进行猫狗分类
本研究通过对比多层感知机(MLP)在猫狗图像识别和手写数字识别任务上的表现,深入探讨了模型结构对机器学习模型性能的影响。实验发现,尽管猫狗数据集的数据量较大,理论上有利于模型训练,但MLP在这一任务上的表现并不理想,特别是在特征数量远多于手写数字数据集的情况下。此外,实验还观察到模型在训练集上的损失持续下降,而在测试集上的损失却上升,表明存在明显的过拟合现象。这些发现强调了模型结构在决定机器学习模型性能上限方面的关键作用,这一上限无法仅通过增加数据集规模或训练迭代次数来提高。
2024-10-20 09:37:09
1266
原创 多层感知机(MLP)实战教程:使用PyTorch实现
在本次实战案例中,我们可以看到,即使是一个相对简单的模型,也能够成功完成原本需要人类智慧才能实现的任务。那么如果我们可以设计出更复杂的模型,投喂更广泛的数据是不是模型的能力会超过人类呢。
2024-10-18 23:15:35
3215
原创 深度学习启航:多层感知机基础与实战
本文从基础概念和多层感知机的组成部分以及深度学习的过程三个方面展开。在结合相关学习视频的情况下可以快速入门深度学习。另外这篇博客衔接了“手写数字识别”的实战项目,可以在专栏中自取。
2024-10-18 11:22:26
819
原创 免费GPU算力平台分享:深度学习爱好者的福音
本文介绍了多个免费和付费的GPU算力平台,旨在帮助深度学习爱好者和研究者选择合适的资源进行模型训练和数据分析。文中详细比较了Google Colab、Kaggle Kernels、阿里云天池实验室、百度AI Studio等平台的优缺点,包括是否需要翻墙、显卡性能、稳定性和免费额度。
2024-10-17 20:12:47
8316
原创 你知道机器学习库sklearn(python)中都有哪些模块吗?
全面了解机器学习库的不同模块是接下来学习机器学习案例的前提。将学到的知识构建按照模块进行归纳记忆是最好的学习方式。
2024-06-12 21:33:28
1968
1
原创 一文教你在windows上实现ollama+open webui、外网访问本地模型、ollama使用GPU加速
ollama工具的出现让大语言模型的部署变得格外的轻松,但是在windows系统部署之后发现无法使用GPU进行加速,通过多方面查找资料发现可以在docker中使用命令启用GPU加速。另外通过Docker也可以快速部署open webui,于是本文基于docker实现ollama模型的部署,以及webui部署。最终部署成功后可以实现公网访问本地大语言模型功能。
2024-04-26 11:49:46
34772
8
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人