自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 探索开源MiniMind项目:让大语言模型不再神秘(1)

现在,每个人都能迅速从零基础开始,训练出一个强大的大型语言模型。本文已经汇总了可以免费获取的高端GPU算力资源,让AI训练之旅更加顺畅。

2024-11-02 18:53:56 1030

原创 卷积神经网络实验三:模型优化(1)

上篇文章《卷积神经网络实验二:CNN实现猫狗分类任务-优快云博客》通过在原有的多层感知机上增加卷积层,在相同的数据上表现明显好于多层感知机模型。但是在损失变化曲线上可以发现,训练损失在逐渐的减少,但是测试损失不降反增,出现了过拟合现象。因此,我在设想,既然训练集上模型的性能能逐渐的提升,是不是只要让模型不再过拟合,在测试集上的效果也能提升?实验过程中,只提供更改的代码,完整代码请参考《卷积神经网络实验一:多层感知机进行猫狗分类》通过一系列模型修改实验,我们其实可以得出结论。

2024-10-29 15:20:58 1101

原创 卷积神经网络实验二:CNN实现猫狗分类任务

本文总结了两轮实验的结果,强调了模型架构对性能的重要性和卷积层在特征提取中的关键作用。同时指出了实验中未优化模型结构以保持结果的可比性,并遇到了模型过拟合的问题。作者将在下一篇文章分享优化模型结构和改进训练过程的策略,以提高模型的学习和泛化能力。

2024-10-20 15:05:44 1095

原创 卷积神经网络实验一:多层感知机进行猫狗分类

本研究通过对比多层感知机(MLP)在猫狗图像识别和手写数字识别任务上的表现,深入探讨了模型结构对机器学习模型性能的影响。实验发现,尽管猫狗数据集的数据量较大,理论上有利于模型训练,但MLP在这一任务上的表现并不理想,特别是在特征数量远多于手写数字数据集的情况下。此外,实验还观察到模型在训练集上的损失持续下降,而在测试集上的损失却上升,表明存在明显的过拟合现象。这些发现强调了模型结构在决定机器学习模型性能上限方面的关键作用,这一上限无法仅通过增加数据集规模或训练迭代次数来提高。

2024-10-20 09:37:09 1266

原创 多层感知机(MLP)实战教程:使用PyTorch实现

在本次实战案例中,我们可以看到,即使是一个相对简单的模型,也能够成功完成原本需要人类智慧才能实现的任务。那么如果我们可以设计出更复杂的模型,投喂更广泛的数据是不是模型的能力会超过人类呢。

2024-10-18 23:15:35 3215

原创 深度学习启航:多层感知机基础与实战

本文从基础概念和多层感知机的组成部分以及深度学习的过程三个方面展开。在结合相关学习视频的情况下可以快速入门深度学习。另外这篇博客衔接了“手写数字识别”的实战项目,可以在专栏中自取。

2024-10-18 11:22:26 819

原创 免费GPU算力平台分享:深度学习爱好者的福音

本文介绍了多个免费和付费的GPU算力平台,旨在帮助深度学习爱好者和研究者选择合适的资源进行模型训练和数据分析。文中详细比较了Google Colab、Kaggle Kernels、阿里云天池实验室、百度AI Studio等平台的优缺点,包括是否需要翻墙、显卡性能、稳定性和免费额度。

2024-10-17 20:12:47 8316

原创 你知道机器学习库sklearn(python)中都有哪些模块吗?

全面了解机器学习库的不同模块是接下来学习机器学习案例的前提。将学到的知识构建按照模块进行归纳记忆是最好的学习方式。

2024-06-12 21:33:28 1968 1

原创 机器学习中都有哪些任务?

在学习机器学习之前,如果能先了解下机器学习都能做什么,大概的体系结构是什么,也许学起来会事半功倍。

2024-06-12 20:39:29 2697

原创 1.2python中用于pdf创建的库reportlab

介绍一种pdf创建的python工具库

2024-05-24 11:02:10 746

原创 一文教你在windows上实现ollama+open webui、外网访问本地模型、ollama使用GPU加速

ollama工具的出现让大语言模型的部署变得格外的轻松,但是在windows系统部署之后发现无法使用GPU进行加速,通过多方面查找资料发现可以在docker中使用命令启用GPU加速。另外通过Docker也可以快速部署open webui,于是本文基于docker实现ollama模型的部署,以及webui部署。最终部署成功后可以实现公网访问本地大语言模型功能。

2024-04-26 11:49:46 34772 8

原创 windows通过ollama快速部署大语言模型,CPU也可跑

轻松实现大语言模型的本地部署,不用魔法、不用网络,本地即可实现文档智能问答。

2024-04-24 21:01:58 1125

最全英语六级真题(从12年到23年总共66个真题)

最全英语六级真题,从12年到23年总共66个真题。全网最全。

2024-04-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除