自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 拿到python项目,根据requirements.txt 实现环境导入

进入项目设置: 在顶部菜单中,选择 “File”(文件) > “Settings”(设置)(在Windows上是 “File” > “Settings”,在Mac上是 “PyCharm” > “Preferences”)。验证更改: 在 “Python Interpreter” 部分,你应该看到项目现在使用的是你刚刚选择的解释器。选择项目解释器: 在设置窗口左侧,选择 “Project: YourProjectName”(你的项目名称)下的 “Python Interpreter”(Python解释器)。

2024-10-17 21:47:00 885

原创 Linux系统pycharm的安装及其环境配置(下载CUDA)

太久没进行更新了,最近这段时间一直在忙Linux的环境配置的问题,在这个过程之中,踩了非常多的雷,现在来把pycharm的配置的问题一步步说一下。

2024-09-27 15:23:49 454

原创 激活函数之Relu函数

激活函数(Activation Function): 神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传递给下一层,输入层神经元节点会将输入属性值直接传递给下一层(隐层或输出层)。在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数。Relu函数是常见的激活函数中的一种,表达形式如下函数图像所示:从表达式和图像可以明显地看出:Relu其实就是个取最大值的函数。

2024-09-18 22:21:32 459

原创 深度学习与神经网络(反向传播算法)

反向传播(Backpropagation,BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网络中所有权重计算损失函数的梯度。这个梯度会反馈给最优化方法,用来更新。

2024-09-18 15:41:44 823

原创 深度学习和神经网络(梯度下降算法)

前面的联系存在神经网络如何学习识别数字,首先需要一个供学习使用的数据集——训练数据集,简称训练集。除此之外,我们还需要测试集来评估神经网络识别数字的水平。如上图所示,用符号x 表示训练输入。方便起见,把训练输入神经元看作 28×28=784 维的向量。向量中的每一项代表图像中单个像素的灰度值。我们用 y=y(x)表示对应的目标输出,其中y 是一个 10 维向量。例如对于一个写成“6”的训练图像 ,神经网络的目标输出就是。注意,T 是转置操作,它把行向量转换成列向量。

2024-09-14 00:47:44 1553

原创 神经网络和深度学习(学习笔记)

1.1 感知机1.1 感知机当代多数神经网络论著主要使用名为 sigmoid 神经元的神经元模型。但要理解 sigmoid 神经元的来由,需要先了解感知机。感知机接收若干个二进制输入(x1,x2......) ,并生成一个二进制输出,其中,一般来说会使用权重(w1,w2.....)来表示输入的重要程度。神经元的输出究竟是 0 还是 1,则由加权和 于或大于某个阈值来决定。类似于权重,阈值也是实数,且是神经元的一个参数。

2024-09-12 21:50:46 1608 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除