自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(53)
  • 收藏
  • 关注

原创 第18课 机器学习之线性代数基础 子空间(subspace) (李宏毅)

机器学习之线性代数基础 子空间(subspace)B站视频地址:https://www.bilibili.com/video/BV1R4411M7it/笔记整理风格:全面、幽默,加以大模型提示的文案和介绍,适合做知识被长期遗忘后的重新学习考试简洁版笔记可见李老师原版PPT:https://speech.ee.ntu.edu.tw/~tlkagk/courses/LA_2018/Lecture/space%20(v2).pdf

2024-12-12 11:50:54 1420 2

原创 在Windows 10中使用SSH远程连接服务器(附花生壳操作方法)

SSH 在 linux 中是一种重要的系统组件,用户可以使用 SSH 来远程连接 linux 系统的计算机,或者传输文件。不过在 win10 以前,windows 并不原生支持 SSH,需要借助第三方工具来使用 SSH 功能。而实际上,微软在 2015 年就曾经宣布要在 Windows 中内置 SSH 功能,不过可惜的是后来一直没什么动静。不过最新的 windows 已经开始提供了 Openssh 功能。下面讲讲在CMD中使用SSH连接你的Linux主机。(以下主要是在win10电脑中的操作。

2024-12-10 21:59:00 3843

原创 linux上使用conda创建虚拟环境及常用操作汇总

linux上使用conda创建虚拟环境及常用操作汇总

2024-11-26 16:48:31 376 1

原创 2022最新版-李宏毅机器学习深度学习课程-P49 GPT的野望

使用MASK-attention,不断预测“下一个token”。可以用GPT生成文章。

2023-11-21 16:46:20 940

原创 2022最新版-李宏毅机器学习深度学习课程-P51 BERT的各种变体

但是有一个缺点,就是其左边lstm进行编码的时候只能看到左边的token,右边的lstm进行编码的时候,只能看到右边的token。看到的句子是不完整的,这就。BERT的一个太好的点就是其不善于处理生成任务,语言模型往往是给定左边的token,之后去预测右边的token,但是BERT是双向的模型,在生成任务中只能看到左边的token,是无法看到右边的token的,所以效果比较一般,但是随机的进行mask往往是会产生不好的效果的,有时候mask掉的是一个短语中的一个token,这样的话是不好出比较好的效果的。

2023-11-21 16:05:53 864

原创 2022最新版-李宏毅机器学习深度学习课程-P50 BERT的预训练和微调

模型输入无标签文本(Text without annotation),通过消耗大量计算资源得到一个可以读懂文本的模型,在遇到有监督的任务是即可。最具代表性是BERT,预训练模型现在命名基本上是源自于动画片《芝麻街》。芝麻街人物。

2023-11-10 23:23:43 1591

原创 2022最新版-李宏毅机器学习深度学习课程-P46 自监督学习Self-supervised Learning(BERT)

事实上,在训练中,会将文章截成片段输入BERT进行训练,而不是使用整篇文章,避免距离过长的问题。这样,BERT就可以知道,这两个句子是不同的句子。但是,BERT可以被应用在其他的任务【真正想要应用的任务】上,可能与“填空”并无关系甚至完全不同。BERT是一个transformer的Encoder,BERT可以输入一行向量,然后输出另一行向量,输出的长度与输入的长度相同。为了测试Self-supervised学习的能力,通常,你会在一个任务集上测试它的准确性,取其平均值得到总分。挑选的两个句子是相连的。

2023-11-08 16:14:23 1629 2

原创 2022最新版-李宏毅机器学习深度学习课程-P34 自注意力机制类别总结

下图中,纵轴的LRA score数值越大,网络表现越好;横轴表示每秒可以处理多少sequence,越往右速度越快;圈圈越大,代表用到的memory越多(计算量越大)。

2023-11-08 16:03:51 621 2

原创 2022最新版-李宏毅机器学习深度学习课程-P32 Transformer

2.**residual connection:**把这个vector加上它的input作为output【残差网络】3.**layer normalization:**对同一个feature,同一个example,不同的dimension,去计算mean跟standard deviation4.FC network这边,也有residual的架构5.把residual的结果,再做一次得到的输出,才是residual network裡面,一个block的输出。

2023-10-31 14:24:21 801 3

原创 2022最新版-李宏毅机器学习深度学习课程-P26 自注意力机制

输入任意长度个向量进行处理。

2023-10-31 12:13:24 698 1

原创 2022最新版-李宏毅机器学习深度学习课程-P29 RNN-2

突然一下升高是因为从右到左碰到陡峭的地方梯度一下变大了,所以弹回去了。原作者在训练时加上了小技巧——clipping:设置一个峰值,若超过则等于该峰值。当W>1时,微小的变化会引起很大的变化;当w

2023-10-19 21:52:58 792

原创 2022最新版-李宏毅机器学习深度学习课程-P28 Recurrent Neural Network

应用场景:填满信息把每个单词表示成一个向量的方法:独特向量还有其他方法,比如:Word hashing 单词哈希输入:单词输出:该单词属于哪一类的概率分布由于输入是文字序列,这就产生了一个问题是到达还是离开?隐藏层的输出会被存储在内存中,内存能被视为另一个输入。改变序列的顺序会改变输出。RNN的网络结构目前已提出的两个网络及区别双向RNN它与传统的循环神经网络(RNN)相比有一个重要的区别:它在每个时间步上包含两个方向的循环连接,一个从过去到未来(正向),另一个从未来到过去(逆向)

2023-10-18 17:32:35 562

原创 2022最新版-李宏毅机器学习深度学习课程-P25 Spacial Transformer Layer

CNN并不能够处理影像放大缩小,或者是旋转的问题。所以在做影像辨识的时候,往往都要做 Data Augmentation,把你的训练数据截一小块出来放大缩小、把图片旋转,CNN 才会做到好的结果。有一个架构叫 spacial Transformer Layer可以处理。设计一个层,需要的地方=1,不要的地方=0经过一个NN,FP发生平移还可以放大或缩小,只需要改变参数旋转一共需要6个参数当6个参数全部设定的是整数时,结果比较好处理但如果是小数时呢?通过最终答案的四舍五入得到结果。

2023-10-17 15:47:14 436

原创 linux下对sh文件的基本操作总结

linux下对sh文件的基本操作总结。敲击esc, 然后输入 :wq ,回车退出。当然默认就是可执行的。

2023-10-16 23:30:38 1198

原创 2022最新版-李宏毅机器学习深度学习课程-P23 为什么用了验证集结果还是过拟合

把三个模型导出的最小损失公式看成一个集合,现在要做的就是。在这个集合中找到某个h(此处可以视为训练)这个片段可以从理论上证明这一点。,使得在验证集上的损失最低。以上整个挑选模型的过程。,理想和现实会有差距。,理想和现实会有差距。也可以想象为一种训练。抽到不好的训练数据时。当拿到的验证集不好时。

2023-10-15 21:41:16 866

原创 2022最新版-李宏毅机器学习深度学习课程-P22 卷积神经网络CNN

感受野可以重叠;同一感受野可以通过不同的权重典型设置分享的权重其实就是filter卷积 = 不同的filter扫过整个矩阵 = 不同的感受野公用权重参数每个棋子有48个channel,代表48个状态CNN为啥能用于下围棋?因为他们的这两点特征相似由于棋子不能省略,用于围棋中不能加入池化层更多应用:语音、自然语音处理。。。

2023-10-15 21:12:45 622

原创 Matlab-ODE45:求解状态变量(微分方程组)

ode45实际上是数值分析中数值求解微分方程组的一种方法,4阶五级Runge-Kutta算法。

2023-10-15 15:49:53 5112

原创 2022最新版-李宏毅机器学习深度学习课程-P16 Loss可能影响网络训练失败&softmax与sigmoid

分类的例子在前几讲中已详细分析,此处略过。

2023-10-13 13:35:31 223

原创 2022最新版-李宏毅机器学习深度学习课程-P15 自动调整学习速率(learning rate)

当loss函数表面崎岖不平时,可以采用这招。 被困住时不一定是小梯度,还有可能在峡谷两端来回跳跃,下不去了当误差表面是凸函数(可以想成长轴很大的椭圆)时,可能在峡谷两端交替,再次减小学习率时,可能update很多次但走的贼慢,很难到达目标。不同的状态需要不同的学习率,所以引入Σ与前面的所有梯度有关(注意只与梯度大小有关)小梯度时大步走,大梯度时小步走再引入α,控制比例(被以前梯度影响的多少)经常用的Adam优化器,就是采用了RMSProp和动量的结合动量是与梯度方向有关的,但RMSProp只与其大小有关,所

2023-10-13 13:12:40 204

原创 2022最新版-李宏毅机器学习深度学习课程-P14 批次(batch)与动量(momentum)

所以我们就拥有了一个超参数需要调整:batchsize!下表是他们的优劣现在需要选择合适的batchsize,兼顾两者优点。

2023-10-12 14:57:28 269

原创 2022最新版-李宏毅机器学习深度学习课程-P13 局部最小值与鞍点

局部最小值?鞍点?

2023-10-11 13:14:15 271

原创 2022最新版-李宏毅机器学习深度学习课程-P12 机器学习任务攻略

优化问题(训练集损失突然变大)值得注意,它不是过拟合(训练集损失小,但测试集大)。模型偏差在于,最小的值根本不在这个模型范围内,此时需要更复杂的模型去寻找最优解。

2023-10-10 16:32:10 145

原创 2022最新版-李宏毅机器学习深度学习课程-P11逻辑回归

如果 逻辑回归+平方差的损失公式 ,会出现以下问题。求导后出现导数=0时有两种情况,此时如果不是正确的那类,会卡死!!同时,在错误0两侧时的步进会非常小,效率很慢。当距离目标远的时候,微分还是很小,这样步进会非常慢。还可能会出现参数卡死的情况(微分=0)。

2023-09-26 17:20:27 81

原创 2022最新版-李宏毅机器学习深度学习课程-P10神奇宝贝分类

其中假设的概率分布可以人为决定

2023-09-26 16:25:07 84

原创 2022最新版-李宏毅机器学习深度学习课程-P9预测神奇宝贝宝可梦

回归问题:预测出的结果是连续值。

2023-09-25 20:30:40 129

原创 2022最新版-李宏毅机器学习深度学习课程-P8反向传播

一个计算梯度的方法,一层层传递下来的。

2023-09-25 15:09:55 109

原创 2022最新版-李宏毅机器学习深度学习课程-P4深度学习简介

深度学习的简介。为什么越深效果越好?为什么神经网络是变深而不是变胖?下次课再说!

2023-09-12 17:11:15 151

原创 设置docker容器镜像加速器(阿里云)

为了加速Docker容器的拉取,我们可以设置Docker容器镜像加速器。

2023-09-05 10:15:33 888

原创 2022最新版-李宏毅机器学习深度学习课程-P3深度学习基本概念

上述的 y = wx + b线性模型x和y的关系是一条直线,即使改变w和b的值,即改变线性模型的斜率和与y轴的交叉点位置,仅仅代表y的值与x的值成正比,永远无法拟合更复杂的关系,因此我们需要一个。而我们可以用以下方式来表达更复杂的模型:连续曲线、分段线性曲线(Piecewise Linear Curves)、Sigmoid。1. 连续曲线最有弹性的模型就是连续曲线,因为它描述复杂问题最为精准。用线段去逼近平滑的曲线,分段线性曲线模型定义。

2023-08-23 19:00:34 159

原创 2022最新版-李宏毅机器学习深度学习课程-P2机器学习基本概念上

一、一、1. Function with Unknown Parameters(含未知参数的函数)根据domain知识,猜测一个能完成任务并带有未知参数的函数。设y为要预测的最终结果,x1为输入的前一天观看总人数,b与w均属于刚开始猜测未知参数需要人们对于问题的本质了解,也就是需要Domain knowledge(领域知识)。一开始的猜测不一定是对的,需要后续的修正。总之先假设y = b+w*x1,b与w是未知的,称为这个带有Unknown的Parameter的Function,称之为。

2023-08-20 21:46:31 146

原创 2022最新版-李宏毅机器学习深度学习课程-课程大纲

机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结果的方法,经过这个方法的计算之后得到最终的输出信息,例如:这段声音信号所说的内容、图片中属于什么动物、棋子下一步最佳应该落到什么位置等。这个就是机器学习需要完成的工作。根据不同的任务从而选择不同函数方法的不同,机器学习最常用的是regression(回归)和classification(分类)。模型的输出为,一般应用于预测房价、温度、空气指数等。

2023-08-13 19:31:27 496

原创 解决RuntimeError: CuDNN error: CUDNN_STATUS_SUCCESS,重配环境不强制版本

后选择了这个赞很多的答案!(先确定了确实装了Click,并且原先指定的是7.0,无版本下载时自动安装的click 8.1.3)看到它成功运行了之后我就开始傻笑,我好幸运啊碰到问题了之后身边有这么厉害又友善的同学能帮助我。(转折还是有一个厉害的实验室同门啊~~实操经验真的好强!他觉得是requirements.txt中版本指定太细致了。不需要这么详细指定版本,可以全删了让它自己装,然后碰到啥报错后再小修小补。果然下载速度快了很多呢!哦莫下载成功后就这么自然而然的跑通了。大佬用bing搜了一下之后点进了。

2023-06-25 11:30:13 736

原创 《PyTorch深度学习实践》第十一讲 卷积神经网络CNN高级篇

这个结构近似于LeNet5 模型。

2023-04-28 18:29:00 110

转载 复制Anaconda虚拟环境(可跨user)

复制Anaconda虚拟环境(可跨user)

2023-04-24 12:12:03 2197

原创 《PyTorch深度学习实践》第十讲 卷积神经网络CNN

输入通道数等于卷积核的通道数, 卷积核的个数等于输出通道数格子内对应做数乘记住一个公式,width_in - kernel_size + 1就是输出的width 和 height。输出channel变成n时N输入通道, M输出通道需要的卷积核维度总结 卷积核大小一般是奇数pytorch模块代码测试。

2023-04-19 18:04:39 387

原创 《PyTorch深度学习实践》第九讲 Softmax Classifier解决多分类问题

1.怎么用softmax这个分类器解决多分类问题假设我们有10个分类,如何设计神经网络?用sogmoid:原本输出属于一类的概率,现在让其输出属于10个类的概率。此时每个类别都看为一个二分类问题,用BCE算损失。但这里存在的问题是:10个类别不能相互抑制(概率和=1)用softmax:由于1的缺点,我们希望输出的十个概率值能满足,10个类得有9个参数,但希望用到并行计算的能力,所以还是希望十个类的输出的计算是一样的。在神经网络的后面加一个softmax层2.在pytorch中如何实现。

2023-04-18 11:04:42 1112

原创 配环境跑lunar

安装numpy pandas scikit-learn。安装pytorch-cluster。安装pytorch-spline-conv。安装pytorch-scatter。安装pytorch-sparse。安装torch_geometric。安装pytorch 旧版本。(会自动寻找合适的包)

2023-04-06 18:06:51 148

原创 vscode报错 Error: EACCES: permission denied, open...

vscode报错 Error: EACCES: permission denied, open...及解决办法

2023-04-06 16:36:21 5227

原创 Linux中创建新用户,安装anaconda,换源及创建虚拟环境

到此,已经完成,但是有提示For this change to become active,you have to open a new terminal(需要打开一个新的终端,才会生效)。这里的过程注意 enter yes enter yes(尤其最后配置环境变量时,默认是no,记得输入yes。1.1创建一个用户newuser,并交互式的设置密码和信息,信息部分可以直接按enter不填写。4.1 创建虚拟环境,指定需要的Python版本。Ubuntu创建用户已完成,棒棒哒!2.3 确认是否安装成功。

2023-04-04 16:06:49 768 1

原创 《PyTorch深度学习实践》第八讲 加载数据集

本讲介绍用于加载数据的两个工具类:Dataset:构造数据集,支持索引DataLoader:主要目标是拿出Mini-Batch,在训练时能快速使用上讲回顾从两个方面考虑:运算速度,能否利用GPU并行计算的能力有无随机性,能否利用随机性跨越鞍点,使优化的性能更好上讲使用的糖尿病数据集,在做前馈时将所有数据都放进去了,即Batch。1√,2×如果使用随机梯度下降SGD(权重的更新公式中只使用一个样本)。1×,2√所以为了均衡性能和训练时间,以后采用mini-batch。

2023-04-03 19:19:24 307

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除