
深度学习
代码随想随记
211本硕,人工智能方向,前A应用算法专家,发明专利十余项,目前致力于大模型和RAG方向。
懂点工程,会点算法,
如有机器学习/深度学习/大模型/RAG等方向朋友可以一起探讨。
展开
-
【图机器学习系列】(一)图机器学习简介
图机器学习系列原创 2024-08-12 11:27:32 · 841 阅读 · 0 评论 -
torch torchivision版本对应关系
torch torchvision 对应关系原创 2023-01-17 17:35:32 · 310 阅读 · 0 评论 -
Transformers ‘BertTokenizer‘ object is not callable
transformer安装指南原创 2023-01-17 12:56:13 · 795 阅读 · 0 评论 -
朱晨光-机器阅读理解:算法与实践读书笔记《第2章 自然语言处理基础》
朱晨光-机器阅读理解:算法与实践读书笔记《第2章 自然语言处理基础》文本分词文本分词基本概要分词方法字节对编码BPEBPE的基本原理本文章主要以文本分词为入口,介绍词向量、命名实体与词性标注、语言模型等三大块内容。首先,我们看下文本分词文本分词文本分词基本概要文本分词是自然语言处理中的一项基础但是很重要的任务。我们从分词的任务、挑战来进行介绍。文本分词任务文本分词挑战将文本以单词为基本单元进行划分单词歧义如何解决歧义呢?有许多算法被提出来用以解决这个问题,分别从中文分原创 2020-05-19 21:09:42 · 695 阅读 · 0 评论 -
tensorboard 查看loss损失
深度学习在训练中loss损失具体如何变化的,怎么在web端能够查看呢?tensorflow官网给了我们一个工具,这个工具叫tensorboard,执行如下命令:tensorboard --logdir=/log --port=8008其中,/log是指代码中的log日志保存目录,8008是指端口号。那么就可以在web端查看loss变化:ip:8008...原创 2020-05-15 11:45:54 · 3457 阅读 · 0 评论 -
cv2.findContours 返回错误:too many values to unpack (expected 2)
今天在使用cv2.findContours报错:too many values to unpack (expected 2)返回是两个数值啊,但是,不同cv2版本的cv2.findContours返回值不一样,有返回三个数值的,第一个参数为原来的图像。。。即在cv2.findContours的返回值的第一项添加image返回参数。即:将 tcl_contours, _ = cv2.fi...原创 2020-04-27 16:44:03 · 1137 阅读 · 0 评论 -
RuntimeError: CUDA error: initialization error 如何
今天在跑代码时出现了error:RuntimeError: CUDA error: initialization errorcuda初始化出问题了,这是因为在python多线程跑gpu代码程序时先对cuda进行操作,然后在跑gpu代码时就没有cuda可用了。在main的主程序代码加一行代码就可以了,用来获取cuda,在代码中只能使用一次:import multiprocessing as...原创 2020-04-27 14:16:30 · 14786 阅读 · 10 评论 -
李航统计学习方法(第二版)第二章 感知机学习笔记【理论篇】
感知机感知机的定义感知机的数学表达式感知机的几何意义感知机的目标函数数据集线性可分目标函数推导感知机的优化方法感知机的定义感知机是二分类线性分类模型,输入为实例的特征,输出为实例类别,实例类别取+1和-1。感知机是属于判别模型,因为其求出分离超平面直接将输入实例划分为正例和负例。感知机的数学表达式感知机的数学表达式可以由下列式子进行表达:f=sign(w⋅x+b)f=sign(w·x+b...原创 2019-09-06 10:49:40 · 793 阅读 · 0 评论 -
CS231n课程系列第二章 图像分类【今晚补充】
图像分类k-最近邻算法线性分类k-最近邻算法线性分类原创 2019-07-22 20:57:37 · 148 阅读 · 0 评论 -
CS230(DeepLearning)Leture2的学习笔记(2)之深度学习
CS230_Leture2的学习笔记2之深度学习 我们先来回顾下第二章的学习目标: 而对于第二章Week1的学习目标已经完成,具体学习内容参考博主另一篇博客,站内搜索 CS230(DeepLearning)Leture2的学习笔记...原创 2019-04-11 22:29:19 · 417 阅读 · 0 评论 -
CS230(DeepLearning)Leture2的学习笔记(1)之深度学习简介
CS230_Lecture2的学习笔记_1[Leture2_1](http://cs230.stanford.edu/files/C1M1.pdf)Leture2_1 本节讲义主要是针对深度学习做基础的知识铺垫。第二章第一部分讲义请点击此处。第二章所需要达到的学习目标用下图表示。 &nb...原创 2019-04-11 22:00:12 · 257 阅读 · 0 评论 -
CS230(DeepLearning)Leture1的学习笔记
CS230深度学习课程学习笔记Lecture1Lecture1 CS230第一讲的讲义请点击此处.做笔记以做备忘. 整个CS230课程上分为5个单元, 分别是:课程章节课程名称第一章神经网络和深度学习...原创 2019-04-11 21:34:44 · 1068 阅读 · 0 评论 -
CS231-2019课程系列笔记【持续更新ing】
CS231课程学习笔记原创 2019-04-11 20:43:07 · 2006 阅读 · 1 评论 -
CNN原理理解及tensorflow实现(调包和不调包)(一)闲谈神经网络【20181015待更新】
Ref:1、https://blog.youkuaiyun.com/luanpeng825485697/article/details/790092232、原创 2018-10-15 23:12:30 · 1740 阅读 · 0 评论 -
Udacity深度学习之保存和读取tensorflow模型
保存和读取 TensorFlow 模型保存变量加载变量训练一个模型并保存它的权重加载训练好的模型训练一个模型的时间很长。但是你一旦关闭了 TensorFlow session,你所有训练的权重和偏置项都丢失了。如果你计划在之后重新使用这个模型,你需要重新训练!幸运的是,TensorFlow 可以让你通过一个叫 tf.train.Saver 的类把你的进程保存下来。这个类可以把任何 tf.Var...原创 2018-11-27 21:25:34 · 691 阅读 · 0 评论 -
话谈tensorflow常见函数truncated_normal与random_normal 联系区别
tf.truncated_normal和random_normal都可以生成符合正态分布的数据,对于前者,对于生成超过标准差2倍的数据会丢弃,后者就按指定标准差生成数据就好。for example:>>> c = tf.truncated_normal(shape=[2, 2], mean=0, stddev=1)>>> with tf.Session()...原创 2018-11-30 21:50:32 · 2516 阅读 · 0 评论 -
Udacity深度学习之Dropout
DropoutDropout含义练习练习1练习2Dropout含义 droupout在深度学习中用来防止过拟合,机器学习过拟合现象究竟是什么呢?具体可以可以周志华老师机器学习西瓜书(第二章)——模型评估与选择,同时解释为什么L1可以做特征选择,其系数为0(L2正则类似)来说。用一张图来表示就是:Dropou...原创 2019-01-10 21:59:59 · 1412 阅读 · 0 评论 -
一文详细理解卷积神经网络各个层的作用
卷积神经网络在图像的通道上大行其道,我们详细深入了解下卷积神经网络各个层的详细作用及其为什么会有这个作用。如果大家对卷积神经网络不是很熟悉,我们可以先看看CNN概念解释1、CNN概念解释2、加载tensorflow模型等等。(有时间我整理出一个CNN博客列表。。。。)Ref:1、卷积层2、激活层3、池化层...原创 2019-01-17 14:33:01 · 23223 阅读 · 0 评论 -
Udacity深度学习之卷积神经网络(CNN)
卷积神经网络卷积网络定义卷积网络定义       Ref:1、A Beginner’s Guide To Understanding Convolutional Neural Networks2、Implementing a CNN for Text Classification in TensorFlow3、卷积神原创 2019-01-11 22:55:54 · 1992 阅读 · 2 评论 -
CS231n课程系列第一章
Ref:1、CS231n原创 2019-01-12 20:04:40 · 550 阅读 · 0 评论 -
Udacity深度学习之卷积神经网络概念解析
一文卷积神经网络参数解释`patch`和`filter`实例说明trideFilter Depth一提到卷积神经网络,有些概念我们需要解析一下,要不然一说卷积神经网络可能会发懵。patch和filter 第一次听到patch,这是个啥?我们先看一下斯坦福大学对卷积核的一个动态介绍[1],这里直接弄一个图,动态图...原创 2019-01-12 22:38:34 · 1880 阅读 · 0 评论 -
Udacity深度学习之卷积神经网络概念进阶高阶练习、可视化及其对应代码输出(加上一文详细理解卷积神经网络各个层的作用博客,正在写)
卷积神经网络练习卷积输出维度的理解problemansweranalysis卷积参数共享的理解problem设置输出层问题及解答问题1:无共享参数的卷积层参数个数提示1question1answer1analysis1问题2:有共享参数的卷积层参数个数提示2question2answer2analysis2卷积神经网络可视化卷积输出维度的理解卷积神经网络中,我们都知道一个输入后都会有一个卷积层...原创 2019-01-14 09:52:51 · 650 阅读 · 0 评论 -
梯度下降如何跳过局部最优(深度学习各种优化方法详解)【持续更新】
梯度下降是很多机器学习算法中都要用到梯度下降法,是一个优化利器。但梯度下降本质上是一个贪心算法,容易陷入局部最有。本文参考文献[1]的Momentum方法帮助梯度下降法跳出局部最优解。 各种优化方法见[2]详解。 ———————-我是优雅分割线,先洗洗睡了—————–Ref: 1、http://ruder.io/optimizing-gradient-descent/inde...原创 2018-09-16 23:26:13 · 20980 阅读 · 0 评论