
总结
阿劲要努力
b站同名
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
RabbitMQ 在windows下部署踩坑
前面三步网上大同小异,可以直接用第一步:下载并安装erlang第二步:配置erl环境变量第三步:下载安装rabbitmq第四步:(有坑)(1)首先打开命令行 cmd,这里需要用管理员运行cmd;(2)命令行输入rabbitmq-plugins enable rabbitmq_management安装插件(3)命令行检验是否安装成功 输入 rabbitmqctl status 这里是我个人电脑是用了中文用户名所以会出现以下错误:Stack trace: ** (Argum..原创 2021-09-18 16:26:37 · 140 阅读 · 0 评论 -
2021.7.22 腾讯电话面试(突然被捞,应该是秋招)
无语... 突然被通知电话面试,前两天忙死了,完全没准备,直接面试了。不过感觉CSIG事业群怪怪的,没问我项目,没问我基础,都是场景题... 完全没收获...(可能是因为这个事业群的技术栈是python,然后我一开头说自己用java比较多)提醒:CSIG事业群后台开发最好还是要有python开发经验的,我只在简历上有一句“熟练使用python语言数据预处理”(我研究生是深度学习方向的)1. 问我怎么用python处理文本数据2. linux的内容(查进程命令是什么呀?ps -ef ) ..原创 2021-07-22 20:24:14 · 685 阅读 · 0 评论 -
2021唯品会JAVA后台开发暑假实习(一面)
Java基础(1)JVM内存模型(还问了负GC?没听懂是什么... )(2)int和Integer的区别原创 2021-06-15 20:40:05 · 1417 阅读 · 3 评论 -
torch_geometric CPU版本错误 总结
假如你想安装 torch_geometric CPU版本,然后出现这个警告:RuntimeError: Detected that PyTorch and torch_sparse were compiled with different CUDA versions. PyTorch has CUDA version 10.1 and torch_sparse has CUDA version 0.0. Please reinstall the torch_sparse that matches you原创 2020-11-10 10:27:20 · 1304 阅读 · 1 评论 -
【自然语言处理】| LSTM 长短期记忆 long short-term memory
LSTM长短期记忆long short-term memory:遗忘门:控制上一时间步的记忆细胞 输入门:控制当前时间步的输入输出门:控制从记忆细胞到隐藏状态记忆细胞:⼀种特殊的隐藏状态的信息的流动...原创 2020-03-24 19:47:46 · 548 阅读 · 0 评论 -
【自然语言处理】| 门控循环神经⽹络 GRU
RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT),裁剪梯度只能缓解梯度爆炸,无法缓解梯度消失的问题。进而提出,⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系推导公式 :• 重置⻔有助于捕捉时间序列⾥短期的依赖关系;• 更新⻔有助于捕捉时间序列⾥⻓期的依赖关系。...原创 2020-03-12 14:00:15 · 232 阅读 · 0 评论 -
【自然语言处理】循环神经网络 | RNN
循环神经网络基于循环神经网络实现语言模型:我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量 H,用 H_t 表示 H 在时间步 t 的值。H_t 计算基于 X_t 和 H_t−1,可以认为H_t记录了到当前字符为止的序列信息,利用H_t对序列的下一个字符进行预测。循环神经网络的构造假设是时间步t的小批量输入,是该时间步的隐藏变量,则:...原创 2020-03-11 22:35:50 · 390 阅读 · 0 评论 -
语言模型 language model
时序数据的采样在训练中我们需要每次随机读取小批量样本和标签。与之前章节的实验数据不同的是,时序数据的一个样本通常包含连续的字符。假设时间步数为5,样本序列为5个字符,即“想”“要”“有”“直”“升”。该样本的标签序列为这些字符分别在训练集中的下一个字符,即“要”“有”“直”“升”“机”,即X=“想要有直升”,Y=“要有直升机”。现在我们考虑序列“想要有直升机,想要和你飞到宇宙去”,如果时间...原创 2020-03-11 08:49:21 · 354 阅读 · 0 评论 -
【卷积神经网络】| ResNet
残差网络(ResNet)深度学习的问题:深度CNN网络达到一定深度后再一味地增加层数并不能带来进一步地分类性能提高,反而会招致网络收敛变得更慢,准确率也变得更差。残差块(Residual Block)恒等映射:左边:f(x)=x右边:f(x)-x=0 (易于捕捉恒等映射的细微波动)在残差块中,输⼊可通过跨层的数据线路更快 地向前传播。ResNet模型1. 卷积 co...原创 2020-03-07 23:22:10 · 375 阅读 · 0 评论 -
批量归一化
批量归一化(Batch Normalization)对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近。批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。(1)全连接层的批量归一化位置:全连接层中的仿射变换和激活函数之间。 ...原创 2020-03-07 13:52:12 · 236 阅读 · 0 评论 -
【卷积神经网络】| NiN网络 GoogLeNet
⽹络中的⽹络(NiN)LeNet、AlexNet和VGG:先以由卷积层构成的模块充分抽取 空间特征,再以由全连接层构成的模块来输出分类结果。NiN:串联多个由卷积层和“全连接”层构成的小⽹络来构建⼀个深层⽹络。⽤了输出通道数等于标签类别数的NiN块,然后使⽤全局平均池化层对每个通道中所有元素求平均并直接⽤于分类。1×1卷积核作用1.放缩通道数:通过控制卷积核的数量达到通道数的放缩...原创 2020-03-06 22:06:59 · 432 阅读 · 0 评论 -
【卷积神经网络】| AlexNet 、 VGG
研究背景LeNet: 在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数。神经网络的特征提取:通过学习得到数据的多级表征(边缘--> 花纹,轮廓---> 物品),并逐级表⽰越来越抽象的概念或模式。开启了深度卷积神经网络时代——AlexNet:首次证明学习...原创 2020-03-06 14:44:36 · 279 阅读 · 0 评论 -
【卷积神经网络】 | LeNet
使用全连接层的局限性:图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。使用卷积层的优势:卷积层保留输入形状。 卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。LeNet卷积层块里的基本单位是卷积层后接平均池化层:卷积层用来识别图像里的空间模式,如线条和...原创 2020-03-05 00:16:01 · 382 阅读 · 0 评论 -
【卷积神经网络】| 学习回顾
名词解释:二维互相关运算:二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。卷积运算:将核数组上下翻转、左右翻转...原创 2020-03-04 16:47:51 · 274 阅读 · 0 评论 -
【线性回归】【Softmax】 | 学习回顾
首先这次学习的机会是boyuai的一次公益AI学习活动,在此对平台的感谢,也希望疫情可以赶快结束,武汉加油,中国加油!线性回归原创 2020-02-14 17:45:57 · 228 阅读 · 0 评论 -
2016年技术学习总结+2017年技术学习计划
2016年技术学习总结+2017年技术学习计划原创 2016-12-31 17:58:32 · 571 阅读 · 0 评论