深度学习
文章平均质量分 90
深度学习2021学习笔记
林书芹
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
TTS 中的文本前端
phoneme(音素):指最小的发音单元,为语音的最小单位grapheme(字素):为书面语言的最小书写单位ARPABET(也拼写为ARPAbet)是美国国防高级研究计划局(ARPA,其前身)作为语音理解项目(1971-1976 年)的一部分开发的语音字母。将通用美式英语中的音素和音位变体表示为不同的ASCII字符CMUDict(卡内基梅隆大学发音词典)是一个用于英语单词的发音字典,包含了大量英语词汇及其标准发音。原创 2025-02-15 10:21:43 · 1906 阅读 · 0 评论 -
A Recipe for Training Neural Networks 博客翻译
不需要总结,动手去做吧。翻译 2023-02-20 16:54:07 · 374 阅读 · 0 评论 -
A Review of Speaker Diarization- Recent Advances with Deep Learning 综述 ——简化&翻译
A Review of Speaker Diarization- Recent Advances with Deep Learning 综述 ——简化&翻译翻译 2022-11-10 22:57:14 · 1421 阅读 · 0 评论 -
torch 中的 stft、torchaudio 中的 Spectrogram、Melscale、MelSpectrogram 的使用
torch 中的 stft、torchaudio 中的 Spectrogram、Melscale、MelSpectrogram 的使用原创 2022-07-27 16:10:06 · 12859 阅读 · 1 评论 -
人群密度估计--论文阅读:DM-Count
DM-Count 论文阅读概述解析总结概述论文地址GitHub开源代码地址摘要在人群计数中,每个训练图像都包含多个人,每个人都用点标记。 现有的人群计数方法需要使用高斯平滑每个带注释的点或估计给定带注释点的每个像素的可能性。 在本文中,我们表明将高斯方法强加于注释会损害泛化性能。 相反,我们建议使用“分布匹配”进行人群计数(DM计数)。 在DM-Count中,我们使用最佳运输(OT)来测量归一化预测密度图和归一化地面真实密度图之间的相似度。 为了稳定OT计算,我们在模型中包括总变化损失。 我们证翻译 2020-12-11 19:34:26 · 4867 阅读 · 0 评论 -
OPENVINO入坑笔记1--linux上安装OPENVINO
openvino入坑安装笔记-基于官网教程官方教程地址安装准备安装openvino核心组件安装外部软件依赖设置环境变量==永久设置openvino环境变量(可选部分)==配置模型优化器运行验证脚本来验证安装参开资料系统版本:官方教程地址linux安装(推荐用linux安装,环境较windows干净很多,省不少事)windows安装(不推荐,个人安装过,由于电脑python版本很乱,一堆问题)本教程基于linux-ubuntu-18.04-LTS操作系统,openvino版本为目前最新的2021原创 2020-11-12 22:11:24 · 2778 阅读 · 1 评论 -
人群密度估计--论文阅读:CrowdNet
论文概述:CrowdNet论文地址:CrowdNet: A Deep Convolutional Network for Dense Crowd Counting官方源码:deep-crowd-counting这篇文章中,作者提出了一种新的基于深度学习的静态图像人群密度检测的网络框架。结合深层网络(deep network)和浅层网络(shallow network)预测给定图像的密度图。算法基于UCF_CC_50 数据集测试,取得了当时最好的结果。论文解析1. 背景检测人群拥挤和堵塞确定人翻译 2020-10-12 20:01:56 · 1802 阅读 · 0 评论 -
从贝叶斯分类到logistic regression
从贝叶斯分类到logistic regression笔者注:本文是台湾李宏毅教授机器学习第四章的学习笔记,其中大部分为数学推导。第四章主要讲分类问题。给定一个输入 xxx,目的是寻找一个function,使得当该function作用于 xxx 时,能够输出x所属的类别。问题描述我们首先考虑一个二分类问题,即 xxx 要么属于 class C1C_1C1,要么属于class C2C_2C2,设 PPP 表示概率,那么一个理所应当的分类效果为,把 xxx 分类到所属概率最大的那一类。用数学公式表示为原创 2021-10-12 15:51:53 · 285 阅读 · 0 评论 -
理解RNN和LSTM
理解RNN和LSTM 本文是台大李宏毅教授ML2020课程笔记。同时参考了其他博客。网上关于RNN和LSTM的blogs太多了,本文只是摘抄+笔记。1. RNN RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络。所谓序列,通常除了数据维度以外,还存在广义的时间维度,即序列是有顺序的,反应了数据随着时间的变化状态,例如,一串语音信号、一段文本或者一段视频都是序列。1.1 RNN结构 传统的前馈神经网络包含输入层、输出层和隐藏层,通过激活函数控制输原创 2021-10-18 11:34:26 · 869 阅读 · 0 评论 -
numpy常用函数
numpy模块常用函数及解析numpy作为python数据处理最常用的模块被广泛使用。本文总结了日常使用过程中numpy常用的函数及其用法(长期更新)。import numpy as np1. 数学运算1.1 取对数 np.log()对其中的每个元素取自然对数。numpy.log(x, /, out=None, *, where=True, casting='same_kind', order='K', dtype=None, subok=True[, signature, extobj])原创 2021-10-11 11:55:00 · 3473 阅读 · 0 评论 -
正则化(regulation)和归一化(normalization)
之前经常将正则化和归一化这两个概念搞错,特写此文,防止再次出错。1. 归一化(normalization)归一化的作用是去除数据的量纲,或者说将数据的value转换到同一个数量级或者限制在某一范围之内。1.1 max-min归一化即通过x所在的数据集的最大和最小值对x进行归一化:x′=x−xminxmax−xminx^{'}=\frac{x-x_{\min }}{x_{\max }-x_{\min }}x′=xmax−xminx−xmin其中,xminx_{\min }xmi原创 2021-10-07 16:58:45 · 4631 阅读 · 1 评论 -
理解 word2vec
本文是个人对 word2vec 的理解,同时参考了网上很多blogs,都列在References中了。注:文中数学公式,不加粗小写代表标量值,加粗小写代表向量,加粗大写代表矩阵。1. word2vec 简介Word2Vec是Google在2013 年开源的一个词向量(Word Embedding)计算工具,其用来解决单词的分布编码问题。它通过从大量文本预料中以无监督方式学习语义知识型,被广泛地应用于自然语言处理中。2. 什么是word embedding(词嵌入)我们知道,文本是一种非结构化的.原创 2021-10-25 20:19:13 · 721 阅读 · 0 评论
分享