- 博客(24)
- 收藏
- 关注
原创 du -sh cailingling 很久都不出结果
同时 rm cp 也很慢,可能是由于同样的原因导致的,或者是由于系统负载过高,CPU 或内存资源不足,导致命令执行缓慢。
2023-07-27 16:33:46
1575
原创 用Diffusion做超分
https://blog.youkuaiyun.com/BAAIBeijing/article/details/128030480.(2) SR3:Image Super-Resolution via Iterative Refinement - 知乎. https://zhuanlan.zhihu.com/p/444218616.(1) Diffusion Models专栏文章汇总:入门与实战 - 知乎. https://zhuanlan.zhihu.com/p/566059899.
2023-07-24 10:58:35
4676
原创 Attention中的query,key和value
(4) 作って理解する Transformer / Attention - Qiita. https://qiita.com/halhorn/items/c91497522be27bde17ce.(3) Transformer 1. Attention中的Q,K,V是什么 - 知乎. https://zhuanlan.zhihu.com/p/441459022.
2023-07-21 14:36:15
3646
原创 PCA主成分分析及其数学证明
PCA主成分分析是一种数据降维的方法,它的目的是找到一组新的正交基,使得数据在这组基上的投影能够最大化方差,从而保留数据的主要信息。,使得样本在这个坐标轴上的投影能够最大化方差,从而保留数据的主要信息。,它能够最大化数据的投影方差。好的,我可以给你一个具体的例子来帮助你理解主成分分析的数学推导³。我们的目标是将这些样本从二维降维到一维,即找到一个新的坐标轴。的特征值和特征向量,然后选择最大的特征值对应的特征向量作为。会导致不同的投影方差,我们想要找到一个最优的。这样,我们就得到了最优的坐标轴。
2023-07-20 17:48:51
952
原创 torch.hub.download_url_to_file 如何修改默认的安装地址
torch.hub.download_url_to_file是一个内部函数,用于从给定的URL下载Torch序列化对象,并保存到缓存目录中。hub.set_dir()是一个torch.hub模块中的函数,用于设置缓存目录的路径。您可以在您的代码中调用这个函数,传入您想要的缓存目录,例如。除了使用hub.set_dir()函数,您还可以通过设置环境变量来修改缓存目录的路径。
2023-07-20 09:27:57
639
原创 import tensorflow出现了问题:Descriptors cannot be created directly
import tensorflow出现了问题:Descriptors cannot be created directly的原因可能是您使用的protobuf包的版本过高,与tensorflow或其他包不兼容¹²³。
2023-07-19 15:50:21
3310
3
原创 numpy1.19.5对应其他pkg版本
请注意,这些版本可能不是唯一的兼容版本,也可能存在其他的依赖关系。您可以使用conda或pip来安装或更新这些包,并指定您需要的版本。
2023-07-19 15:08:46
10780
6
原创 Tensorboard, tensorflow-estimator, tensorflow-gpu的关系
tensorboard是一个用于可视化tensorflow训练过程的工具,它可以显示模型的图结构、各种指标的变化曲线、权重的分布直方图等,帮助您分析和调试模型的性能和行为。 tensor-estimator是一个高级的tensorflow API,它可以封装训练、评估、预测和部署模型的常用操作,简化您的编程流程。tensorflow提供了一些预定义的estimator,如DNNClassifier、LinearRegressor等,也允许您自定义estimator。 tensorflow-gpu是一
2023-07-19 14:41:23
510
1
原创 如何安装python_speech_features
python_speech_features是一个用于提取语音特征的库,它支持MFCCs和滤波器组能量等常用特征。 如果您想要下载python_speech_features,您可以使用pip命令,例如: pip install python_speech_features #从pypi安装 pip install git+https://github.com/jameslyons/python_speech_features #从github安装 在安装python_speech_fea
2023-07-19 14:23:45
900
1
原创 如何查看当前工作目录
当前工作目录是指在执行python脚本或操作文件时所处的位置,它可以是绝对路径或相对路径。 如果您想要用python打印当前工作目录,您可以使用os模块中的一些方法,例如: import os print(os.getcwd()) #获取当前工作目录路径 print(os.path.abspath(‘.’)) #获取当前文件目录路径 print(os.path.abspath(‘…’)) #获取当前文件目录的父目录 print(os.path.abspath(os.curdir))
2023-07-19 14:22:53
357
1
原创 conda install vs pip install
conda install 和pip install的区别主要有以下几点:哪些情况下只能用conda install呢?一般来说,如果你需要安装非Python的软件包,或者需要管理不同版本的Python,或者需要解决复杂的依赖关系,那么你只能用conda install。如果你需要安装PyPI上没有的Python包,或者需要在conda环境中安装Anaconda repo和Cloud上没有的Python包,那么你也可以用conda install。1234
2023-07-18 14:55:23
1679
1
原创 BCE Loss vs CE Loss
上图可见,损失对网络输出的偏导数正比于S(x)-y ,当sigmoid之后的结果和真值y差的比较多的时候,梯度大,修正的更快。反之,CE Loss的值越大,表示预测概率越远离真实类别,分类效果越差。Softmax的一阶导数是指对Softmax函数求偏导数,得到一个Jacobian矩阵,表示每个输出对每个输入的偏导数。CE Loss是交叉熵损失函数的简称,它是一种常用的分类问题的损失函数,它衡量的是真实类别和预测概率之间的差异。(1)Target是one-hot形式,如[0,1,0,0]
2023-07-16 12:26:25
1644
1
原创 BiDet代码解析3:正则化损失(Regularization Loss,RL)
具体来说,这段代码的作用是计算每个特征图的平方均值,然后对所有特征图求和,再乘以一个正则化系数。这样做的好处是可以惩罚特征图中的非零元素,鼓励特征图中的元素趋向于0或1¹。这样可以提高二值化网络的压缩率和加速比¹。这段代码中,f_num是特征图的数量,loss_r是正则化损失,f_m是每个特征图,REGULARIZATION_LOSS_WEIGHT是正则化系数。RL的目的是在训练过程中增加特征图的稀疏性,从而减少二值化网络的计算量和内存占用。这段代码是BiDet算法中的最后一个重要部分,它实现了。
2023-07-10 15:53:18
286
1
原创 BiDet代码解析2:先验损失(Prior Loss,PL)
all_dets是每个批次每个类别的检测结果,all_mask是用来过滤掉得分为0的检测结果的掩码。dets是根据掩码选择出来的有效检测结果,scores是检测结果中的得分部分,scores_sum是得分之和,log_scores是得分的对数。loss_p是先验损失,它等于所有批次所有类别的负对数得分之和除以真实目标数量之和。具体来说,这段代码的作用是计算每个类别的预测得分和真实标签之间的交叉熵损失,然后对每个类别进行归一化,使得每个类别的损失与其真实目标数量成反比。(Prior Loss,PL)的功能。
2023-07-10 15:26:42
316
1
原创 BiDet代码解析1:随机采样定位(Stochastic Sampling Localization,SSL)
sample_loc_data和loc_data的区别是,sample_loc_data是从预测的均值和方差中随机采样出来的一个定位数据,而loc_data是原始的定位数据,它包含了预测的方差和均值。这段代码中,normal_dist是一个标准正态分布,log_sigma_2是预测的方差的对数,miu是预测的均值,sigma是预测的方差的平方根,args.sigma是一个超参数,用来控制采样范围。loc_data是将sample_loc_data赋值给原始的定位数据。具体来说,这段代码的作用是从。
2023-07-10 15:16:18
206
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人