
学习笔记
文章平均质量分 77
每个人都是孙笑川
颓废了十年的研一老狗
展开
-
【论文阅读】——Spons & Shields: Practical Isolation for Trusted Execution
对于云中部署安全敏感的应用来说,TEE提供了一个lift and shift的部署方式。TEE OS必须支持很多lib,TCB较大。将应用进行细粒度划分,可以提高安全性。在同一个TEE中运行所有的组件,并且内部不做任何多余的保护处理,缺乏足够的共享内存(感觉是因为TEE内存大小原因)使用不同TEE运行不同的进程,性能和兼容性较差,并且多个组件间的通信要使用加密解密等操作本文提供了Spons&Shields两个新的抽象概念?,在TEE中统一了进程、lib、usr/kernel隔离,并且支持内存共享。...原创 2022-08-29 10:18:23 · 1717 阅读 · 1 评论 -
【Coding】——SGXSDK_SampleEncalve
TrustedLibraryThread.cpp文件为调用Encalve中一些ECALL的接口函数,调用该函数即可调用对应的ECALL,global_eid在App.h中设置为全局变量,在这里添加上该头文件即可使用该变量EnclaveTrustedLibrary供外部调用的ECALL函数的实现,要实现线程功能,需要在edl中引入一些函数,在开发文档中有相应描述edl文件中引入对应的可信sgx接口函数Include用户自定义的类型,在这里进行包含,直接在enclave.edl中进行引入即原创 2022-06-01 20:06:34 · 454 阅读 · 0 评论 -
【论文阅读】——secureTF: A Secure TensorFlow Framework
secureTF: A Secure TensorFlow Framework作者:Do Le Quoc, Franz Gregor, Sergei Arnautov,Roland Kunkel,Pramod Bhatotia,Christof Fetzer来源:Middleware有状态应用:A stateful app is a program that saves client data from the activities of one session for use in the next原创 2022-04-10 22:04:33 · 4822 阅读 · 0 评论 -
【论文阅读】VIT——AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE
AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE本文的工作非常简单,架构也是很Simple的,利用Transformer中的Encoder来做图像工作,将图像分成N个PXP的patch,拉长之后通过Linear将所得序列pad到固定长度,之后添加相应的position encoding ,并在这些patch序列之前添加一个pos为0的信息,当做最后的分类向原创 2022-03-14 12:01:12 · 1947 阅读 · 1 评论 -
【论文阅读】Transformer——Attention Is All You Need
文章目录论文阅读模型架构代码合集utils.pymodel.pytrain.pytest.py论文阅读因为本人算是半个CV人,没有NLP的基础,这篇文章和代码也只是浅尝辄止,下载了大佬的代码跑了跑,看了看model中文件就结束了,有错误希望指出感谢知乎上的一个大神知乎大神代码链接Attention Is All You Need原文地址文章提出了一个简单的架构Transformer,没有使用RNN和卷积,只是使用了注意力机制,可以并行计算,训练时间很短。model architecture:原创 2022-03-09 19:54:22 · 479 阅读 · 0 评论 -
【论文阅读】EfficientNet——EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
文章目录论文阅读MBConv结构代码实现modeltrainpredict实验结果论文阅读感谢p导EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks本文主要工作是提出了一个在三个维度上(图像分辨率R、网络深度D、channel的宽度W)的合理scale方法。在之前的一些论文中,基本都是通过改变上述3个参数中的一个来提升网络的性能。通过增加网络深度,例如block的堆叠;增加网络宽度,增加每层feature原创 2022-03-06 19:51:05 · 1428 阅读 · 0 评论 -
关于Class继承nn.Module和nn.Sequential的区别
不是很清楚这两个有什么区别,最近写shufflenet时候试着写了一下发现三种写法,都是可以正常运行的,在Sequential中他写了相应的forward函数,我们如果不需要重写的话,就可以只写相应的层,不去重写对应的forward函数,感觉这可能是他的一个区别?下面的三种写法class conv3x3(nn.Sequential): def __init__(self, in_channel, stride, bias=False): super(conv3x3, self)原创 2022-03-06 09:38:03 · 1246 阅读 · 3 评论 -
【论文阅读】ShuffleNet——ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices文章中提出了一个非常有效的Architecture——ShuffleNet,主要使用两种操作,分组PW卷积和通道重排,在保证准确率的情况下降低了计算代价之前提出的模型,Xception和ResNeXt因为其中大量的Pw操作使得计算代价挺高,无法实现小型模型原创 2022-03-04 17:23:07 · 3947 阅读 · 2 评论 -
【论文阅读】MobileNet V2——MobileNetV2: Inverted Residuals and Linear Bottlenecks
文章目录论文阅读代码实现modeltrainpredict实验结果论文阅读感谢p导论文链接:MobileNetV2: Inverted Residuals and Linear Bottlenecks主要亮点是提出了带线性瓶颈层的倒残差结构回顾MobileNet V1,主要是将普通Conv转换为dw和pw,但是在dw中训练出来可能会很多0,也就是depthwise部分得到卷积核会废掉,即卷积核参数大部分为0,因为权重数量可能过少,再加上Relu激活函数的原因V2为了解决这方面的问题,提出去掉在低原创 2022-02-18 18:01:58 · 2189 阅读 · 0 评论 -
【论文阅读】MobileNet ——MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications
文章目录论文阅读代码实现modeltrainpredict实验结果论文阅读感谢p导论文链接:MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications主要亮点有两个:1、Depthwise separable convlution(a depthwise convolution and a 1*1 convolution) replace standard convolution2、添加了两个原创 2022-01-30 13:29:23 · 3136 阅读 · 0 评论 -
【论文阅读】ResNeXt——Aggregated Residual Transformations for Deep Neural Networks
文章目录论文阅读代码实现modeltrainpredict实验结果论文阅读感谢p导Aggregated Residual Transformations for Deep Neural Networks依旧是何凯明大神的论文,只不过这个里面何凯明大神是2作创新点目测只有一个:就是更新了ResNet中的bottleneck的残差块,将残差网络与分组卷积相结合一种高度模块化的网络结构,提出来一个新的维度,叫做cardinality,也就是卷积的分组个数。使用的是VGG中的策略。split-tr原创 2022-01-29 17:40:40 · 1308 阅读 · 0 评论 -
【论文阅读】ResNet——Deep Residual Learning for Image Recognition
文章目录论文阅读模型图示代码实现modeltrainpredictbatch_predict实验结果论文阅读感谢p导有错误希望可以指正论文中提出了残差思想、两种残差块随着AlexNet出现之后,大家都开始来堆叠网络VGG得到的结果表明深度会提高准确率之后在加深过程中碰到了一系列问题,梯度消失和梯度爆炸,GoogLeNet中为了解决这个问题导致的浅层部分训练不到添加了两个辅助分类器来计算loss,可以使用BN来进行解决。另外一个问题就是退化,这个问题不是由过拟合导致的,因为在训练集和测原创 2022-01-14 13:33:52 · 1853 阅读 · 0 评论 -
【改bug】——OSError: [WinError 1455] 页面文件太小,无法完成操作。………………
今天在跑之前的代码时候出了一个bugOSError: [WinError 1455] 页面文件太小,无法完成操作。 Error loading “D:\Python\lib\site-packages\torch\lib\caffe2_detectron_ops_gpu.dll” or one of its dependencies.之前我没有设置num_workers这个参数,这次设置了num_workers=8之后就报错了搜了一下,windows设置num_workers确实可能会报错改回去原创 2022-01-14 13:30:44 · 738 阅读 · 0 评论 -
【论文阅读】GoogLeNet——Going Deeper with Convolutions
文章目录论文阅读模型图示代码实现modeltrainpredict实验结果过的值nn.ReLU(inplace=True)其中inplace代表是否进行覆盖操作,降低内存使用量...原创 2021-11-20 21:50:58 · 2423 阅读 · 0 评论 -
【论文阅读】Lenet
使用的数据集为CIFAR10Lenet很简单,就没去看论文模型图示代码实现model.pyfrom torch import nnimport torch.nn.functional as F class LeNet(nn.Module): def __init__(self): super(LeNet,self).__init__() self.conv1=nn.Conv2d(in_channels=3,out_c原创 2021-11-19 20:04:50 · 797 阅读 · 0 评论 -
pytorch学习笔记
文章目录datasetdataloaderTensorboardTransform神经网络的骨架常用函数Conv2dpoolnn.Relunn.Sigmoidnn.Linearflattendropoutnn.BatchNorm2d损失函数、反向传播、优化器模型的保存和加载使用GPu训练哔哩哔哩小土堆视频datasetfrom torch.utils.data import Datasetclass MyData(Dataset):#这个类继承Dataset,在init中可以做获取数据的操作,必须原创 2021-11-18 21:11:44 · 1954 阅读 · 0 评论 -
吴恩达深度学习L2W1——神经网络权重初始化方法、正则化
文章目录神经网络的初始化初始化数据模型搭建简单函数零初始化——initialize_parameters_zeros随机初始化——initialize_parameters_randomHe初始化三种初始化结果对比在神经网络中使用正则化导入数据模型搭建非正则化模型L2正则化dropout三种模型的对比神经网络的初始化主要是看权重的不同初始化方法的影响导包import numpy as npimport matplotlib.pyplot as pltimport sklearnimport s原创 2021-10-15 11:37:29 · 1230 阅读 · 4 评论 -
吴恩达深度学习L1W4——实现具有2层和L层的分类神经网络
文章目录一些笔记写作业导入常用的包,构建简单函数构建一个用于图像分类的深度神经网络一些笔记写作业导入常用的包,构建简单函数import numpy as npimport h5pyimport matplotlib.pyplot as pltfrom dnn_app_utils_v2 import *%matplotlib inline%load_ext autoreload%autoreload 2np.random.seed(1)plt.rcParams['figure.原创 2021-10-12 18:06:57 · 1304 阅读 · 4 评论 -
吴恩达深度学习L1W3——实现具有单个隐藏层的分类神经网络
文章目录一些笔记写作业获取数据测试逻辑回归能否实现该分类使用的神经网络模型定义神经网络结构初始化模型参数循环梯度下降将上述函数集成到model中通过上述模型来预测结果调整隐藏层的大小看结果aaa实现具有单个隐藏层的2分类神经网络使用具有非线性激活函数的神经元,例如tanh一些笔记写作业导入常用的包和老师提供的工具集import numpy as npimport sklearnimport matplotlib.pyplot as pltfrom planar_utils import原创 2021-10-10 21:43:39 · 758 阅读 · 0 评论 -
吴恩达深度学习L1W2——实现简单逻辑回归
文章目录一些笔记写作业导入数据取出训练集、测试集处理数据的维度标准化数据sigmoid 函数初始化参数w、b前向传播、代价函数、梯度下降优化预测函数模型整合使用模型绘制代价曲线单个样本测试不同alpha的比较预测新图根据笔记中的公式进行构造函数,之后使用模型进行预测一些笔记写作业导入数据import h5pyimport numpy as np# 训练集、测试集train_data = h5py.File('./train_catvnoncat.h5', "r")test_data原创 2021-10-09 11:56:30 · 742 阅读 · 1 评论 -
吴恩达机器学习ex2
文章目录逻辑回归-线性可分基础知识实验要求数据可视化构造数据集构造损失函数梯度下降函数准确率绘制决策边界逻辑回归-线性不可分知识点案例介绍数据可视化特征映射构造数据集正则化损失函数梯度下降函数准确率数据可视化逻辑回归-线性可分基础知识线性可分指的是多变量的情况下,可以用直线将两种类别进行划分这样我们可以对该模型的函数做出如下假设,由于该分类需要将结果分为0和1,如果还是与上次实验一样使用h=theta@X的话,结果的取值会有不落在0-1之中的。所以添加了一个激活函数sigmoid函数,将theta原创 2021-09-24 10:40:06 · 678 阅读 · 0 评论 -
LeetCode-1
两数之和给定一个整数数组 nums 和一个整数目标值 target,请你在该数组中找出 和为目标值 的那 两个 整数,并返回它们的数组下标。你可以假设每种输入只会对应一个答案。但是,数组中同一个元素在答案里不能重复出现。你可以按任意顺序返回答案。我的题解:两层循环遍历寻找对应答案,找到之后返回class Solution {public: vector<int> twoSum(vector<int>& nums, int target) { .原创 2021-04-14 19:18:44 · 208 阅读 · 1 评论