- 博客(7)
- 收藏
- 关注
原创 E: Could not get lock /var/lib/dpkg/lock - open (11: Resource temporarily unavailable)
安装软件冲突了但是想杀死其他apt-get的进程发现找不到没有找到相关的,即使有杀掉了还是不行ps aux | grep apt-getsudo rm -rf /var/lib/dpkg/lock直接完全删掉就可以啦
2022-05-18 19:55:24
362
原创 Ubuntu Err:1 http://us.archive.ubuntu.com/ubuntu bionic InRelease Could not resolve ‘us.archive.ubun
can't fetch的问题需要设置网络的域名解析系统DNSsudo gedit /etc/resolv.conf把nameserver从原来的127.0.0.1修改成8.8.8.8nameserver 8.8.8.8看了很多教程都是这样的,但是我这里就没用最后还需要一个重启网络,更新网络配置!!!!/etc/init.d/networking restart就好了!...
2022-05-17 11:05:04
4210
原创 ubuntu18.04安装CUDA
ubuntu18.04安装CUDA10.0我为什么要安装CUDA呢?因为跑很多深度学习项目的时候都会有device=“cuda:0”CUDA(Compute Unified Device Architecture)是一种用于GPU并行计算框架,用了这个架构就可以把深度学习东西移到GPU上去跑,跑的更快。只有NVIDIA的显卡才能用这个框架,AMD的是用不了的。为什么要安装CUDA10.0?在做项目的时候我希望有一个py27的环境,因为只有python2才能兼容好ROS系统,试过python3可以发
2021-01-21 16:07:58
965
转载 rosdep init ROS安装问题解决方案
这里rosdep init ROS安装问题解决方案写自定义目录标题https://www.guyuehome.com/12640有用
2021-01-16 18:29:51
204
原创 Pytorch如何定义学习率衰减
@[TOC]pytorch如何定义学习率衰减优化器的种类简单的优化器优化器的原理其实都是梯度下降,简单的梯度下降法中有标准梯度下降(GD)、批量梯度下降(BGD)、随机梯度下降(SGD)。这三种都是比较简单的梯度下降方法,听名字就可以知道啦,标准梯度下降是每一个样本算一次梯度、批量梯度下降是每一批算一下平均梯度、随机梯度下降是每一批中随机选取一个梯度。这三种都是需要自己去定义学习率的。其中用的较多的是随机梯度下降(SGD)pytorch中用法是,optim.SGD动量优化的方法使用动量的SGD,
2020-12-29 15:40:36
705
原创 pytorch制作自己的数据集
pytorch制作自己的数据集datasets的Imagefolder模块文件格式如图transformer = transforms.Compose([transforms.Resize([224,224]), transforms.ToTensor()])trainsets = datasets.ImageFolder('./train_dataset',transformer)testset
2020-09-09 10:18:50
1097
4
原创 pytorch修改预训练的网络的输出
pytorch修改预训练的网络的输出pytorch下载预训练的网络torchvision模块里有提供models模块可以下载欲训练的网络from torchvision import modelsnet = models.resnet18(pretrained = True)修改网络的最后一层num_fc_ftr = net.fc.in_features这句是get到网络的最后一层数,原来的resnet18是1000输出,这里改成我需要的3个输出net.fc = torch.nn.Lin
2020-09-09 10:09:26
703
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人