- 博客(14)
- 资源 (9)
- 收藏
- 关注
原创 S32K1XX擦除写入flash加断点在线仿真可以运行不加断点卡死FLASH_DRV_CommandSequence卡死复位
最近在基于S32K116和YMODEM调试IAP升级,但总是通信不成功,经过一个周的艰苦努力,终于调试成功,现将过程记录如下: 首先经过测试,YMODEM协议是没有问题的,问题出现在读写flash的过程中,经过在读写flash函数的前后加断点,发现前面的断点可以运行到,而后面的断点无法运行到,说明程序卡死在读写flash的函数中。 使用在线仿真进入函数中,通过单步调试,发现可以正常运行,也可以正常将数据写入flash中,继续通过加断点的方式进一步确认出问题...
2021-11-12 22:12:25
1920
5
原创 新买的电脑报错VMware Workstation 与 Device/Credential Guard 不兼容
最近新买的电脑,打算通过VMware安装一个Ubuntu,VMware安装好了,但是在开始安装Ubuntu的时候,报出以下错误:VMware Workstation 与 Device/Credential Guard 不兼容。在禁用 Device/Credential Guard 后,可以运行 VMware Workstation。有关更多详细信息,请访问 http://www.vmware.com/go/turnoff_CG_DG。一通百度,发...
2021-10-05 16:18:59
237
原创 在Ubuntu中使用ssh登录远程另一台Ubuntu服务器,并图形化运行远程服务器上的软件
以前登录服务器时,都是在Windows上使用xmanager直接输入IP登录。但是近来越发觉得熟练使用Linux的重要性,所以想要将操作平台从Windows移到Linux中。所以就下载了Ubuntu,开始了一波搜索试错,种种实现了在Ubuntu中,登录服务器,并图形化运行了服务器上面的软件。操作记录如下:...
2020-09-29 16:45:24
1860
原创 Attempting to deserialize object on a CUDA device but torch.cuda.is_available() is False
错误描述:当用GPU训练pytorch神经网络的时候,我们经常会保存训练误差和测试误差(train loss and test loss)成npy文件,但是在保存的过程中,一不小心就保存成tensor类型的了,因为在训练的过程中loss是作为tensor进行运算的。这时候如果在CPU上用numpy.load()来加载我们保存的npy文件,就会报下面的错误。我们如果在公共的服务器上训练模型,然后...
2019-12-27 18:11:58
5474
原创 python在循环运行的时候释放内存
当我们在执行一个for循环的时候,会出现out of memory的错误,解决:del local_var gc.collect()
2019-12-26 11:51:31
7350
原创 高斯滤波、均值滤波、savgol滤波python程序
def kalman_filter(self, z): ''' :param z: 待滤波的数组 :return: 滤波之后的数组 ''' # intial parameters n_iter = len(z) sz = (n_iter,) # size of array ...
2019-12-24 11:31:40
1474
原创 数据预处理归一化Z-score归一化Min-Max归一化程序
在训练神经网络模型的时候,对数据进行预处理是必不可少的操作,而对数据进行归一化是预处理最常用的操作。最常用的归一化方法有两种,Min-Max归一化和Z-score归一化。Min-Max归一化原理网上很多,直接上程序:# Min-Max Normalizationimport numpy as npdata = np.load('your_data.npy')shape ...
2019-12-19 16:58:38
2916
原创 测试时报错 RuntimeError: CUDA out of memory.
问题描述:训练神经网络模型,训练时正常,训练一个epoch后测试的时候,报错RuntimeError: CUDA out of memory. 然而我的模型并没有很大,GPU占用率也不高。解决方法:with torch.no_grad(): (your test code)...
2019-12-19 16:28:18
3310
原创 QImage: argument 1 has unexpected type 'memoryview' arguments did not match any overloaded call
先上错误:raceback (most recent call last): File "E:/CV/Wang/main.py", line 42, in <module> w = MyMain() File "E:/CV/Wang/main.py", line 32, in __init__ qt_img = QImage(img.data, width...
2019-12-17 10:07:45
5822
5
原创 信息融合层次
根据信息融合的处理层次,可以将信息融合分为三类,包括数据层信息融合、特征层信息融合以及决策层信息融合。1.数据层信息融合数据层信息融合是对各传感器的原始观测数据进行统计分析。该方法的优点是原始数据保存完整、强调了原始数据之间的关联性,使得测量结果更加精确;缺点是运算量较大,降低了系统的实时性,同时观测数据的不确定性和不稳定性增加了系统处理难度。常用的数据层信息融合算法有加权平均法、卡尔曼滤波和...
2019-11-26 11:26:17
8544
原创 迁移学习笔记
关于domain adaptation,简单概括就是,如何用有标注的源域数据来标定完全无标注的目标域?我们简要回顾一下Jason工作的重要结论:对于一个深度网络,随着网络层数的加深,网络越来越依赖于特定任务;而浅层相对来说只是学习一个大概的特征。不同任务的网络中,浅层的特征基本是通用的。这就启发我们,如果要适配一个网络,重点是要适配高层——那些task-specific的层。强烈推荐!...
2019-07-02 11:39:34
247
转载 onehot 编码与解码
import numpy as npfrom keras.utils import to_categoricaldata = np.array([1, 5, 3, 8])print(data)def encode(data): print('Shape of data (BEFORE encode): %s' % str(data.shape)) encoded = ...
2019-06-19 15:03:03
1373
原创 神经网络不收敛不学习,分类效果相当于随机预测
神经网络不收敛不学习,分类效果相当于随机预测最近搭建了一个卷积神经网络,用的Keras,但是训练的时候loss不减少,预测精度相当于随机预测。查找资料的时候看到一篇国外关于这个问题的文章,讲的相当好。连接如下:http://theorangeduck.com/page/neural-network-not-working然后按照里面的总结一点点修改自己的网络,修改Learning rate,...
2019-06-19 12:10:51
2168
3
Demo_Tensorflow_Keras_pytorch.zip
2019-10-22
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人