自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 论文格式变换

论文中的一些格式问题

2025-11-09 15:53:19 126

原创 EMA跨空间注意力模块

实现了一个高效的,结合了和机制。

2025-06-29 11:25:47 217

原创 Zotero引用问题

zotero引用问题

2025-06-14 15:50:35 218

原创 Pytorch中包的导入相关问题

相对路径包的导入

2025-03-24 10:06:39 286

原创 Pytorch和mamba以及Geopandas等依赖项互相的兼容关系

先离线安装GDAL、Fiona、Pyproj、Rtree、Shapely五个库,再用。但有可能以后就不支持python3.9了,所以还是自己保存一份。

2025-03-15 10:22:15 295

原创 GEE-Tesorflow 学习

1 Numpy兼容报错:A module that was compiled using NumPy 1.x cannot be run inNumPy 2.0.0 as it may crash。解决方式 pip install --force-reinstall charset-normalizer==3.1.0。我是这样做的:先将Tensorflow的环境复制一份,再在这个虚拟环境下安装GEE的库,遇到了两个问题。遂重新安装了11.2版本的CUDA和8.1版本的cuDNN。2)(无法解决再使用)

2025-03-07 18:23:35 325

原创 Gee学习四

如果想使用Pytorch和Tensenflow需要先在本地进行训练再部署到Gee上进行预测。目前还只能使用gee自带的几种机器学习方法进行机器学习。使用Gee时不要数像元个数而是计算面积。每种数据集有自己的创建动画的函数】未来会另开一个专栏进行学习。

2025-02-03 15:12:43 396

原创 GEE学习三

Gee的一些基本操作增加底图查看可用地图添加不在geemap中的底图地图上的各种图标显示保存地图第三章 DataGee数据类型寻找数据影像(Image)载入数据获取数据的信息数据可视化可以选择自带的调色盘影像集(Image Collection)获取影像集中影像个数获取地图中所画区域经纬度信息(默认获取的是最后一个,如果需要全部需要rois)获取数据的

2025-01-30 08:59:22 408

原创 Pytorch基本语法

在 PyTorch 中,是一个容器模块,用于顺序地堆叠一系列的子模块。通过,可以方便地定义一个按照指定顺序运行的模型结构。

2025-01-18 20:36:30 302

原创 Pytorch 基本语法-类的使用

类(Class):用来描述。它定义了该集合中每个对象所共有的属性和方法。。方法:类中定义的函数。类的构造方法__init__():类有一个名为 init() 的特殊方法(构造方法),该方法在类实例化时会自动调用。实例变量:在类的声明中,实例化:创建一个类的实例,类的具体对象。继承:即一个。继承也允许把一个派生类的对象作为一个基类对象对待。例如,有这样一个设计:一个Dog类型的对象派生自Animal类,这是模拟"是一个(is-a)"关系(例图,Dog是一个Animal)。

2025-01-18 17:21:50 856

原创 Resnet分类学习

Resnet结构解析和模型搭建

2025-01-18 08:59:14 244

原创 虚拟环境创建及在jupyter和pycharm中使用

为了避免基本环境的污染,需要在虚拟环境中隔离项目。

2025-01-12 09:40:06 1005

原创 杂项-各个数据来源

国家冰雪数据中心(NSIDC),是联合国环境规划署设在。

2024-11-27 15:44:52 493

原创 图像处理学习基本概念

在神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。但请记住,我们使用的是有限的数据集,并且我们使用一个迭代过程即梯度下降来优化学习过程。当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次>epoch。然而,当一个Epoch的样本(也就是所有的训练样本)数量可能太过庞大(对于计算机而言),就需要把它分成多个小块,也就是就是分成多个Batch 来进行训练。再通俗一点,一个Epoch就是将所有训练样本训练一次的过程。

2024-09-12 21:44:18 904

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除