
python
文章平均质量分 54
记录学习过程中使用Python遇到的各种问题、见解、方案等。
Alocus_
要每天学习!要进步!要自信!有任何问题联系我!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
(草料二维码)xlsx自动统计票数代码并用pyinstaller快速打包
但是,对统计后的数据缺乏自动统计功能。导出xlsx或csv文件后,手工统计票数太慢。因此,利用pandas等包对文件自动统计并显示,能降低工作量。为了方便使用,将其打包为exe文件。编译成功后,exe文件在如下文件夹中。使用时需要把dist内的文件带着一起,不能删掉。使用时需要把xlsx文件放到exe文件同一目录,否则需要把路径也写上,不然会闪退。我们的草料二维码导出的xlsx文件如下图所示,目标是统计出列名为。③安装pyinstaller以及所必要的库,注意使用pipenv。下的内容中每个人的票数。原创 2023-10-16 20:16:12 · 431 阅读 · 0 评论 -
自动化办公处理word:提取文档指定标题并另存为txt
由于同学之前手动将上千个文档放到一个文档里,这步工作也可以通过遍历如os库,将各个文档分别处理,实现全部自动化。最后:再帮剁手!本文除了为相关工作人员提供代码思路,减少工作量外,还希望各行各业的工作人员和爱好者业余学习一下代码,武装自己,减少苦力劳动,提高效率。原创 2023-02-21 16:37:35 · 1296 阅读 · 2 评论 -
使用python批量裁剪图片为目标大小
代码中有部分需要修改和优化的地方,请自行优化。如图片的命名,裁剪后拼接的话也需要标记出原始图片的大小才可以进行还原,不赘述。如果有错误,请私信!!原创 2023-02-11 20:20:21 · 3145 阅读 · 0 评论 -
模拟真实世界的退化代码(python):RealESRGAN二阶降质代码独立剥离出来使用
在这方面的工作中,RealESRGAN做出了出色的工作。当我们想要借鉴其数据退化思路进行数据集处理与制作时,可以尝试使用其数据处理代码,但是其代码高度耦合,不利于我们使用,于是我将其降质代码剥离出来,可以方便地模拟图像的退化,相对于其他退化方法,这种退化模拟效果较好。降质流程的数学表达可简化为如下公式1,其中y表示待降质图像,表示x降质结果,表示D降质算子。通过常见的操作子对图像进行模拟降质,并结合sinc滤波模拟拍摄等因素产生的振铃和伪影等,通过随机扩散操作子模拟纸质老化,最终生成降质结果。原创 2023-01-24 23:46:13 · 1084 阅读 · 0 评论 -
labelme2voc制作voc数据集改变颜色,如黑白单类别分割
labelme2voc.py生成voc数据集指定填充的颜色,默认情况下生成二值图是黑红色,如何改成黑白色呢?原创 2023-01-20 02:18:42 · 1045 阅读 · 0 评论 -
labelme使用labelme2voc.py忽略部分标签生成VOC/coco类型数据集(Ignore a label in json file)
使用labelme标注生成json文件,利用该文件生成用于分割等任务的voc或者coco类型数据集时,可以使用label2voc.py。当我们忽略部分标签生成数据集时,即Ignore labels in labelme2voc.py,并没有可用的方法,修改json也麻烦,因此本文提出一种暴力但好用的方法。原创 2023-01-17 22:28:49 · 1835 阅读 · 1 评论 -
超分辨率重建生成低分辨率图像,生成降质图像公认方法代码
目录1背景2.BI3.BD4.DN1背景超分辨率重建中经典的生成降质图像通常使用MATLAB实现的,通常有四种方法:类型 说明 BI bicubic-down BD blur-down BN bicubic-down+noise DN blur-down+noise 详细参考图像/视频超分之降质过程其中最常用的是BI,其次是BD,最后是DN。那我将其公认实现和出处总结起来,供大家参考。2.BI下面是通过MATLA.原创 2022-05-23 21:45:56 · 4250 阅读 · 1 评论 -
图像超分辨率数据集制作问题总结,你需要注意什么?
1.背景图像超分辨率数据集是一个坑,图像/视频超分之降质过程原创 2022-05-19 05:15:15 · 2674 阅读 · 0 评论 -
超分辨率数据集构建:处理原始图像以下采样
一背景在BSD100、Set14等经典数据集中,其长宽存在无法被2、3、/4整除的情况,导致生成的低分辨率图像重建出来时,和GT长宽不等。故按照默认方法,将其进行裁剪。代码很简单,如下二代码# coding=utf-8from PIL import Imageimport randomimport osdirs = r'C:\Users\Administrator\Desktop\SR\Testset\BSD100\BSD100_HR'result_dir = r'C:\Users原创 2022-05-18 01:27:56 · 1498 阅读 · 0 评论 -
超分辨率重建双三次插值Bicubic生成高分辨率图像
目录一背景二代码三注意一背景在超分任务中,为了做对比实验,需要双三次插值算法生成高分辨率图像。为此写了简单代码实现。二代码import osimport argparseimport cv2# parse argsparser = argparse.ArgumentParser(description='Upsize images using bicubic interpolation')parser.add_argument("-k", "--keepdi原创 2022-05-13 22:44:40 · 2810 阅读 · 4 评论 -
计算数据集的均值、方差
目录1.背景2.代码3.说明1.背景在进行模型训练时,调整输入数据的均值和方差,能够使模型训练更加稳定、效果更好。如何计算数据集的均值和方差?2.代码###https://blog.youkuaiyun.com/weixin_43105540/article/details/119570461from itertools import repeatimport osfrom multiprocessing.pool import ThreadPoolfrom pathlib原创 2022-05-12 15:08:22 · 2810 阅读 · 0 评论 -
pix2pix、pix2pixHD 通过损失日志进行训练可视化
背景pix2pix(HD)代码在训练时会自动保存一个损失变化的txt文件,通过该文件能够对训练过程进行一个简单的可视化,代码如下。训练的损失文件如图,对其进行可视化。代码#coding:utf-8###author: QQ:1913434222 WeChat:Alocus##import matplotlib.pyplot as pltimport reimport numpy as npimport os,sysfile = "loss_logA - 副本.原创 2022-04-29 17:49:45 · 3758 阅读 · 10 评论 -
实例struct.pack打包文件、解包文件(图像)
背景之前一篇论文代码使用此方式将数据进行了打包,然后再训练,实际上这种方式处理数据集能够提升读取耗费的时间。但是由于电脑性能有限,不得不将打包文件的方式替换掉,故也查了下这种方式打包数据的思路,以后备用。代码未细致整理,但是亲测可用。祝好!代码打包import osimport struct# 判断文件夹中是否有目标类型图片,没有则返回0def is_image_file(filename): # 如果不都为空、0、false,则any()返回true return原创 2022-04-29 17:35:36 · 2004 阅读 · 0 评论 -
制作论文图示、论文图像的脚本、细节放大并合成一张图
背景不少论文会有将细节之处放大对比,然后进行说明问题,如下,不知道他们如何实现,我写了个脚本,方便写论文制图。效果如下图所示。代码# -*- coding: utf-8 -*-import cv2path = r'C:\Users\Administrator\Desktop\1.jpg'im_sou = cv2.imread(path)print(im_sou.shape)im_sou2 = im_sou###修改这里,需要知道两个点,左上和右下的坐标######从w原创 2022-04-29 17:28:32 · 1270 阅读 · 0 评论 -
计算深度学习模型的参数量、复杂度(MACS、params)
背景:计算深度学习模型参数量有现成的脚本可供使用,如下。简单的使用方法参考了代码【2】依赖包介绍:pytorch框架中卷积网络的flops计数器:ptflops安装:pip install --upgrade git+https://github.com/sovrasov/flops-counter.pytorch.git##or#pip install ptflops说明【1】:此脚本用于计算乘法加法运算的理论量 在卷积神经网络中。它还可以计算参数的数量和 给定网原创 2022-04-26 11:17:05 · 4987 阅读 · 0 评论 -
计算深度学习模型的推理时间、fps
目录背景代码参考:背景评估模型的推理时间时有需要注意的地方。如torch.cuda.synchronize(),因为pytorch代码执行时异步的,使用该代码会等待gpu上所有操作结束后再接着运行代码、计算时间等【1】。代码函数【2】:import timedef measure_inference_speed(model, data, max_iter=200, log_interval=50): model.eval() # the fir原创 2022-04-26 10:58:27 · 7469 阅读 · 0 评论 -
Python中的self,类中的self?
参考:Python里面的self,是谁啊?https://mp.weixin.qq.com/s/uZBBEQ4oLG-AmQB8wwNHXw一句话解释:类实例化后,self即代表着实例(对象)本身。原创 2022-04-15 17:19:34 · 782 阅读 · 2 评论 -
深度学习模型中颜色空间转换
目录背景方法结论背景情况是这样的,我训练一个深度学习模型,用于图片的处理,读取图片时使用的是skimage包,然后进行一系列常见的处理变为tensor类型送入模型中进行训练。这个模型为我自己设计的,同时还有其他的论文设计的模型,他们共用一个数据预处理,现在我不想动数据处理模块,只想在我设计的模型中进行颜色空间的转换,看看模型在另外的颜色空间中是否有不一样的表现,那么如何做呢?方法所以就出现了比较蠢的方法,把即将送入模型中的tensor张量数据类型转一圈。先把batch维度原创 2022-03-26 19:56:23 · 5372 阅读 · 0 评论 -
seaborn.pairplot sns.pairplot 绘制矩阵图
pairplot(data,hue,palette,x_vars,y_vars,kind,diag_kind,markers,height,aspect,corner,dropna,plot_kws,diag_kws)参数:data--要绘制的数据,为DataFrame类型;hue--取值为data中的列索引,为分组变量,根据不同颜色来区分各个变量;palette--为seaborn库颜色面板取值或者给出hue中各个类别对应颜色的字典;x_vars--data中需要用到的索引名组成的横坐原创 2021-05-13 23:14:23 · 4129 阅读 · 0 评论 -
文件读取中 */* 即data_root.glob(‘*/*‘)
用glob获取所有文件并存入列表中。这里*的意思为获取所有文件,因此*/*的意思则为获取文件夹下的所有文件及它们的子文件。文件路径若为data_root: C:\Users\Administrator\.keras\datasets\flower_photos其中文件架构若为flower_photos||————————daisy |——————5547758_eea9edfd54_n.jpg||————————dandelion...原创 2021-05-14 20:08:49 · 2162 阅读 · 0 评论 -
imageio.get_writer() ,用图片生成gif
imageio.get_writer(uri, format=None, mode='?', **kwargs)参数Parameters: uri:{str, pathlib.Path, file} The resource to write the image to, e.g. a filename, pathlib.Path or file object, see the docs for more info. format:str The fo..原创 2021-05-15 23:05:09 · 3992 阅读 · 1 评论 -
!pip install -q git+https://github.com/tensorflow/docs安装tensorflow_docs
github无法访问或者访问速度过慢,可以访问https://gitee.com/创建gitee账号,新建仓库:然后 点击导入 输入github的网址(如https://github.com/tensorflow/docs)即可:通过此种方式访问仓库快,下载也快。如果通过命令!pip install -q git+https://github.com/tensorflow/docs安装tensorflow_docs包失败,将后面网址替换为你克隆后的网址即可安装。...原创 2021-05-14 09:31:47 · 1116 阅读 · 0 评论 -
glob.glob() 函数 glob.glob(‘image*.png‘)
glob模块是最简单的模块之一,内容非常少。用它可以查找符合特定规则的文件路径名。跟使用windows下的文件搜索差不多。查找文件只用到三个匹配符:””, “?”, “[]”。””匹配0个或多个字符;”?”匹配单个字符;”[]”匹配指定范围内的字符,如:[0-9]匹配数字。glob.globimport glob#获取指定目录下的所有图片print (glob.glob(r"/home/qiaoyunhao/*/*.png"),"\n")#加上r让字符串不转义#获取上级目录的所有.py文转载 2021-05-15 23:24:08 · 3256 阅读 · 0 评论 -
imageio.get_reader()
imageio.get_reader(uri, format=None, mode='?', **kwargs)参数uri:{str, pathlib.Path, file}读取的源,例如文件名、pathlib.path、http地址或文件对象,format:str用于读文件,默认系统基于文件名选择合适的.mode:{‘i’, ‘I’, ‘v’, ‘V’, ‘?’}用来读取的文件的格式( “i” 图片, “I” 多个图像, “v” for a volume, “V” for.原创 2021-05-15 23:11:58 · 3638 阅读 · 0 评论 -
scrapy爬虫入门练习
安装scrapy:使用命令:pip install Scrapy创建爬虫项目使用命令:scrapy startproject test2创建爬虫使用命令:scrap genspider weiwuer uyghur.people.com.cn编辑weiwuer.py输入如下代码:import scrapyimport reclass WeiwuerSpider(scrapy.Spider): name = 'weiwuer' allow原创 2021-11-24 21:20:00 · 773 阅读 · 0 评论 -
超分辨率重建数据集制作:高分辨率图像采集(将pdf转换为图像)
背景之前有用到从pdf中提取图片,但是有的时候提取会失败,提取出长条状的残次图像,提取不完整。因此我找了网上的代码,将pdf转换为图片。该代码来自https://github.com/jtyoui/Jtyoui/tree/master/jtyoui#coding=utf-8import osimport fitzfrom os.path import abspath, dirname# 使用fitz 库直接提取pdf的图像# 参数: pdf 源pdf文件完整路径原创 2022-03-09 16:20:22 · 865 阅读 · 1 评论 -
批量测试图像的LPIPS、SSIM、PSNR指标,并生成CSV文件结果
背景:由于论文需要,我将测试代码进行了修改,融入了LPIPS等指标,关于LPIPS介绍,可以查看博客:LPIPS图像相似性度量标准:The Unreasonable Effectiveness of Deep Features as a Perceptual Metric_Alocus的博客-优快云博客_lpips度量代码:代码中有两大部分需要进行修改,我在代码中进行了标注。有疑问欢迎联系交流。# -*- coding:utf-8 _*-import argparseimport o原创 2022-02-27 20:09:00 · 7159 阅读 · 23 评论 -
超分辨率重建数据集制作:裁剪过滤
背景由于获取到的高分辨率图像尺寸不一,不符合公认的要求,因此我对图像进行了裁剪过滤,代码如下代码#coding=utf-8from PIL import Imageimport randomimport osdirs = r'C:\Users\Administrator\Desktop\敦煌超分\数据集'result_dir = r'C:\Users\Administrator\Desktop\敦煌超分\数据集2'name= []num = 1list = os.listdir原创 2022-02-12 18:20:16 · 2171 阅读 · 2 评论 -
超分辨率重建数据集制作:高分辨率图像采集(从pdf中获取图像)
背景嗯嗯代码ee其他ee原创 2022-02-12 17:27:20 · 3035 阅读 · 0 评论 -
超分辨率重建数据集制作:生成低分辨率数据集
背景超分辨率重建任务需要高清和对应的低质图像。由于需要自己制作超分辨率重建数据集,需要将高分辨率图像按照公认的方式(DIV2k)制作为低分辨率图像,我根据网上代码进行了改造可运行代码如下:代码import osimport argparseimport cv2#parse argsparser = argparse.ArgumentParser(description='Downsize images at 2x using bicubic interpolation')par原创 2022-02-12 17:23:46 · 11482 阅读 · 22 评论 -
全国研究生数学建模比赛经验
背景参加了2021年全国研究生数学建模竞赛,组队算上我一共三人,由于第一次参加,之前都没有参加过比赛,没有经验,开赛第一天一块商量了选择哪个题目,确定了空气质量预报,第二天分配了下工作,开始做题。历程我的任务是对数据进行处理,并做第1、2题。经验不足导致我花了将近两天的时间对数据进行处理,好在小伙伴们都不划水,能够容忍我的速度。处理的过程中,一度便想放弃... 但是我的任务数据预处理是所有题目得先决条件,我必须先把数据处理做好。通宵查资料学习pandas,并分析数据,当数据分析完成之后,我发原创 2022-01-25 16:22:52 · 2305 阅读 · 2 评论 -
完善后的根据深度图加雾代码Python
以下代码根据实验需要进一步了修改,尚有不完善之处,多多指教!#coding:utf-8# import cv2# import os# import glob# import cv2, math# import numpy as np# Copyright (c) Microsoft Corporation.# Licensed under the MIT License.# import os.path# import io# import zipfile## impor原创 2021-11-24 17:18:15 · 6740 阅读 · 20 评论 -
LPIPS图像相似性度量标准:The Unreasonable Effectiveness of Deep Features as a Perceptual Metric
一、感知相似性人类可以快速评估两幅图像之间的感知相似性,但是底层过程非常复杂。纹理图像包含了纹理颜色、纹理基元等丰富的图像信息。在计算机视觉研究领域中,人们使用感知相似性来度量不同纹理之间的相似程度,研究人类对纹理图像的视觉感知。纹理相似性度量广泛应用于纹理识别和材质识别,是对象识别和场景理解的关键技术之一。研究人员通过计算特征之间的距离度量估计纹理感知相似性。近年来,对图像网络分类进行训练的VGG网络的特性作为图像合成的训练损失具...原创 2021-08-27 20:35:07 · 29954 阅读 · 18 评论 -
struct.unpack和struct.pack打包、解包图像和npy类型文件
一、简介有些情况下,直接对文件夹中的大量图像等文件进行处理,可能会影响程序执行的速度。这时,如果能够先将图像等文件打包合并为一个(二进制bytes流)文件,从内存中读取bytes,一定程度上能够提高读取的速度。 本文中对各种图片类型文件和numpy生成的存储矩阵的npy类型文件进行打包。 我的文件目录如下安排:test |--image |--1.jpg |--2.jpg |--......原创 2021-08-16 22:40:14 · 2125 阅读 · 1 评论 -
【python、matlab】求以e为底的矩阵中每个元素的指数
matlab中:exp()函数,如下所示python中:numpy.exp()函数,如下所示原创 2021-08-09 07:22:33 · 2561 阅读 · 0 评论 -
【python】通过深度图生成雾图(HAZERD)
目录完整代码matlab:python版本:(待完善)官方:完整代码matlab:参见:https://blog.youkuaiyun.com/Crystal_remember/article/details/119529529python版本:(待完善)def perlin_noise(): passdef srgb2lrgb(I0): gamma = ((I0 + 0.055) / 1.055)**2.4 scale = I0 / 12.92原创 2021-08-09 05:01:27 · 7291 阅读 · 20 评论 -
【python、matlab】sRGB颜色空间与线性sRGB空间转换
python版本:def srgb2lrgb(I0): gamma = ((I0 + 0.055) / 1.055)**2.4 scale = I0 / 12.92 return np.where (I0 > 0.04045, gamma, scale)def lrgb2srgb(I1): gamma = 1.055*I1**(1/2.4)-0.055 scale = I1 * 12.92 return np.where (I1 > 0.原创 2021-08-08 22:38:51 · 1970 阅读 · 0 评论 -
【pytorch】详解vanilla(BCEWithLogitsLoss )、lsgan(nn.MSELoss)
有如下代码块 self.gan_mode = gan_mode if gan_mode == 'lsgan': self.loss = nn.MSELoss() elif gan_mode == 'vanilla': self.loss = nn.BCEWithLogitsLoss() elif gan_mode in ['wgangp']: self.loss = .原创 2021-08-07 15:53:36 · 1726 阅读 · 0 评论 -
Xpath Helper 插件的安装和使用介绍,及Xpath函数的简单使用
一、什么是Xpath Helper用于Html中对目标字段或者属性值进行匹配的一个浏览器插件。效果和正则表达式、css类似。使用爬虫时,可以用来替换正则,非常方便进行过滤。二、安装Xpath Helper下载地址:链接: https://pan.baidu.com/s/1u5BSLxwyt1mBq3sLXLioqw 提取码: 2r5m下载解压之后,如果不可以直接拖拽到浏览器的扩展安装页面直接安装的话,就将解压后的文件的后缀改成rar或者zip再次解压。然后点击加载已解压的扩展程序进行安装。.原创 2021-06-29 00:28:08 · 9476 阅读 · 2 评论 -
五子棋python
import pygameEMPTY = 0BLACK = 1WHITE = 2black_color = [0, 0, 0]white_color = [255, 255, 255]class RenjuBoard(object): def __init__(self): self._board = [[]] * 15 self.reset() def reset(self): for row in ra...原创 2021-06-03 10:50:13 · 276 阅读 · 0 评论