LLFormer 项目使用教程

LLFormer 项目使用教程

LLFormer The code release of paper "AAAI Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and Transformer-Based Method", AAAI 2023 LLFormer 项目地址: https://gitcode.com/gh_mirrors/ll/LLFormer

1. 项目目录结构及介绍

LLFormer 项目的目录结构如下:

LLFormer/
├── checkpoints/
├── configs/
├── datasets/
├── figures/
├── model/
├── pytorch-gradual-warmup-lr/
├── scripts/
├── transform/
├── utils/
├── warmup_scheduler/
├── LICENSE
├── README.md
├── evaluation.py
├── test.py
├── test_UHD.py
├── train.py

目录结构介绍

  • checkpoints/: 存放训练过程中生成的模型检查点文件。
  • configs/: 存放项目的配置文件,包括训练和测试的配置。
  • datasets/: 存放数据集文件,包括UHD-LOL4K和UHD-LOL8K等。
  • figures/: 存放项目中使用的图表和图像文件。
  • model/: 存放模型的定义和实现代码。
  • pytorch-gradual-warmup-lr/: 存放渐进式学习率调度器的实现代码。
  • scripts/: 存放一些辅助脚本,如数据预处理脚本。
  • transform/: 存放数据增强和转换的代码。
  • utils/: 存放一些通用的工具函数和辅助代码。
  • warmup_scheduler/: 存放学习率预热调度器的实现代码。
  • LICENSE: 项目的开源许可证文件。
  • README.md: 项目的介绍和使用说明。
  • evaluation.py: 用于模型评估的脚本。
  • test.py: 用于测试模型的脚本。
  • test_UHD.py: 用于测试UHD图像的脚本。
  • train.py: 用于训练模型的脚本。

2. 项目启动文件介绍

train.py

train.py 是用于训练模型的启动文件。通过该文件,用户可以指定配置文件路径并开始训练过程。

python train.py -yml_path your_config_path

test.py

test.py 是用于测试模型的启动文件。用户可以通过该文件指定数据路径、结果保存路径和预训练模型路径,进行模型测试。

python test.py --input_dir your_data_path --result_dir your_save_path --weights weight_path

test_UHD.py

test_UHD.py 是用于测试UHD图像的启动文件。由于UHD图像较大,建议使用补丁模式进行测试。

python test_UHD.py --input_dir your_data_path --result_dir your_save_path --weights weight_path

3. 项目的配置文件介绍

配置文件位于 configs/ 目录下,主要包括训练和测试的配置。以下是一些关键配置文件的介绍:

configs/UHD-LOL4K/train/training_UHD_4K.yaml

该配置文件用于UHD-LOL4K数据集的训练,包含了训练过程中的参数设置,如学习率、批量大小、训练轮数等。

configs/UHD-LOL8K/train/training_UHD_8K.yaml

该配置文件用于UHD-LOL8K数据集的训练,包含了训练过程中的参数设置。

configs/LOL/train/training_LOL.yaml

该配置文件用于LOL数据集的训练,包含了训练过程中的参数设置。

configs/MIT-Adobe-FiveK/train/training_MIT_5K.yaml

该配置文件用于MIT-Adobe FiveK数据集的训练,包含了训练过程中的参数设置。

通过修改这些配置文件,用户可以根据自己的需求调整训练和测试的参数。

LLFormer The code release of paper "AAAI Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and Transformer-Based Method", AAAI 2023 LLFormer 项目地址: https://gitcode.com/gh_mirrors/ll/LLFormer

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

卓华茵Doyle

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值