GAN
文章平均质量分 73
本专栏主要讲解GAN相关的知识和相关实践。
CV-deeplearning
曾任小米AI Lab图像算法工程师, 现任国内知名公司算法专家, 微信公众号:AIWorkshopLab。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
MARCONet++ 攻克中文文本图像超分难题
本文提出MARCONet++框架,专为解决中文文本图像超分辨率难题。针对现有方法处理复杂中文结构时的不足,创新性地引入生成式结构先验:通过解耦汉字结构与风格,利用改进的StyleGAN生成高精度笔画模板指导超分重建。该框架包含字体风格预测、字符分类定位、结构先验生成和文本超分四个模块,在合成与真实数据上均展现优异性能,能准确恢复不规则布局的复杂汉字。实验表明其显著优于现有方法,同时具备向其他语言扩展的潜力。未来工作可优化竖排文本、长文本行等场景的处理效果。转载 2025-08-15 18:15:19 · 974 阅读 · 0 评论 -
一文读懂 | 如何用 4M 小模型实现文档图像的“净化大一统”?
本文提出了一种轻量级神经网络模型,可一键解决手机拍摄文档的多种质量问题,包括光照不均、阴影、摩尔纹和透字现象。该模型仅4MB大小,能在手机、CPU设备等低端硬件上实现50ms内的快速推理,通过一次处理即可消除多种图像瑕疵,显著提升OCR识别率和阅读体验。相比传统分段处理方法,这种All-in-One方案更高效实用,适用于文档管理App、扫描设备和行业数字化系统等多种场景。原创 2025-08-05 11:14:36 · 306 阅读 · 0 评论 -
DC-ShadowNet 论文阅读笔记
一. 资源介绍论文地址:DC-ShadowNet: Single-Image Hard and Soft Shadow Removal UsingUnsupervised Domain-Classifier Guided Network代码地址:https://github.com/jinyeying/DC-ShadowNet-Hard-and-Soft-Shadow-Removal二. 动机各种流行的方法通过监督学习方式去除阴影,但是这些方法需要阴影和非阴影的匹配对,并且匹配对的获取成本较高。本原创 2021-11-13 16:34:19 · 3388 阅读 · 0 评论 -
Deep Adversarial Decomposition: A Unified Framework for Separating Superimposed Images 论文阅读笔记
1. 论文与代码 论文下载地址:Deep Adversarial Decomposition: A Unified Framework for Separating Superimposed Images 官方代码地址:https://github.com/jiupinjia/Deep-adversarial-decomposition2. 论文核心思想 作者提出了一个统一的框架,用来分离图片。作者提出crossroad L1损失函数,该损失函数能计...原创 2021-04-25 21:01:59 · 588 阅读 · 0 评论 -
ST-CGAN 用GAN实现阴影检测和阴影去除
1. 总体介绍 本文是2018年的一篇CVPR,虽然现在看起来非常简单,但是在当时还是非常突出的,将阴影检测和除去阴影联合起来训练。 论文:https://arxiv.org/abs/1712.02478 代码:https://github.com/IsHYuhi/ST-CGAN_Stacked_Conditional_Generative_Adversarial_Networks(非官方实现)2. 主要思想 作者提出的框架包...原创 2021-04-30 16:36:44 · 2993 阅读 · 21 评论 -
Auto-Exposure Fusion for Single-Image Shadow Removal——论文阅读
一. 论文介绍 本文主要介绍去除阴影的论文《Auto-Exposure Fusion for Single-Image Shadow Removal》:即自动曝光融合去除阴影的方法。该论文来自2021年的CVPR。 论文地址:https://arxiv.org/abs/2103.01255 开源代码:https://github.com/tsingqguo/exposure-fusion-shadow-removal二. 算法框架 ...原创 2021-06-09 09:54:25 · 2708 阅读 · 12 评论 -
Collaborative Learning for Faster StyleGAN Embedding 论文阅读笔记
一. 相关资源论文地址:https://arxiv.org/abs/2007.01758代码地址:https://github.com/syguan96/Faster_StyleGAN_Embedding(还未开源)二. 背景与动机背景:stylegan 能学到解耦合的一些信息,这对我们定向做编辑很有好处,而基于 stylegan 做编辑的前提就是要把真实图片逆推到 stylegan 的空间中,即获得隐向量。动机:由于之前获取可解构的隐向量存在各种缺点,作者的目标用该方法得到一个又好又快的逆推。原创 2021-11-13 15:36:23 · 2631 阅读 · 0 评论
分享