论文地址:https://openaccess.thecvf.com/content/CVPR2024/papers/Chen_DSL-FIQA_Assessing_Facial_Image_Quality_via_Dual-Set_Degradation_Learning_and_CVPR_2024_paper.pdf
这篇论文标题为"DSL-FIQA: Assessing Facial Image Quality via Dual-Set Degradation Learning and Landmark-Guided Transformer",由Wei-Ting Chen, Gurunandan Krishnan, Qiang Gao, Sy-Yen Kuo, Sizhuo Ma, Jian Wang等人撰写,发表在CVPR2024会议上。论文提出了一种新颖的基于Transformer的方法,用于评估面部图像的感知质量。该方法不依赖于边界框或部分注释,能够有效地定位图像中的信息性区域,以解决面部图像质量评估的挑战。以下是对论文内容的解读:
摘要
-
本文提出了一种基于Transformer的方法,用于评估面部图像的感知质量。
-
方法包括两个独特机制:双集降解表示学习(DSL)和 Landmark-Guided Transformer。
-
DSL机制使用合成和真实退化的面部图像来解耦退化和内容,提高对真实世界场景的泛化能力。
-
提出了一个新的数据集CGFIQA-40k,包含40,000张图像,旨在克服现有数据集中的偏见,如肤色和性别表现的不平衡。
-
通过广泛的分析和评估,展示了该方法的鲁棒性,并与先前的方法相比有显著改进。