- 博客(60)
- 收藏
- 关注
原创 通过随机微分方程进行基于分数的生成建模(一)——Score-Based Generative Modeling through Stochastic Differential Equations
本次周报主要介绍了基于随机微分方程(Stochastic Differential Equations, SDE)的图像生成建模的基本思想,特别是从SDE的视角看待图像生成问题的核心内容。通过SDE,可以将复杂的图像分布逐步映射到简单的先验分布(如标准高斯分布),并通过逆向SDE重新生成高质量的图像分布。
2025-04-03 12:00:00
1785
1
原创 通过估计数据分布的梯度进行生成建模——Generative Modeling by Estimating Gradients of the Data Distribution
本次周报聚焦于通过估计数据分布的梯度进行生成建模的理论与实践,系统学习了基于分数的生成模型的核心思想及其实现方法。基于分数的生成模型通过学习数据分布的分数函数(score function),结合朗之万动力学采样生成样本。周报首先介绍了分数函数的定义及分数匹配的基本方法,分析了传统基于分数建模的缺陷。随后,提出了利用多尺度噪声扰动数据分布的改进方法,并结合噪声条件分数网络(NCSN)和退火朗之万动力学实现高效的生成建模。此外,通过代码解析,详细说明了分数匹配的训练过程和退火朗之万采样法的实现。
2025-03-27 12:45:38
960
原创 得分匹配的朗之万动力学——Score-Matching Langevin Dynamics (SMLD)
本次周报主要学习了得分匹配的朗之万动力学(Score-Matching Langevin Dynamics, SMLD)的基本思想、理论基础及其相关技术。SMLD通过学习数据分布的梯度(分数函数),结合朗之万等式生成样本。在学习过程中,首先介绍了从分布中采样的理论基础,包括朗之万等式、福克-普朗克方程以及随机梯度朗之万动力学(SGLD)的概念;接着详细分析了斯坦因分数函数的定义及其几何意义,并通过显式得分匹配、隐式得分匹配和去噪得分匹配三种技术讨论了如何估计分数函数。
2025-03-23 15:45:52
870
原创 扩散模型复习——Diffusion Models Review(Understanding Diffusion Models: A Unified Perspective论文公式推导)
本周周报系统性地梳理了扩散模型的理论基础与优化机制,重点围绕《Understanding Diffusion Models: A Unified Perspective》的公式推导展开。内容涵盖生成模型的目标、证据下界(ELBO)的数学推导及其在变分自编码器(VAE)与多层变分自编码器(HVAE/MHVAE)中的应用,深入分析了变分扩散模型(VDM)的优化目标分解为重构项、先验匹配项与去噪匹配项的理论依据。
2025-03-16 18:43:25
910
原创 计算机视觉人体姿态估计——Stacked Hourglass Networks(Stacked Hourglass Networks for Human Pose Estimation)
本周周报系统学习了堆叠沙漏网络(Stacked Hourglass Networks)在人体姿态估计中的应用。该模型通过对称的沙漏模块设计,结合多尺度特征融合与中间监督机制,实现了对人体关键点的精准定位。重点分析了沙漏模块的递归降采样-上采样结构、跳跃连接保留原始特征的方法,以及堆叠多个沙漏模块实现渐进式优化的原理。此外,通过代码实践深入理解了自定义上采样层、残差模块的实现细节,以及中间监督如何提升模型训练效果。学习内容覆盖了模型架构设计、关键算法实现及训练策略优化。
2025-03-08 21:50:54
1010
原创 计算机视觉人体姿态估计——OpenPose(Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields)
本次周报学习了基于深度学习的实时多人二维姿态估计算法OpenPose。该算法采用自下而上的方法,通过检测人体关键点并利用部分亲和域(Part Affinity Fields,PAF)将这些关键点关联起来,形成完整的姿态估计。OpenPose通过多阶段的迭代预测结构,逐步优化关键点的置信图和PAF,从而实现高效且准确的多人姿态估计。实验结果表明,OpenPose在多人姿态估计任务中表现出良好的鲁棒性和实时性,能够有效处理人数不确定、人物目标大小不一、姿态各异以及人物之间交互等问题。This weekly re
2025-03-01 11:33:51
997
原创 计算机视觉人体姿态估计——DeepPose(Human Pose Estimation via Deep Neural Networks)
人体姿态估计是计算机视觉领域的重要研究方向,本周学习了DeepPose模型。DeepPose作为该领域的里程碑式工作,首次通过深度神经网络实现了端到端的关节坐标回归。该方法摒弃了传统算法中复杂的关节关系建模,直接从全局图像特征学习人体姿态。其核心创新在于提出了一种级联的深度回归框架:初始阶段通过全图回归粗略姿态,后续阶段基于高分辨率局部图像逐步细化关节位置。实验表明,该方法在关节定位精度和鲁棒性上显著优于传统基于图形模型的方法,为后续深度学习驱动的姿态估计研究奠定了基础。
2025-02-21 10:00:00
839
原创 DeepSeek-R1论文阅读及蒸馏模型部署
本文介绍了基于强化学习的推理模型DeepSeek-R1-Zero及其改进版本DeepSeek-R1的研究与部署。DeepSeek-R1-Zero通过纯强化学习训练,无需监督微调,展现出自主推理能力,但面临可读性与语言混合问题。DeepSeek-R1结合多阶段训练与冷启动数据优化模型性能,其推理能力与OpenAI-o1-1217相当。
2025-02-16 17:56:01
1188
1
原创 计算机视觉语义分割——Attention U-Net(Learning Where to Look for the Pancreas)
本周学习了Attention U-Net模型,这是一种在U-Net基础上改进的语义分割模型,主要应用于医学影像分割任务。Attention U-Net通过引入注意力门(Attention Gate, AG)模块,自动学习目标的形状和尺寸,同时抑制无关区域,聚焦于显著特征。相比标准U-Net模型,Attention U-Net在分割性能、模型敏感度和准确率方面均有显著提升。AG模块采用加性注意力机制,能够有效突出感兴趣区域的特征响应,减少冗余信息,并且易于与不同的CNN模型集成。
2025-02-08 23:23:42
1463
原创 计算机视觉语义分割——SETR(Rethinking Semantic Segmentation from a Sequence-to-Sequence view with Transformers)
本周学习了计算机视觉语义分割领域中——SETR(Segmentation Transformer),其通过将语义分割任务重新定义为一个基于Transformer的序列到序列预测问题。SETR创新性地引入了纯Transformer结构,抛弃了传统语义分割模型中广泛使用的卷积操作和下采样过程。通过将图像分解为patch嵌入序列并结合空间位置编码,SETR的编码器能够在全局范围内建模上下文信息,从而克服传统FCN架构中感受野受限的问题。
2025-01-26 00:25:31
933
原创 计算机视觉语义分割——U-Net(Convolutional Networks for Biomedical Image Segmentation)
本周的工作聚焦于U-Net网络在语义分割任务中的研究与实现。U-Net作为一种经典的全卷积神经网络,因其编码器-解码器的对称结构和跳跃连接机制,广泛应用于生物医学图像分割。本次工作详细解析了U-Net的网络结构,包括收缩路径、扩展路径,以及其与FCN的关系。此外,还探讨了U-Net在生成模型中的改进及其在StableDiffusion中的应用。通过搭建基于PyTorch的U-Net网络,完成了数据预处理、模型训练及预测,并在医学图像分割任务中取得了良好的效果。
2025-01-18 22:15:21
1341
1
原创 计算机视觉语义分割——FCN(Fully Convolutional Networks for Semantic Segmentation)
本周主要学习了全卷积神经网络(Fully Convolutional Network, FCN)在语义分割任务中的应用与实现。深入分析了FCN的基本思想、转置卷积的原理及其与上采样的关系,并通过代码实现了FCN模型。研究了双线性插值对转置卷积核的初始化方法以及其在图像放大中的应用。此外,通过Pascal VOC2012数据集,完成了数据预处理、模型训练与测试,验证了FCN在像素级分类任务中的性能。实验结果表明,FCN能够有效地对图像中每个像素进行分类,从而实现语义分割任务。进入路径。
2025-01-12 15:46:28
1096
原创 计算机视觉目标检测——Deformable DETR(Deformable Transformers for End-to-End Object Detection)
本周主要学习和研究了目标检测领域的 Deformable DETR(Deformable Transformers for End-to-End Object Detection)。该方法通过引入可变形注意力模块,结合稀疏采样和多尺度特征融合,显著提升了检测任务的性能和效率。相比传统方法,Deformable DETR在收敛速度和小目标检测性能方面具有显著优势。
2025-01-05 17:51:03
918
原创 计算机视觉目标检测——DETR代码解读
本周主要对DETR(End-to-End Object Detection with Transformers)的代码实现进行了详细解读和学习。DETR是首个将目标检测任务转化为集合预测问题的端到端框架,通过Transformer的全局建模能力,显著简化了检测器的设计。在代码解读中,重点分析了DETR的整体架构,包括CNN特征提取、正余弦位置编码、Transformer的Encoder-Decoder结构和基于集合预测的损失函数。
2024-12-28 21:19:43
890
原创 计算机视觉目标检测——DETR(End-to-End Object Detection with Transformers)
本周主要学习了DETR(End-to-End Object Detection with Transformers)目标检测算法及其相关内容。DETR通过引入Transformer,将目标检测任务视为集合预测问题,首次实现了端到端的目标检测,无需NMS后处理和anchor设计(相较于YOLO),显著简化了模型训练和部署流程。论文的核心贡献包括设计了基于二分图匹配的目标函数,确保输出的独特性,并通过Transformer的encoder-decoder架构实现了高效的目标检测。
2024-12-22 16:04:21
1947
原创 计算机视觉目标检测——Yolo
本周的学习与实践围绕计算机视觉中的目标检测算法展开,重点研究了YOLO (You Only Look Once) 算法的原理与实现。通过对目标定位、滑动窗口、IoU(交并比)、NMS(非极大值抑制)以及锚框(Anchor Boxes)等关键概念的深入分析,全面掌握了YOLO算法的检测流程及改进方法。同时,还学习了基于U-Net的语义分割技术及其在像素级分类任务中的应用,进一步理解了反卷积操作的原理及其在U-Net架构中的作用。本次学习奠定了目标检测和语义分割任务的理论与实践基础。
2024-12-15 14:02:21
2983
2
原创 基于DDPM的PyTorch简单实现
本周的学习与实践围绕扩散模型(Diffusion Model)的基础理论和实现展开,重点复现了基于DDPM(Denoising Diffusion Probabilistic Models)的图像生成过程。在实践中,通过PyTorch实现了一个基于U-Net的去噪网络,并在MNIST数据集上完成了训练与采样。实验过程中,构建了DDPM类以实现正向扩散和反向采样流程,同时设计了带时间戳编码的U-Net网络以提升去噪性能。最终生成的图像在视觉上与MNIST数据集的真实图像接近,验证了模型的有效性。
2024-12-08 14:18:29
1240
2
原创 Stable Diffusion 3 论文
本周主要阅读了Stable Diffusion 3(SD3)的核心论文《Scaling Rectified Flow Transformers for High-Resolution Image Synthesis》。文章提出了一种基于整流模型(Rectified Flow)和Diffusion Transformer(DiT)的新型生成模型,并进行了大规模实验验证其性能。在网络架构上,SD3 引入了多模态 DiT(MM-DiT),并通过提升自编码器通道数、引入比例可变的位置编码等技术优化生成效果。
2024-12-01 14:36:39
1287
1
原创 Stable Diffusion中的自注意力替换技术与Diffusers实现
本周主要研究了Stable Diffusion中的自注意力替换技术及其在Diffusers中的实现。通过详细分析注意力机制,探讨了自注意力替换在图像生成和视频编辑中的应用场景及其理论基础。基于Diffusers框架,学习了一种帧间注意力处理方法,用于提升视频生成的一致性。还介绍了AttentionProcessor类及其相关接口的使用,最终实现了一个基于全局状态管理的注意力处理流水线,显著改善了视频生成的连贯性和保真度。扩散模型中的自注意力替换是一种常见的提升图片一致性的技术。
2024-11-24 16:57:58
1436
原创 Stable Diffusion的解读(二)
本周主要解读了Stable Diffusion的代码实现,重点学习了采样算法和U-Net结构。通过伪代码梳理了Stable Diffusion的采样过程,并对比了不同采样算法如DDPM和DDIM的差异。进一步分析了Stable Diffusion官方仓库的代码,包括如何安装和运行模型,以及主函数和DDIM采样器的具体实现。同时,对U-Net的结构进行了详细探讨,理解了其在Stable Diffusion中的改进。最后,解读了Diffusers库中Stable Diffusion的实现细节。
2024-11-15 23:32:11
1313
原创 HTTP 404 NOT FOUND for channel nvidia <https://mirrors.tuna.tsinghua.edu.cn/anaconda/nvidia>
报错:UnavailableInvalidChannel: HTTP 404 NOT FOUND for channel nvidia查看environment.yaml其中包含的channels和dependencies,主要是nvidia channel的问题。
2024-11-11 15:56:44
784
原创 Stable Diffusion的解读(一)
本周主要研究了Stable Diffusion模型的发展历程及其核心思想。Stable Diffusion结合了变分自编码器(VAE)和去噪扩散概率模型(DDPM)的优点,通过将图像生成拆分为压缩和生成两个阶段,显著提升了生成效率。模型在压缩阶段采用KL或VQ正则化,以减少过拟合现象。在生成阶段,利用DDPM生成高质量的图像。此外,Stable Diffusion通过引入交叉注意力机制,实现了多种约束条件下的图像生成。
2024-11-07 15:21:59
1486
1
翻译 文献阅读:Understanding Diffusion Models: A Unified Perspective
本周的文献阅读是对扩散模型的统一视角进行深入探讨。扩散模型作为生成模型的一种,通过模拟数据的真实分布来生成新的样本。主要分析了扩散模型的数学原理,以及其在基于似然和分数上的解释。还介绍了变分自编码器和多层变分自编码器的背景知识,进一步理解证据下界(ELBO)的优化目标。最后,详细讨论了变分扩散模型(VDM)的假设和优化方法,阐述了其在生成模型中的重要性和应用前景。This week’s focus was on exploring a unified perspective on diffusion mod
2024-10-30 17:14:53
115
原创 机器学习课程学习周报十八
本周周报深入探讨了Diffusion模型的数学原理,重点分析了生成模型如何通过正向和逆向过程实现从简单分布到复杂分布的映射。详细介绍了DDPM(去噪扩散概率模型)的工作机制,包括正向加噪过程和反向去噪过程。通过对ELBO证据下界的推导,解释了模型的优化目标和实现方法。本次周报系统性地分析了Diffusion模型的理论基础,特别是DDPM模型的操作原理和优化目标。通过对正向和逆向过程的详细推导,深入理解了如何从高斯噪声中逐步生成清晰图像的过程。下周准备阅读论文,希望更系统地了解Diffusion模型。
2024-10-25 21:24:33
699
原创 机器学习课程学习周报十七
本周报主要探讨了变分推理(Variational Inference)的基本思想及其在机器学习中的应用,详细介绍了证据下界(ELBO)的推导过程。接着,讨论了变分自编码器(VAE)的原理及其在生成模型中的优势。最后,简要分析了扩散模型(Diffusion Model)的数学原理,并阐述了图像生成模型的本质。This report explores the fundamental concepts of Variational Inference and its applications in machine
2024-10-19 18:11:24
864
原创 机器学习课程学习周报十六
本次周报介绍了马尔可夫链的基本概念及其在机器学习中的应用。详细探讨了离散和连续状态的马尔可夫链,平稳分布及其性质。还介绍了马尔可夫蒙特卡罗法及其在统计学习中的作用,特别是在贝叶斯学习中的应用。本次周报系统地探讨了马尔可夫链及其在机器学习中的重要应用,特别是在自然语言处理和语音识别中的作用。通过对平稳分布和马尔可夫链蒙特卡罗法的详细分析,展示了其在贝叶斯学习中不可或缺的地位。下周将介绍代表马尔可夫蒙特卡罗法的两个具体算法:Metropolis-Hastings算法和吉布斯抽样。
2024-10-13 17:06:23
823
原创 机器学习课程学习周报十五
本周的学习涵盖了统计推断和贝叶斯推断的基本概念,深入探讨了高斯混合模型中的EM算法及其有效性证明。此外,还介绍了马尔可夫链蒙特卡罗方法中的蒙特卡罗法及其应用。最后,通过Diffusion模型中的马尔可夫链,理解了如何实现图像生成的降噪过程。本周完善了上周学习的EM算法,并且开始学习马尔可夫链蒙特卡罗法,马尔可夫链在Diffusion模型中有特别重要的应用。接来的一周将从理论继续学习马尔可夫链蒙特卡罗法,并结合着实际应用中的Diffusion模型进行参照。
2024-10-06 15:57:40
1136
1
原创 机器学习课程学习周报十四
本周的学习重点是EM算法与高斯混合模型的应用。单高斯模型无法有效拟合多峰数据分布,因此引入高斯混合模型,通过多个高斯概率密度函数的组合来精确描述数据分布。为了优化高斯混合模型的参数,采用EM算法进行迭代更新。此外,还复习了概率论中的重要概念,为模型的深入理解提供了理论支持。通过本周的学习,掌握了高斯混合模型的基本原理及其在复杂数据分布拟合中的优势。通过EM算法的应用,理解了参数优化的过程和挑战,其中的数学原理还需要深究。同时,概率论的复习强化了对随机过程和统计模型的理解,为后续的学习打下了坚实基础。
2024-09-29 18:34:28
1211
原创 机器学习课程学习周报十三
本周的学习内容涵盖了文生图模型、Stable Diffusion、ControlNet以及概率论的复习。文生图模型通过文字编码器、生成模型和隐空间解码器三部分实现,将自然语言转化为图像。Stable Diffusion借助隐扩散模型提高生成效率,并通过条件机制增强可控性。ControlNet通过添加空间条件控制,增强了大型扩散模型的灵活性。最后,对概率论的进一步复习为理解复杂模型奠定了基础。文生图模型基本框架基本的文生图模型分为3个部分:文字编码器、生成模型以及隐空间解码器部分。
2024-09-22 10:41:50
507
原创 机器学习课程学习周报十二
本周的学习内容涵盖了fGAN框架、CycleGAN、自编码器以及概率论的基础知识。fGAN利用f-divergence来衡量概率分布间的差异,并通过Fenchel共轭解释其与GAN的关系。CycleGAN在无监督学习中实现图片风格转换,特别是在无成对数据的情况下。自编码器用于特征降维和重构,并探讨了去噪自编码器和离散隐表征的应用。最后,复习了概率论的基本概念,为理解VAE和Diffusion模型奠定基础。
2024-09-15 15:24:09
1464
原创 机器学习课程学习周报十一
本周的学习主要围绕生成对抗网络(GAN)的数学原理及其在机器学习中的应用展开。重点探讨了似然与概率的区别,GAN与最大似然估计的关系,以及如何通过训练生成器和判别器来最小化生成数据与真实数据的散度。此外,介绍了Wasserstein GAN(WGAN)对JS散度缺陷的改进,以及GAN性能评估的方法,如Inception分数和Fréchet Inception距离(FID)。最后,了解了条件生成模型在生成图像时的应用。本周解决了上周在学习GAN时的疑难数学问题,GAN的评估问题仍然值得深思。
2024-09-07 15:57:35
1060
原创 机器学习课程学习周报十
本周学习了生成对抗网络(GAN)的基本原理和训练过程。重点介绍了生成器和判别器的协同训练机制,以及信息论在GAN中的应用。通过GAN的实践,理解了如何通过最小化生成数据与真实数据分布之间的差异来提高生成器的效果。生成器的输入是一系列的从分布中采样出的向量,生成器就会产生一个比较复杂的分布,我们称之为PG{P_G}PG。另外我们还有一组原始数据,这些数据会形成另一个分布,我们称之为Pdata{P_{data}}Pdata。GAN的训练效果是希望PG{P_G}PG。
2024-08-30 01:06:57
863
原创 机器学习课程学习周报九
本周的学习重点是词嵌入技术和Transformer模型的应用。在词嵌入部分,我探讨了词嵌入的基本概念以及word2vec的两种模型:CBOW和Skip-gram。在代码实践中,我学习了如何使用Transformer模型对音频数据进行说话者识别,包括数据集的加载、模型的构建和训练过程。本周通过对词嵌入和Transformer模型的深入学习,我掌握了如何有效地将文本和音频数据转换为可用于机器学习模型的特征表示。
2024-08-25 00:48:36
962
原创 机器学习课程学习周报八
本周的学习重点是自注意力机制的计算优化。我探讨了如何通过Local Attention、Stride Attention、Global Attention等方法减少计算量。此外,还介绍了自动选择注意力计算和Attention Matrix的线性组合方法。最后,补充了Batch Normalization的知识,为模型训练提供了更好的稳定性。通过本周的学习,我对自注意力机制的优化策略有了更深入的了解,不同的注意力方法提供了多样化的计算选择,有助于提高模型的效率。下周还会围绕自注意力机制进行拓展学习。
2024-08-17 15:46:16
1569
2
原创 机器学习课程学习周报七
本周的学习重点是Transformer模型,涵盖了其编码器和解码器的结构与功能。我详细探讨了自注意力机制、多头自注意力、残差连接、层归一化等核心概念。此外,还比较了自回归和非自回归解码器的优缺点,以及编码器-解码器注意力在信息传递中的作用。通过这些学习,我对Transformer在序列到序列任务中的应用有了更深入的理解。一般的序列到序列模型会分成编码器Encoder)和解码器Decoder),编码器负责处理输入的序列,再把处理好的结果“丢”给解码器,由解码器决定要输出的序列。
2024-08-11 15:45:36
1066
1
原创 机器学习课程学习周报六
本周的学习内容主要围绕循环神经网络(RNN)及其变体展开,包括简单循环神经网络、Elman网络、Jordan网络、双向循环神经网络(Bi-RNN)和长短期记忆网络(LSTM)。我详细讨论了每种网络的结构和工作原理,特别是LSTM的门机制及其在处理梯度消失的优势。通过具体的例子和数学推导,我深入理解了这些网络在实际应用中的操作过程和效果。循环神经网络)是带有记忆的神经网络,每一个隐藏层中的神经元产生输出的时候,该输出会被存到记忆元。
2024-07-31 08:00:00
966
原创 机器学习课程学习周报五
在本周的学习中,我深入研究了机器学习模型中的向量序列输入和自注意力机制。首先,我探讨了文字和语音的向量表达方法,了解了one-hot编码和词嵌入在文字处理中的应用,以及窗口和帧移在语音处理中的概念。接着,我详细分析了自注意力机制的理论和运作过程,包括点积和相加两种计算关联性的方法,以及查询-键-值模式的应用。此外,我学习了矩阵运算中如何实现自注意力机制,并进一步研究了多头自注意力的原理和优势。最后,我简要介绍了位置编码在自注意力层中的作用。
2024-07-24 16:16:03
991
原创 机器学习课程学习周报四
本周的学习主要集中在卷积神经网络(CNN)和贝叶斯理论的基本概念和应用上。首先,深入探讨了卷积神经网络的架构,包括卷积层、感受野、参数共享和下采样等核心概念,并解释了这些技术如何提高图像识别的效率和准确性。接着,学习了贝叶斯定理及其在分类问题中的应用,详细介绍了朴素贝叶斯分类器的原理和实现方法。通过这些学习,我对机器学习中的关键技术和理论有了更深入的理解。卷积神经网络是一种非常典型的网络架构,常用于图像分类等任务。
2024-07-21 16:47:29
1094
原创 机器学习课程学习周报三
本周的学习主要集中在以下几个方面:损失函数在训练集和测试集上的表现、优化问题及其解决方法、过拟合与模型复杂度的平衡、批量和动量的使用、自动调整学习率的方法以及学习率调度策略。具体内容包括模型偏差和优化问题的区分及解决、过拟合现象的识别和处理、局部极小值与鞍点的定义和影响、动量法在梯度下降中的应用、AdaGrad和RMSprop等自适应学习率方法、Adam优化器的原理及其优势,以及学习率衰减策略。交叉熵的推导个人感觉比较重要,将在下周进行推导,同时下周将开启对卷积神经网络的学习。
2024-07-14 16:33:51
855
1
原创 机器学习课程学习周报二
本周在机器学习部分主要学习了PyTorch的基础用法,手推了反向传播的过程以及使用深度学习的方法完成一个回归问题。在docker的学习部分,开始学习docker的原理部分,了解了docker的联合文件系统及其镜像加载的原理,并实践了使用容器数据卷达到宿主机与容器内数据的同步与持久化,最后使用dockerfile构建一个自己的docker镜像文件。下周预计学习局部极小值与鞍点,批量与动量,自适应学习率,学习率调度等小节。
2024-07-05 09:08:06
849
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人