- 博客(224)
- 收藏
- 关注
原创 FireRedASR:开源工业级语音识别模型深度解析
FireRedASR是FireRedTeam推出的开源工业级语音识别框架,支持普通话、中文方言及英语识别,在多项ASR基准测试中刷新SOTA记录。(8.3B参数):采用Encoder-Adapter-LLM架构,结合大型语言模型实现端到端语音交互(1.1B参数):基于注意力机制的编解码器结构,平衡性能与效率。
2025-06-12 08:32:21
269
原创 RAG文档解析难点3:Excel多层表头的智能解析与查询方法
在构建检索增强生成(RAG)应用时,我们经常需要处理各种格式的非结构化和半结构化数据。Excel作为企业和个人广泛使用的数据组织工具,因其灵活性,也成为了RAG应用中常见的数据源。然而,Excel文件的复杂性,尤其是包含合并单元格、多层级表头(Multi-level Headers)等情况,给数据解析和后续的精准检索带来了巨大挑战。本文将深度探讨在RAG应用开发中,如何正确、智能地解析Excel文件,特别是针对多层级表头的情况。
2025-06-11 21:32:32
457
原创 RAG文档解析难点2:excel数据“大海捞针”,超大Excel解析与精准行列查询指南
在构建检索增强生成(RAG)应用时,Excel文件是不可或缺的数据源。它们通常包含了企业运营、市场分析、科学研究等各个领域的宝贵数据。然而,当这些Excel文件变得“超大”——可能包含数十万甚至数百万行数据时,传统的解析方法和RAG数据处理流程将面临严峻的内存、性能和检索效率挑战。更进一步,用户往往希望能够像在数据库中那样,通过精确的行列约束(例如,“找出‘销售部门’在‘2023年Q3’的‘产品A’的‘实际销售额’”)来查询数据记录,这给RAG系统的设计带来了更高的要求。
2025-06-10 19:00:50
151
原创 深度剖析Diffusion与Transformer在图像生成中的计算逻辑与融合之道
Diffusion模型和Transformer模型。它们以各自独特的计算逻辑,在图像的像素级合成与语义理解方面展现出强大威力。更令人兴奋的是,当这两者强强联合,尤其是结合大型语言模型(LLM,通常基于Transformer架构)的语义理解能力,AI图像生成便插上了想象的翅膀。本文将深度剖析Diffusion和Transformer在图像生成场景的计算逻辑、训练方式、数据格式、优缺点,并探讨大型语言模型如何通过Transformer架构与Diffusion模型结合,实现从文本到图像的创世之旅。
2025-06-09 21:48:06
639
原创 RAG 文档解析难点1:多栏布局的 PDF 如何解析
在构建检索增强生成 (Retrieval-Augmented Generation, RAG) 应用时,高质量的数据源是成功的基石。PDF 作为一种广泛使用的文档格式,承载着海量的知识。然而,许多 PDF 文档,特别是学术论文、期刊、杂志和一些报告,都采用了多栏布局 (multi-column layout)。直接按从左到右、从上到下的顺序提取这类 PDF 的文本,会导致阅读顺序混乱,严重破坏文本的连贯性和语义完整性。
2025-06-09 21:36:01
352
原创 【读论文】OpenAI o3与o4系统模型技术报告解读
回顾一下,4月16日,OpenAI发布了一份关于其o系列新模型——OpenAI o3和OpenAI o4-mini——的System Card。这份文档不仅揭示了这两款模型在推理能力和工具使用方面的显著进步,也详细阐述了其训练方法、数据来源、安全评估以及在图像理解生成、数学推理等多个核心领域的表现。本文将对这份系统卡进行深度剖析,带你一探究竟。
2025-06-08 22:15:27
998
原创 构建智能对话式BI的关键:ChatBI场景下的Agent框架选型深
在数据驱动决策的时代,商业智能(BI)工具扮演着至关重要的角色。然而,传统BI工具往往需要用户具备一定的SQL知识或熟悉复杂的操作界面。对话式BI(ChatBI)的出现,旨在通过自然语言交互,让任何人都能轻松获取数据洞察,极大降低了数据分析的门槛。构建一个强大、灵活且可扩展的ChatBI应用,其核心离不开一个合适的Agent框架。Agent框架如同应用的“龙骨”,为LLM赋予了感知、思考、行动和记忆的能力。
2025-06-07 20:46:54
621
原创 LLM Agent 如何颠覆股价预测的传统范式
股价预测,金融领域的“圣杯”之一,吸引了无数研究者和投资者。传统方法从技术指标到复杂的计量经济模型,再到机器学习,不断演进,但市场的高度复杂性、非线性和充斥噪声的特性,使得精准预测依然是巨大的挑战。大型语言模型(LLM)的崛起,特别是LLM Agent这一新兴范式,为我们审视和解决这一难题提供了全新的视角和强大的工具。本文将深度探讨LLM Agent如何应用于股价预测这一经典时间序列问题,内容将涵盖传统做法的梳理、LLM Agent带来的预期效果、其如何为预测过程提效,以及构建端到端解决方案的可能性。
2025-06-06 23:18:24
1044
原创 大模型如何革新用户价值、内容匹配与ROI预估
在数字营销的战场上,理解用户、精准触达、高效转化是永恒的追求。传统方法依赖结构化数据和机器学习模型,在用户价值评估、人群素材匹配以及策略ROI预估等核心问题上取得了显著成就。然而,随着数据维度日益复杂,用户行为愈发多变,传统方法也面临着特征工程繁琐、语义理解不足、冷启动效果不佳等挑战。大型语言模型(LLM)的出现,以其强大的自然语言理解、生成和推理能力,为这些营销难题提供了全新的解决思路。
2025-06-06 22:56:18
1338
原创 深度解析数字营销专属大模型 AdLLM 的训练思路
在数字营销的浪潮中,个性化、精准化和高效化已成为品牌制胜的关键。传统营销方法论在海量数据和快速变化的用户需求面前略显乏力。此时,大型语言模型(LLM)以其强大的自然语言理解和生成能力,为数字营销领域带来了革命性的机遇。然而,通用 LLM 虽然强大,但在特定领域的“专精”程度往往不足。因此,训练一个数字营销专属大模型——我们称之为 AdLLM (Advertising LLM)——变得至关重要。
2025-06-05 21:39:02
1000
原创 【读代码】从预训练到后训练:解锁语言模型推理潜能——Xiaomi MiMo项目深度解析
Xiaomi MiMo是小米公司开源的7B参数规模语言模型系列,专为复杂推理任务设计。项目包含基础模型(MiMo-7B-Base)、监督微调模型(MiMo-7B-SFT)和强化学习模型(MiMo-7B-RL)等多个版本。技术亮点预训练阶段:优化数据管道,提升推理模式密度训练目标:引入多token预测(MTP)加速推理后训练阶段:创新性代码奖励机制与数据重采样策略工程优化:无缝rollout引擎实现1.9倍训练加速性能表现。
2025-06-04 21:44:03
659
原创 AI 大模型+数字营销
数字营销的世界瞬息万变,充满了机遇与挑战。从精准触达目标受众、打造引人入mersive 的内容,到优化广告投放策略、提升用户转化率,每一个环节都考验着营销人员的智慧和效率。近年来,以 ChatGPT、DeepSeek、Llama 等为代表的大型语言模型 (LLM)横空出世,凭借其强大的自然语言理解、内容生成和数据分析能力,正以前所未有的方式重塑数字营销的各个层面。LLM 不再仅仅是一个新奇的工具,它正逐渐成为数字营销人员的“超级助手”,能够自动化繁琐任务、激发创意灵感、提供数据洞察、甚至辅助制定营销策略。
2025-06-03 21:01:36
634
原创 BLIP:统一视觉-语言理解的跨模态预训练框架深度解析
BLIP(Bootstrapping Language-Image Pretraining)是Salesforce Research提出的视觉-语言预训练框架,2022年发表于ICML。该项目通过创新的多模态混合架构,在图像描述生成、视觉问答、跨模态检索等任务上取得突破,其代码库已集成至LAVIS多模态统一框架。
2025-05-31 00:15:00
253
原创 【读代码】BabyAGI:自我构建的自主代理框架深度解析
BabyAGI是由Yohei Nakajima开发的实验性自主代理框架,其核心设计理念是通过最小化基础架构实现系统的自我演进。项目在2023年3月首次提出任务规划概念后,经过迭代演进形成了当前基于函数库(functionz)的新架构。自我构建机制:通过已有函数组合生成新功能可视化依赖管理:基于图结构的函数关系追踪模块化函数库:支持动态加载功能模块包安全沙箱:独立的密钥管理系统(key_dependencies)全链路日志:记录函数执行全生命周期数据。
2025-05-30 00:15:00
609
原创 LLM 对齐新范式:深入解析 DPO (Direct Preference Optimization) 的原理与实践
大型语言模型 (LLM) 的能力在很大程度上取决于其与人类意图和偏好的一致性,即对齐 (Alignment)。传统的对齐方法,如基于人类反馈的强化学习 (RLHF),虽然效果显著,但其流程复杂(需要训练奖励模型、使用 PPO 等强化学习算法)、训练不稳定且对超参数敏感,给实践带来了诸多挑战。为了寻求更简洁、更稳定、更高效的对齐方案,直接偏好优化 (Direct Preference Optimization, DPO)横空出世,迅速成为 LLM 对齐领域的热门技术。DPO 的核心思想是。
2025-05-29 00:15:00
1069
原创 LLM 强化学习之 REINFORCE 算法
大型语言模型(LLM)在通过预训练和监督微调(SFT)掌握了丰富的语言知识和遵循指令的能力后,如何才能让它们生成更符合特定目标(如更安全、更有帮助、更具特定风格、或在某个交互任务中表现更好)的文本呢?强化学习(Reinforcement Learning, RL)提供了一条有力的途径。在众多 RL 算法中,REINFORCE(也称为 Monte Carlo Policy Gradient)是最基础也是最具代表性的**策略梯度(Policy Gradient)**算法之一。
2025-05-28 00:15:00
20
原创 LLM 强化对齐的四大天王:REINFORCE, PPO, DPO, GRPO
大型语言模型 (LLM) 的对齐(Alignment)——使其行为和输出更符合人类期望、价值观和偏好——是释放其潜能并确保其安全、负责任应用的关键环节。在众多对齐技术中,强化学习(Reinforcement Learning, RL)扮演了核心角色,而直接利用偏好数据进行优化的方法也异军突起。最基础的策略梯度算法,理解 RL 的基石。RLHF 中最主流的 Actor-Critic 算法,以其稳定性和效率著称。一种“无奖励模型”的直接偏好学习方法,简洁高效。
2025-05-27 00:15:00
259
原创 深度解析强化学习经典算法 Q-learning
在人工智能的广阔天地中,强化学习(Reinforcement Learning, RL)占据着一个独特而重要的位置。它关注的是智能体(Agent)如何在与环境的交互中,通过不断地“试错”和获取“奖励”或“惩罚”,来学习如何做出最优决策以达成特定目标。Q-learning 作为 RL 领域中最经典、最广为人知的**无模型(Model-Free)、基于价值(Value-Based)的离策略(Off-Policy)**算法之一,为理解 RL 的核心思想和后续更复杂算法奠定了坚实的基础。
2025-05-26 00:15:00
22
原创 【读代码】BAGEL:统一多模态理解与生成的模型
BAGEL是字节跳动推出的开源多模态基础模型,具有70亿激活参数(140亿总参数)。支持精确的区域修改,保留背景细节的同时实现材质变换。可生成360度视角序列,适用于电商3D展示。基于首帧预测后续动态过程,支持自然现象模拟。通过数据层面的多任务交织,实现统一表征学习。
2025-05-25 00:07:48
341
原创 LLM多轮对话效果优化之道
大型语言模型 (LLM) 已经展现出惊人的单轮问答和文本生成能力。然而,在现实世界的许多应用场景中,我们更需要 AI 能够进行流畅、连贯、有深度、且能真正解决问题的多轮对话。无论是智能客服、虚拟助手、教育辅导,还是复杂的 Agent 系统,多轮对话能力都是衡量其智能水平和实用性的核心标准。但要让 LLM 从一个“问一句答一句”的机器,进化成一个善解人意、记忆犹新、能够追踪上下文、并保持对话目标的“聊天大师”,并非易事。这需要从。
2025-05-23 23:34:08
333
原创 LLM推理加速技术如何迁移到传统 Transformer 模型(ASR)
Transformer 模型,自其诞生以来,便以其强大的并行处理能力和对长距离依赖的卓越捕捉,彻底改变了自然语言处理乃至整个人工智能领域的格局。从 BERT、GPT 到各种特定任务的变体,Transformer 的身影无处不在。Paraformer,作为非自回归端到端自动语音识别(ASR)领域的优秀代表,同样也构建在其坚实的 Transformer(或 Conformer)基础之上。
2025-05-22 22:50:11
569
原创 【TTS回顾】CosyVoice 深度解析:基于LLM的TTS模型
本篇博客我们回顾一下CosyVoice,文本转语音(TTS)技术正经历一场由大型语言模型(LLM)引领的深刻变革。我们不再满足于仅仅“听得清”,更追求合成语音能够像真人一样自然流畅、富有表现力,并且能够轻松实现零样本 (Zero-Shot)语音克隆,即用极少(甚至一段)目标说话人的音频就能合成其声音。传统的 TTS 模型,无论是基于参数合成还是拼接合成,在自然度和表现力上都存在瓶颈。
2025-05-22 22:32:12
970
原创 【TTS回顾】StyleTTS 深度剖析:TTS+风格迁移
这篇博客我们回顾一下StyleTTS,当时的背景是,文本转语音(TTS)技术,早已不再满足于仅仅将文字转化为可听的语音。行业需要的是“真人TTS”,AI 不仅能“说得清楚”,更能“说得生动”、“说得有感情”,甚至能模仿特定人物的说话风格。富有表现力的语音合成,即能够捕捉和再现人类说话时的韵律、语调、情感和独特风格,已成为 TTS 领域的核心挑战和前沿方向。传统的并行 TTS 模型(如 FastSpeech 系列)在合成速度和鲁棒性上取得了显著进展,但它们在风格多样性、情感表现力和自然韵律方面往往表现不足。
2025-05-21 22:51:54
977
原创 【TTS回顾】深度解析VITS2,与VITS对比
VITS2是由SK Telecom团队提出的单阶段端到端语音合成模型,通过对抗学习机制和创新架构设计,在语音自然度、训练效率和多说话人适应性等方面实现突破。相较于传统两阶段流水线系统(文本→梅尔频谱→波形),其核心创新在于将时长预测、声学建模和波形生成整合到单一框架中。核心特性单阶段端到端:消除传统系统的级联误差对抗训练策略:引入多周期判别器提升音质可扩展架构:支持单/多说话人、多语言场景高效推理:比VITS减少30%计算资源消耗。
2025-05-21 09:42:40
807
原创 为何你的 LLM 服务那么“贵”?深度剖析个人部署与大厂的成本鸿沟
## 写在前面大型语言模型(LLM)的浪潮带来了无限可能,越来越多的开发者和企业希望将这些强大的 AI 能力集成到自己的应用中。OpenAI、Google、Anthropic 等大型厂商提供的 API 服务虽然便捷,但对于数据隐私、定制化需求或成本敏感的场景,似乎是一个诱人的选项。然而,许多尝试者很快发现,自己部署和运维 LLM 服务的远高于直接使用大厂 API 的“按量付费”价格。这不禁让人疑惑:明明硬件是我自己的,模型是开源的,为什么最终算下来,平均每个 Token 或每个请求的成本反而更高?
2025-05-20 21:52:04
602
原创 大模型服务如何实现高并发与低延迟
大型语言模型(LLM)正以前所未有的速度渗透到各行各业,从智能客服、内容创作到代码生成、企业知识库,其应用场景日益丰富。然而,将这些强大的 AI 能力转化为稳定、高效、可大规模应用的服务,却面临着巨大的挑战,其中高并发处理能力和低响应延迟是衡量服务质量的两个核心痛点。想象一下,你的 LLM 应用在用户高峰期卡顿、排队甚至崩溃,或者用户每次提问都需要漫长的等待——这无疑会严重影响用户体验,甚至导致用户流失。如何让你的大模型服务既能“扛得住”海量请求,又能“跑得快”及时响应?这需要一个系统性的优化工程。
2025-05-20 21:24:56
678
原创 【TTS回顾】深度剖析 TTS 合成效果的客观评估与主观评价
因此,在实践中,我们需要结合具体的应用场景和评估目标,选择合适的评估方法和指标组合,并精心设计评估数据集和流程。:主观评价是评估 TTS 模型最终用户体验的关键,能够捕捉到客观指标难以衡量的细微差异。:客观指标提供了量化的、可重复的评估结果,便于快速迭代和模型比较。主观评价直接引入人类听众对合成语音进行打分或比较,被认为是评估 TTS 合成效果的“金标准”,因为它最能反映合成语音的。仅仅凭感觉“听一听”显然不够客观和系统。客观评估旨在通过可计算的指标来衡量 TTS 模型在某些特定方面的性能,通常侧重于。
2025-05-19 16:15:29
1198
原创 【TTS回顾】Bert-VITS2深度解析:融合BERT的多语言语音合成模型
Bert-VITS2是基于VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的改进版本,通过整合BERT语义编码能力,显著提升了语音合成的自然度和表现力。项目地址:https://github.com/fishaudio/Bert-VITS2语种自然度相似度流畅度中文4.24.14.3日语4.03.94.1英语3.83.73.9核心特性。
2025-05-19 12:16:32
1389
原创 【TTS回顾】VITS 深度解析:端到端语音合成的集大成者是如何炼成的?
合成语音的自然度与真实感,以及合成过程的高效性与实时性。传统的 TTS 系统,如级联式(文本分析 -> 声学模型 -> 声码器)或两阶段模型,虽然在音质上取得了不错的进展,但往往面临着训练流程复杂、错误累积、推理速度慢等问题。本篇博客我们回顾一下端到端 TTS 领域的标杆之作,VITS 的核心魅力在于它优雅地融合了多种先进的深度学习技术变分自编码器 (VAE):用于连接文本表示和语音波形,并引入隐变量来建模语音的自然变化。归一化流 (Normalizing Flows)
2025-05-18 21:51:05
1000
原创 LangGraph深度解析:构建持久化、可观测的智能体工作流
LangGraph是由LangChain团队推出的开源框架(GitHub仓库:https://github.com/langchain-ai/langgraph),专为构建持久化、状态化的智能体工作流设计。持久化执行:支持长时间运行(数小时/天级)的工作流,故障后自动从检查点恢复全链路可观测:与LangSmith深度集成,提供执行路径可视化、状态追踪等调试能力灵活状态管理:支持短期工作记忆(推理上下文)与长期持久化存储(会话历史)人机协同:支持在任意执行阶段进行人工干预和状态修改。
2025-05-18 21:34:22
206
原创 【读代码】端到端多模态语言模型Ultravox深度解析
Ultravox是由Fixie AI团队开发的开源多模态大语言模型,专注于实现音频-文本的端到端实时交互。项目基于Llama 3、Mistral等开源模型,通过创新的跨模态投影架构,绕过了传统语音识别(ASR)的中间步骤,可直接将音频特征映射到语言模型的高维空间。
2025-05-17 22:53:46
290
原创 【开源Agent框架】Suna架构设计深度解析与应用实践
Suna是一款全栈开源的通用型AI代理系统,其名称源自日语"砂"的发音,寓意如流沙般渗透到各类数字任务中。项目采用Apache 2.0协议,由Kortix AI团队维护,核心开发者包括Adam Cohen Hillel等三位主要贡献者。
2025-05-17 22:13:43
529
原创 MiniMax-Speech:当下最强中文TTS模型?
文本转语音(TTS)技术,作为人机交互的关键一环,近年来在深度学习的驱动下取得了长足的进步。我们不再满足于仅仅“听得清”,更追求“听得自然”、“听得悦耳”,甚至希望能让 AI 用“我喜欢的声音”说话。这是 MiniMax-Speech 区别于许多依赖固定 Speaker Embedding(如 d-vector)的 TTS 模型的关键。其核心创新在于引入了一个。本文将作为 MiniMax-Speech 的深度技术解读,带你深入剖析其。,揭示这个在 TTS Arena 排行榜上名列前茅的模型的“内功心法”。
2025-05-16 23:06:02
281
原创 【开源Agent框架】CAMEL:角色扮演+任务分解
CAMEL(Communicative Agents for “Mind” Exploration of Large Language Model Society)是由camel-ai社区开发的开源多智能体框架,致力于探索智能体的规模法则(Scaling Laws)。该项目通过构建包含百万级智能体的复杂社会系统,研究智能体在协作、竞争和进化过程中涌现出的群体智能特征。截至2024年,项目已在GitHub获得超过3万星标,成为多智能体研究领域的重要基础设施。
2025-05-16 22:47:26
337
原创 从openai图文对比模型clip到具身智能vlm agent
CLIP(Contrastive Language-Image Pre-Training)是OpenAI 2021年推出的多模态预训练模型,通过4亿个互联网图像-文本对进行对比学习训练。首创自然语言作为监督信号在零样本场景下超越传统监督模型支持跨模态语义对齐(ImageNet零样本准确率达76.2%)
2025-05-15 19:36:32
63
原创 【开源Agent框架】OWL:面向现实任务自动化的多智能体协作框架深度解析
OWL(Optimized Workforce Learning)是基于CAMEL-AI框架构建的创新型多智能体协作系统,旨在通过动态智能体交互实现复杂任务的自动化处理。项目在GAIA基准测试中以69.09的平均分位列开源框架榜首,展现了强大的任务处理能力。多模态处理:支持文本/图像/视频/音频工具调用:集成30+专业工具包执行环境:本地/Docker/云端部署模型支持:GPT-4/Claude/Gemini等主流模型。
2025-05-15 11:44:44
463
原创 DeepSeek技术点MLA逻辑解析
大型语言模型 (LLM) 处理长上下文的能力是衡量其智能水平和实用性的关键指标之一。从最初的几千 Tokens 到如今的数十万甚至数百万 Tokens,上下文窗口的扩展一直是 LLM 发展的前沿阵地。然而,标准的 Transformer 注意力机制(Multi-Head Attention, MHA)在处理长序列时面临着计算量和显存占用的平方级增长问题,这成为了制约长上下文能力的主要瓶颈。为了突破这一瓶颈,各种高效注意力机制应运而生。DeepSeek。
2025-05-14 21:39:58
162
原创 Manus逆向工程:AI智能体的“思考”与“行动”
本篇博客将基于 Manus 测试的行为日志,尝试反向推演其内部的核心逻辑。我们将探讨它如何巧妙地融合了计划-执行(Plan-Execute)和ReAct(Reasoning and Acting,即思考与行动)两种范式,并灵活运用浏览器和Python 解释器等工具来攻克复杂任务。通过对 Manus 交互日志的细致分析,我们得以一窥现代 AI Agent 可能的内部运作图景。
2025-05-14 21:07:33
1184
原创 DeepSeek技术点MTP逻辑解析
并被认为是DeepSeek现高效训练和快速推理的关键之一,MTP 的核心实现是基于当前时刻的隐藏状态,通过多个并行的线性投影层来同时预测未来多个 Tokens。这种设计摒弃了传统自回归模型逐个 Token 生成的严格串行模式,试图在一次模型前向传播中“预见”更远的未来。但这“并行预言”的背后,究竟隐藏着怎样的细节逻辑?它如何在训练中加速学习,又如何在推理中提升效率?这种方案相比其他并行解码技术有何特点和权衡?本文将深入剖析这种“基于现有隐藏状态的多线性投影” MTP 方案的。
2025-05-14 14:29:21
312
原创 【读代码】Qwen2.5-Omni 深度解析
全模态感知:无缝处理文本/图像/音频/视频输入多模态生成:实时流式生成文本和自然语音超强泛化:单模态性能媲美专用模型,多模态任务SOTA。
2025-05-13 17:49:23
134
专栏附带练习题与参考答案-零基础上手Python数据分析
2025-05-12
谷歌大模型prompt编写指南
2025-05-07
基于python从0到1实现一个plan-execute方案的Agent(快速学习原理和实现)
2025-04-25
算法面试2025中国移动算法面试编程题目及参考答案:1)服务器集群通信统计,2)整数1出现次数计算
2025-04-16
python脚本:利用openai接口模拟相声对话,AI郭老师和于老师已上线(DeepSeek接口也通用)
2025-02-20
本资源是学生成绩统计案例,涵盖了C语言入门阶段的核心知识点 通过代码实现、详细分析和教学扩展,可以帮助初学者逐步掌握C语言编程的基础
2025-02-17
DeepSeek模型本地部署指南:Windows与macOS环境下DeepSeek R1模型的快速安装与使用
2025-02-11
包含DeepSeekR1的论文以及清华版的入门进阶文档
2025-02-11
python脚本利用deepseek一键创作抖音文案(结合实时更新的百度热搜)
2025-02-10
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人