【小红书爆款密码】Coze 工作流一键生成小绿书热门笔记!零门槛变现攻略

小红书和小绿书平台的图文二次创作近期热度飙升!今天就手把手教你如何用Coze AI一键生成爆款笔记。
实操方案:先收集同领域的爆款笔记作为素材,然后交给AI进行二次创作,自动生成吸睛标题、优质文案和精美配图。

图文二创工作流拆分:提取笔记内容-文案重写-文案配图-内容发布。

1.内容提取: 浏览小红书,寻找热门笔记。提取笔记中的文本信息,包括标题、正文等。

2.文案二创: 基于小红书笔记的原始文本,进行文案的创意构思和重写。保留原文的核心内容,同时引入新的元素和创意,优化标题以吸引目标读者。

3.文案配图: 根据创新后的文案内容,选择合适的图片和视觉设计元素。

4.内容发布: 在发布前进行测试,确保内容在平台上的展示效果。将调整后的图文内容发布至小红书平台。

1:创建工作流

登陆Coze官网:https://www.coze.cn/

点击“工作空间”-“工作空间”-“资源”,点击到新建“工作流”选项。

在这里插入图片描述

创建工作流的名称和工作流描述。工作流名称只允许字母、数字和下划线,并以字母开头。

在这里插入图片描述

填写好工作流名称与描述后,点击确定,进入到如下图的工作流搭建的界面。

在这里插入图片描述

这里可以看到工作流必须要有的两个模块,“开始“和”结束”两个模块。

我们现在需要再中间加入我们需要工作流中需要用的其他模块。

2.提取文案

我们想要提取文案,首先需要有文案的链接。

点击“开始”模块,在其中加入变量“URL”,变量类型“String”,描述“小红书链接”。

用户在开始的对话中输入小红书链接就可以给到工作流了。

在这里插入图片描述

收到用户给到的链接之后小红书链接之后,我们需要获取小红书的文案内容,包括标题、正文等内容,这里需要用到“链接读取”插件。

点击“插件”。

在这里插入图片描述

在搜索框中输入“链接读取”,找到Coze提供的这个插件,然后选择下方的"LinkReaderPlugin"插件。

当你需要获取网页、pdf、抖音视频内容时,使用此工具。可以获取url链接下的标题和内容。

点击右侧的“添加”。

在这里插入图片描述

将“开始”与"LinkReaderPlugin"插件链接到一起。

img

然后给插件改一个名字“文案提取”,方便我们来使用。

img

把用书输入的链接给到“文案提取”插件。

点击“文案提取”插件,在url参数中引用“开始”模块的“URL”参数(如下图所示)。

img

3.文案改写

OK,文案内容有了,现在就需要让AI来帮我改写一下这个文案。

点击“大模型”,添加大模型模块,修改名称为“文案改写”。

连接“文案提取”和“文案改写”模块。

在这里插入图片描述

“文案改写”模块中我们需要使用到“文案提取”中的“”和“”参数。

我们在“文案改写”中添加这两个参数,并且设置对应的引用参数。

在这里插入图片描述

再往下可以看到有两个写提示词的部分:系统提示词和用户提示词。

系统提示词不填,然后复制下面这段内容到用户提示词中。

Shell

你是一个小红书文案专家,请详细阅读并遵循以下原则,帮我进行小红书笔记二次创作。 #标题创作原则##增加标题吸引力-使用标点:通过标点符号,尤其是叹号,增强语气,创造紧迫或惊喜的感觉!-挑战与悬念:提出引人入胜的问题或情境,激发好奇心。-结合正负刺激:平衡使用正面和负面的刺激,吸引注意力。-紧跟热点:融入当前流行的热梗、话题和实用信息。-明确成果:具体描述产品或方法带来的实际效果。-表情符号:适当使用emoji,增加活力和趣味性。-口语化表达:使用贴近日常交流的语言,增强亲和力。-字数控制:保持标题在20字以内,简洁明了。##标题公式标题需要顺应人类天性,追求便捷与快乐,避免痛苦。-正面吸引:展示产品或方法的惊人效果,强调快速获得的益处。比如:产品或方法+只需1秒(短期)+便可开挂(逆天效果)。-负面警示:指出不采取行动可能带来的遗憾和损失,增加紧迫感。比如:你不xxx+绝对会后悔(天大损失)+(紧迫感) ##标题关键词从下面选择1-2个关键词:我宣布、我不允许、请大数据把我推荐给、真的好用到哭、真的可以改变阶级、真的不输、永远可以相信、吹爆、搞钱必看、狠狠搞钱、一招拯救、正确姿势、正确打开方式、摸鱼暂停、停止摆烂、救命!、啊啊啊啊啊啊啊!、以前的...vs现在的...、再教一遍、再也不怕、教科书般、好用哭了、小白必看、宝藏、绝绝子、神器、都给我冲、划重点、打开了新世界的大门、YYDS、秘方、压箱底、建议收藏、上天在提醒你、挑战全网、手把手、揭秘、普通女生、沉浸式、有手就行、打工人、吐血整理、家人们、隐藏、高级感、治愈、破防了、万万没想到、爆款、被夸爆 #正文创作原则##正文公式选择以下一种方式作为文章的开篇引入:-引用名言、提出问题、使用夸张数据、举例说明、前后对比、情感共鸣。 ##正文要求-字数要求:100-500字之间,不宜过长-风格要求:真诚友好、鼓励建议、幽默轻松;口语化的表达风格,有共情力-多用叹号:增加感染力-格式要求:多分段、多用短句-重点在前:遵循倒金字塔原则,把最重要的事情放在开头说明-逻辑清晰:遵循总分总原则,第一段和结尾段总结,中间段分点说明 接下来,我给你一个主题{{title}},示范文案{{content}},你帮我生成相对应的小红书文案,。输出:-标题数量:每次准备10个标题。-正文创作:撰写与标题相匹配的正文内容,具有强烈的浓人风格



这里需要注意,下图中圈起来的部分,是我们上面设置的参数名称。必须显示是蓝色才对。如果不是蓝色字体可能是参数名填写错误。

在这里插入图片描述

现在这个工作流就可以帮我帮写对应的文案,并帮我起10个爆款标题了。

我们试运行一下来看下效果 ,随便找了一个小红书的文案。

在这里插入图片描述

点击右上角“试运行”,把小红书的链接放到“URL”参数中,点击下方按钮开始试运行。

在这里插入图片描述

在工作流运行的时候可以点击模块右上方的查看“展开结果”来查看模块运行的结果。

在这里插入图片描述

运行完毕,我们可以看到成功提取到了原文案(黄色部分),并且成功改写了10个爆款标题和文案。

在这里插入图片描述

OK,今天的内容先到这里。

下篇继续来完成这个工作流,用AI来解决文案的配图问题。

本文转自 https://blog.youkuaiyun.com/2401_85390073/article/details/145215381?ops_request_misc=%257B%2522request%255Fid%2522%253A%252298809019ab7d4cdee84536c249713b04%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.%2522%257D&request_id=98809019ab7d4cdee84536c249713b04&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2allfirst_rank_ecpm_v1~rank_v31_ecpm-2-145215381-null-null.142v102pc_search_result_base8&utm_term=coze%E6%A1%88%E4%BE%8B%E6%8B%86%E8%A7%A3&spm=1018.2226.3001.4187,如有侵权,请联系删除。

这份完整版的AI智能体整合包已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

### 使用 Coze 工作流实现从小红书中批量提取数据 要通过 Coze 工作流实现从小红书平台批量提取数据的功能,可以按照以下方法设计流程。需要注意的是,由于应用获取的数据可能存在延迟以及排序逻辑上的局限性[^1],因此在实际操作过程中需额外验证所提取数据的准确性。 #### 数据抓取与处理 Coze 工作流支持多种自动化任务配置,其中包括网络爬虫、API调用等功能模块。以下是具体的技术方案: 1. **设置 API 接口连接** 如果目标小红书账户开放了标准接口,则优先考虑利用官方提供的 RESTful 或 GraphQL 类型 API 来请求所需资源。例如,可以通过 POST 请求传递参数指定需要查询的目标字段(如粉丝数、点赞量等),并接收 JSON 响应体作为原始素材。 ```python import requests url = 'https://api.xiaohongshu.com/endpoint' headers = {'Authorization': 'Bearer YOUR_ACCESS_TOKEN'} payload = { "operationName": "GetUserDetails", "variables": {"userId": "example_user_id"}, "query": """ query GetUserDetails($userId: ID!) { user(id: $userId) { followersCount likesReceivedTotal } } """} response = requests.post(url, json=payload, headers=headers) data = response.json() ``` 2. **解析 HTML 页面结构** 当无法依赖正式渠道时,可借助 Selenium WebDriver 或 Beautiful Soup 等工具模拟浏览器行为加载动态生成的内容片段,并从中抽取特定标签内的文字信息。不过这种方法容易受到反爬机制干扰而失败率较高,建议仅用于实验性质的任务场景下尝试使用。 3. **清洗杂乱无章的信息源** 针对已经收集回来的大规模文本记录集合,往往还需要进一步整理才能满足后续加工需求。比如将混杂在一起的不同类别项目分开存储以便于单独检索;或者剔除掉无关紧要的部分只保留核心要素等等。这里提到过的 Excel 表格分割技巧就是一个很好的例子[^2]。 4. **保存最终成果物** 完成上述各阶段之后就可以着手安排导出环节啦~常见的文件格式包括但不限于 CSV、XLS(X) 和 PDF 文件形式。对于那些希望长期存档留证的朋友来说,后者无疑更加稳妥可靠些哦~ ```bash pandas.DataFrame(data).to_csv('output.csv', index=False) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值