10分钟搭建的n8n+公众号工作流!帮我自动获取了44篇历史文章!

今天分享通过n8n工作流如何获取特定公众号的全部历史文章。

公众号的历史文章,除了能够获取文章内容信息外,还可以分析出很多有价值的信息,如:

  • 选题策略

  • 标题结构和套路

  • 内容结构

  • 写作风格

  • 文章突出的价值点,用户共鸣点

如果你的运营存在上面的困扰,那么跟着我,打造一个你自己的运营效率神器。

1、流程任务思路详解

工欲善其事必先利其器,想要把工作流搭建好,前提是要把任务进行很好的拆解有了好的思路,这个时候搭建工作流,就像搭积木一样简单了。

这个工作流的主要思路如下:

首先要将指定的公众号账号进行配置。

然后根据用户输入获取当前公众号的总文章数量和页数。

按页分别获取文章链接并下载文章内容(这里需要用到循环)。

最后将文章内容的文字部分进行提炼并保存至本地。

我们按照上面的思路编排整个工作流,整体的工作流如下:

10分钟搭建的n8n+公众号工作流!帮我自动获取了44篇历史文章!

2、工作流节点详解

这个章节详细讲解整个工作流的搭建及注意事项。

工作流触发及公众号账号配置

这里有2个节点,主要包含一些基础配置和设定

  • 工作流触发

直接选择手动触发即可。

  • 指定公众号biz号配置(Edit)

我们用edit来让用户编辑目标公众号的biz号。

10分钟搭建的n8n+公众号工作流!帮我自动获取了44篇历史文章!

因为公众号没有开放数据接口,因此这里我们是用极致了的数据库,这里需要编辑极致了的key,方便后续节点调用。

key的获取请移步极致了官网,注册有免费额度赠送。

https://www.jzl.com

小技巧:如何获取公众号Biz

用网页打开指定公众号的一篇文章,按Ctrl+U或者鼠标右击里选择查看网页源代码,在里面找到biz,后面括号里的内容即为特定公众号的唯一识别号。

获取文章页数和分页

要想获取全部的历史文章,就得知道当前应该有多少文章,分为了多少页(5篇为一页),然后才能逐页获取文章列表并下载文章。

  • 总页数获取

使用http request节点来访问极致了,返回的数据中会包含文章总数和总的页数。

这是拉取的我自己的篇幅数量(包含删除的篇幅)。

10分钟搭建的n8n+公众号工作流!帮我自动获取了44篇历史文章!

节点的配置如下:

Method:Post
URL:https://www.dajiala.com//fbmain/monitor/v3/post_history

Header Parameters:
Content-Type=application/json

Body:
{
   "biz": "{{ $json.biz }}",
   "url": "",
   "name": "",
   "page": 1,
   "key": "{{ $json.JZL_Key }}",
   "verifycode": ""
}
  • 分页(code)

目的是根据总页数生成一个数组用来表示每一页,用于后面的循环体进行循环。

代码如下:

total=_input.first().json.total_page
orig=1
output=[]
page=[]
for i in range(total):
  page.append(i+1)
output.append({'page': page})
return output
  • 分裂

用split out节点将前面的页数数组进行拆分,然后开始循环。

文章获取并下载

从这一步开始,后续的节点全部都是在循环体中执行。每一次循环代表一页。

  • 文章链接获取

使用http request来获取每一页的所有文章链接。

Body的Json代码如下,这里的页数不再是一个固定的数,而是当前循环的页数:

{
   "biz": "{{ $("配置信息").item.json.biz }}",
   "url": "",
   "name": "",
   "page": {{ $json.page }},
   "key": "{{ $("配置信息").item.json.JZL_Key }}",
   "verifycode": ""
}
  • 分裂

用split out节点将一页5篇文章的信息进行拆分,以便后续跟对每一篇文章进行处理。

  • 文章下载

从前面节点得到的文章链接进行逐篇下载,获取文章的全部内容。

Method:Get
URL:{{ $json.url }}

Header Parameters:
User-Agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) Chrome/116.0.0.0 Safari/537.36

注意:这里的下载的内容文件一般比较大(10M以上),可以不下载不预览直接进行下一步调试。

文章内容提取和存档

最后一步就是要摘取文字内容并将其转化为文件并保存为本地文档。

  • 提取文本

使用HTML节点插件来摘取网页的文字内容部分,详细配置如下:

10分钟搭建的n8n+公众号工作流!帮我自动获取了44篇历史文章!
  • 转化为txt文件

使用文件转化节点将摘取的文章内容转化为txt文件,详细配置如下:

10分钟搭建的n8n+公众号工作流!帮我自动获取了44篇历史文章!
  • 文件保存到本地

最后一步将得到的txt文件,保存在本地磁盘。

这里使用write file to disk节点,根据自己的n8n挂卷情况设置合适的文件路径。

运行调试和优化

到了这里整个工作流就搭建好了,调试一下没有出错就大功告成。

运行完工作流后,整整齐齐的文件就自动流进你的电脑里了。

10分钟搭建的n8n+公众号工作流!帮我自动获取了44篇历史文章!

这么高效的工作流,赶快用起来吧,搭建过程中有问题在文章底部留言告诉我。

作者: 拉克AI智能体
来源: 拉克AI智能体

本文所引用的图文来自网络,版权归属原作者所有。本文基于合理使用原则少量引用,仅用于对数字营销的分析,非商业宣传目的。 若作者或版权方认为该引用损害其权益,请通过极致了数据微信: JZL3122 联系我方,我们将立即配合删除处理。

上一篇:

相关新闻

客服微信

联系我们

17764557165

微信号:JZL99876

邮件:474804@qq.com

工作时间:周一至周五,9:00-18:00,节假日休息