信息过载时代,我的漏斗式阅读工作流
信息过载时代,我的漏斗式阅读工作流

这两年我越来越强烈地感觉到,信息问题早就不是获取不到,而是处理不过来。
真正让我疲惫的,不是没东西看,而是每天都有太多东西值得看:公众号文章、技术博客、GitHub Release、AI 新闻、社区讨论、长文、短讯、碎片化观点等等,全都在争夺我的注意力。
如果不做点什么,一个人的信息生活很容易退化成这样:
- 收藏夹里躺满了文章,真正读完的却寥寥无几
- 每天浏览大量内容,能留在脑子里的却屈指可数
- 输入看似充实,输出却异常薄弱
- 以为自己一直在吸收信息,实际上只是在不同窗口间疲于切换
2026年,我开始认真整理自己的一套信息处理工作流。我不需要大而全的平台,也不想要那种号称能“一键替我读完互联网”的 AI 产品。
我只需要一套围绕自己运转的信息吸收漏斗:既能尽可能广泛地捕捉信息,又能提前过滤掉噪音和重复内容,只把真正值得投入时间的内容呈现在我面前。更重要的是,这套系统还要能将我精读后的高价值内容沉淀下来,反过来优化下一轮的信息筛选。
信息处理不追求看得更多,而是在于更稳定地吸收、判断和沉淀。
这篇文章,我将把这套工作流思路完整写下来,包括:
- 为什么我要这样做
- 它是怎么搭起来的
- 每一层分别承担什么职责
- 未来优化方向
如果你也在被信息过载折磨,或者你已经有不少输入工具,却还是觉得每天看了很多,脑子里没留下什么,那也许这篇文章会有点参考价值。
为什么要做信息吸收漏斗?

我以前也尝试过很多方法:
- 订阅很多 RSS,然后每天刷
- 把值得看的东西先扔进稍后阅读
- 用收藏、标签、笔记软件把文章存起来
- 靠搜索和回忆去找以前读过的内容
这些工具各有用处,但通常只能解决信息处理中的某一个环节。而个人信息处理真正的难点,从来都不在于单点突破,而在于如何将这些分散的环节串联起来。信息系统如果不能同时解决这两个问题,就很容易失控:
输入太多,内容太杂
几乎每一个你关心的领域,都在持续产生新内容。技术突破、产品迭代、AI进展、工具更新、商业动态、研究成果、行业变化……
而且在未经过滤之前,重要新闻、工具发布、经验复盘、广告软文、标题党、重复报道等往往都混在一起,让人难以分辨。
如果每一条内容都需要你从零开始判断其价值,那日积月累下来的认知负担会非常高。很多时候,人真正感到疲惫的不是读一篇长文,而是反复做这些微小但无意义的判断:
- 这篇文章值不值得点开?
- 这条消息是不是和刚才那条重复?
- 这个标题是不是在夸大其词?
- 这条内容到底在说什么?
- 这篇文章我只是需要了解一下,还是值得保存?
缺少精读回路
很多内容看完就过去了,既没有标记,也没有沉淀,更没有真正融入自己的知识体系。
如果信息系统永远只知道最新内容是什么,却不知道什么内容真正对你有帮助,那最多只能算是一个信息输送管道,而不是一个能越来越懂你的个性化系统。

所以我要的不是做一个更强的信息池,而是做一个更稳的信息漏斗。
桶的思路是往里装更多,漏斗的思路是让信息在往下走的过程中不断收窄,最后留下真正值得进入大脑和长期记忆的部分。
从实践效果来看,这套漏斗式信息处理工作流至少给我带来了几个显著的变化:
- 我不再需要每天从海量标题中艰难地筛选重点内容
- 低质量和重复的信息大部分在上游就被过滤掉了
- 真正值得精读的内容,会在更靠后的环节中呈现在我面前
- 我读过并认为有价值的内容,终于开始能够反过来优化后续的筛选逻辑
不是追求更快地刷完信息,而是实现更稳定地吸收知识。
为什么基于 OpenClaw 搭建?

由于流程尚处探索阶段,选择先用 OpenClaw 将整条链路串联起来,让系统先运行起来,验证可行性,发现问题后再逐步优化和完善。
OpenClaw 主要扮演编排层的角色,负责以下工作:
- 定时触发各类任务
- 串联不同的外部工具和系统
- 与飞书文档进行交互
- 与 Lumina 知识库进行联动
- 在需要的环节引入 AI 进行结构化内容生成
这种方式起步快、迭代快,非常适合边运行边优化,不需要一开始就投入大量精力构建完整的前后端系统。
如果你也想搭建一套类似的信息处理流程,需要做这些准备:
1. 可持续维护的信息源
这是整个系统的上游基础,需要先想清楚几个问题:
- 自己真正长期关注的主题领域是什么
- 这些领域的主要信息来源有哪些
- 哪些信息源值得长期订阅,哪些只是偶尔查看即可
这一步不需要追求大而全,但要尽量保持稳定和高质量。
如果你还没有构建自己的信息源,可以先参考我收集的 RSS 订阅源。
2. 统一的聚合池
我选择的聚合池是 FreshRSS,一个开源的RSS阅读器,支持多平台,支持自定义订阅,内容分类管理和API,非常适合用来进行内容存储和同步。
它并非最终阅读工具,而是信息汇聚的中转站,让所有信息源先汇聚到同一个地方,形成可持续消费的内容候选池。
3. 自动化编排层
这是 OpenClaw 最能发挥价值的地方,极大地降低了自动化流程实现的难度,通过自然语言描述诉求,在对话中逐步落地想法。我主要用它来完成以下任务:
- 定时执行 digest(自定义的预处理Skill)
- 定时执行 daily-review(自定义的内容精选Skill)
- 发布飞书文档
- 调用 Lumina(个人开源的知识库项目)
- 串联各个技能和脚本
4. 长期知识沉淀层

在我的工作流中,这一层使用 Lumina——个人开发的信息管理工作台。当然也可以使用别的笔记工具,如Notion、Obsidian等。
Lumina 只承接我经过筛选后确认值得长期保留的优质内容,这一步直接决定了后续反馈机制的质量。
一个系统最终能学到什么,很大程度上取决于你为它提供了什么样的正反馈样本。
信息处理工作流

一句话描述:用 RSS 尽可能广泛地捕捉信息,用 FreshRSS 进行稳定聚合,用 Digest 完成预处理,用 Daily Review 实现每日精选,通过人工精读判断内容的长期价值,用 Lumina 进行知识沉淀,最后将这些沉淀的价值反向转化为轻量的个性化信号。
这套流程的核心优势不是追求全自动,而是在于分层处理的设计理念。这意味着:
- 并非所有信息都值得投入时间精读
- 并非所有信息都值得长期留存
- 并非所有信息都需要进行个性化加权
- 并非所有信息都适合直接作为输出内容
一旦层次划分清晰,系统就不会退化为单一维度的推荐流,而会演变成一个真正的认知加工流程。漏斗的真正价值不在于让信息越来越少,而在于实现了这几个关键目标:
- 上游宽广:确保不会错过真正重要的信息变化
- 中游稳定:有效过滤噪音,避免其直接干扰注意力系统
- 下游精准:让我不必在不值得精读的内容上浪费时间
- 回流轻柔:通过轻量反馈机制,避免系统演变成封闭的信息茧房
个人信息系统核心能力不是如何接入更多信息源,而是要明确:哪些信息值得进入系统,哪些信息值得投入时间精读,哪些内容值得长期留存,哪些知识最终真正融入了你的思考和行动?
当能够清晰地回答这些问题时,就不再是互联网信息的被动接收者,你将拥有一套真正属于自己的认知处理系统。接下来将按顺序详细介绍每一层的工作原理。
信息源:以 RSS 为主,但不局限于原生 RSS

整个系统的最上游是信息源,主要依赖 RSS。
RSS 是最被低估的个人信息基础设施。其天然符合个人信息系统最核心的几个要求:
- 订阅权完全掌握在自己手中
- 信息来源清晰明确
- 更新内容结构化
- 不受平台推荐算法直接支配
- 便于程序接入和自动化处理
然而在现实中,有一个不可避免的问题:并非所有值得关注的信息源都提供 RSS 订阅。例如:部分公众号内容、某些社区的特定栏目、垂直网站的更新页面和社交平台上的账号动态。
因此,需要在信息源进入流程之前,尽可能将其统一转换为 RSS 或类似 feed 的格式。常见的方案有:
- RSSHub / RSS-Bridge 等转换工具:能够将大量原本不提供 RSS 订阅的内容源,转换为可以被订阅和程序自动化消费的 feed 格式;
- GitHub feed:项目的 Releases、Commits、Discussions 等,都天然提供了结构化的 feed 接口;
- wewe-rss:能够将公众号文章转换成RSS订阅源;
- nitter:将 Twitter/X 动态转换为RSS源;
- 自定义抓取脚本:对于没有现成 RSS 解决方案的页面,也可以自行编写轻量级的抓取脚本,将其转换为内部可用的 feed 格式。
这一步的原则很简单:上游信息源可以多种多样,但在进入系统之前,格式必须尽可能统一。只有这样,下游的预处理和筛选环节才能稳定可靠地运行。
更多信息源归一处理方案可参考之前文章碎片时间刷文章!懒人阅读方案分享。
聚合池:用 FreshRSS 打造稳定的“中间水库”

所有订阅源最终都会汇聚到 FreshRSS 中,它并非"我每天真正坐下来阅读的地方",而是流程的缓冲层,主要有以下作用:
实现信息来源的统一管理
无论内容来自博客、社区、GitHub 还是转换后的 feed,最终都以统一的格式呈现,成为可被消费的标准化对象。
让下游环节无需直接对接互联网
digest 模块无需再逐个访问各个网站抓取今日更新内容,只需从 FreshRSS 这个统一的内容池中获取未读候选即可。大大降低了系统各环节之间的耦合度。
确保了信息处理的时间连续性
信息系统最忌讳的是“今天临时查看一下、明天就忘了、后天又重新开始”的碎片化处理方式。FreshRSS 提供了一个稳定的时间窗口,使后续任务能够按照固定节奏有序运行。
我的目标不是追求无边界的信息获取,而是实现有边界的信息处理。
预处理:Digest 将海量候选内容转化为可判断对象

如果把 FreshRSS 比作蓄水池,那么 Digest 就是这套系统中的第一道加工厂,专注于完成内容预处理任务。
让人每天真正感到疲惫的,往往不是精读一篇高质量文章,而是反复判断大量低质量内容是否值得投入时间。
核心处理任务
- URL 精确去重
- 相似内容去重
- 正文抓取
- 质量检查
- 噪音过滤
- 摘要生成
- 初步排序与文档输出
在真正的“阅读”开始之前,先将互联网上天然混乱的信息整理成一批更具可读性的候选内容。
为什么重要?
如果没有预处理环节,后续的所有精选工作都将建立在一堆未经整理的原始标题之上。而经过 Digest 处理后,情况会改善:
- 标题党内容大幅减少
- 重复报道得到有效过滤
- 无法获取正文的无效数据明显减少
- 每条候选内容至少附带一个可供快速判断的摘要
这将显著降低后续阅读的认知成本。Digest 的职责并非编辑终稿,而是将候选内容池整理干净、结构化,为后续的精选环节奠定基础。
AI 精选:Daily Review 为我呈现重点关注内容

如果说 Digest 的作用是将原始候选内容处理得更具可读性,那么 Daily Review 则是从这些经过预处理的候选中,进一步提炼出当天真正值得关注的精华内容。
这一步让流程从预处理迈向编辑阶段。不再追求内容的广度,而是致力于打造重点更突出、结构更清晰的阅读体验,让最终产物更像一份真正意义上的日报,而非简单堆砌的摘要集合。
目前,我将 Daily Review 设计为几个固定栏目,将不同类型的信息分配到不同的认知槽位中,包含:
- 今日大事:聚焦具有公共重要性的事件
- 变更与实践:关注对个人有直接操作价值的内容
- 安全与风险:警惕潜在的风险因素
- 开源与工具:追踪工具生态的发展变化
- 洞察与数据点:把握行业趋势和关键数据
- 主题深挖:将单一新闻事件提升到趋势层面进行分析
LLM 赋能
从 Digest 输出的候选内容,到 Daily Review 最终的成稿层,中间有很多工作适合 AI 来完成:
- 合并同一事件的多个信息来源
- 提炼核心主题
- 为内容分类并分配到对应栏目
- 识别值得深入探讨的话题
- 将零散的候选内容重组为人类可以快速阅读的日报结构
但我对 AI 在这一环节的应用始终保持克制。不是让 AI 全自动生成日报,而是扮演结构化整理者的角色,从候选内容中筛选出当天和我相关的精华部分。
精读留存:将 Human in the loop 置于系统核心

前面所有流程,都是为将信息筛选到值得精读的阶段。真正让系统不至于退化为另一种自动化信息流的,正是这一关键环节:Human in the loop(人在回路中)。
我坚信,在个人知识系统中,最不能完全外包的是长期价值判断能力。
系统可以协助我完成许多任务,如信息收集、去重、摘要、聚类、排序和精选等。但它无法完全替我做出关键决策:
- 哪些内容真正值得纳入长期知识库
- 哪些内容在未来会持续发挥价值
- 哪些内容会对我的写作和判断产生深远影响
因此,在我的工作流中,Lumina 前面始终设有一道人工筛选门槛。我会从之前各个环节产生的内容中,挑选出真正值得精读和长期留存的内容。
这是整套系统中最关键的价值确认环节。能够进入 Lumina 的内容,不仅代表我看过,更意味着我认为这篇内容值得在未来持续为我所用。
个人画像:让系统学会识别对我真正有价值的内容

如果流程到 Lumina 就戛然而止,那么它仍然只是一个单纯的过滤和沉淀系统。只有当沉淀的内容开始反过来影响上游的信息选择时,整个系统才真正形成了闭环。
为此我加入了一层设计较为克制的兴趣画像逻辑。
刻意控制了影响力,不希望整个系统演变成另一个猜你喜欢的推荐引擎。我只需要它能稍微更懂我,但又不过度迎合我的偏好,保留对公共重要性内容的关注和探索未知领域的空间。
这层画像目前主要承担轻量 rerank 的功能,作为辅助信号,轻微影响 Digest 和 Daily Review 环节中候选内容的排序。主要从以下几个维度逐步学习我的偏好:
- 长期精读的主题领域
- 能稳定提供价值的信息源
- 偏好的内容格式
- 最终存入 Lumina 知识库的内容类型
轻量引导的设计,旨在减少无效信息对注意力的浪费,同时避免构建封闭的信息茧房。个性化推荐应帮助我们减少无意义的判断,而非让我们躲进舒适区。
沉淀:将信息流转化为长期内容资产
信息漏斗的终点不是读完,而是沉淀。目前从两个方向拓展沉淀的价值:
1. 周刊生成
当系统积累了一周的高质量内容后,就不应再局限于每天生成一份日报。一周的时间跨度非常适合进行复盘总结。此时,系统已经拥有了丰富的素材:
- 一周的 Digest 预处理结果
- 一周的 Daily Review 精选内容
- 若干经过价值确认的 Lumina 知识库内容
- 一些开始反复出现的热门主题
此时生成周刊,比单纯从网页上抓取热点更有价值。因为这些内容已经经过了个人筛选和沉淀,带有明显的个性化痕迹。周刊不应仅仅是本周发生了什么的简单罗列,更应该具备深度和价值:
- 本周有哪些主题值得重点关注和记忆
- 哪些变化只是短期噪音,哪些是值得重视的长期信号
- 哪些内容具有长期参考价值,值得反复回看
周刊合集👉🏻:肖恩技术周刊

2. 主题文章生成
另一个方向是让系统能够逐渐识别哪些主题已经积累了足够的素材,值得写成长篇文章。
虽然信息流中的内容看起来是离散的,但如果拉长时间维度观察,就会发现很多内容其实都在指向同一个核心主题,例如:
- AI Agent 工程的发展趋势
- 开源工具链的演变
- 内容平台分发机制的变革
- 隐私保护、合规要求与数据治理
一旦某个主题在一段时间内反复出现,并且我多次对相关内容进行精读、收藏和沉淀,那么它就不应再仅仅是多条零散的新闻,而应该逐渐发展成为一个可以深入挖掘和输出的长期主题。
内容合集👉🏻:今日观察

未来迭代方向

尽管工作流目前已经能够稳定运行,但它远未达到最终完成的状态。可以继续完善的方面有:
细化反馈机制
目前系统中最强的反馈信号是这篇内容是否被存入 Lumina。但在理想状态下,我希望系统能够逐渐识别更多层次的用户行为:
- 点开内容但未读完
- 读完内容但未收藏
- 内容值得精读
- 内容值得长期沉淀
- 内容最终影响了写作、决策或实际实现
- 不喜欢的内容(负反馈)
一旦这些层次的反馈机制得以完善,兴趣画像将变得更加精准,不再只是一个粗粒度的偏好集合。
进一步抽象流程
目前,我更倾向于继续在现有的 OpenClaw 体系内迭代优化,这是探索阶段最适合的方式。
但如果这套流程能够变得更加稳定,职责边界也更加清晰,那么抽象出其中的信息处理内核,会更有利于后续工程化迭代。
不过比起将其产品化,还是先让这套漏斗系统持续稳定地运转,越来越懂我。
结语
信息处理的关键,从来不是看到更多,而是让真正重要的信息被自己接住。
当信息经过筛选、精读、沉淀和反馈,真正融入知识结构时,我们不再是信息的被动消费者,将真正成为自己信息环境的主人。
