蛇年的关键词应该是——“决定”,有太多需要向左向右做选择的时刻。
从4月到10月,个人处在工作和家庭的夹缝中,状态一直很混沌。四月一整月成都老家两头奔波,之后没缓多久又进入7 ~ 9月的高强度工作状态,整个人像掉了一层皮(很契合蛇年生肖😂)。
在十一的间隙,终于有时间去思考。当放下了执念,开始关注当下,才能明白自己真正追求的是什么。
今年的决定或许会影响到未来5年的发展,但我仍觉得是正确的,而且赶上这波AI对行业的重塑,或许有更多的机会。
蛇年的关键词应该是——“决定”,有太多需要向左向右做选择的时刻。
从4月到10月,个人处在工作和家庭的夹缝中,状态一直很混沌。四月一整月成都老家两头奔波,之后没缓多久又进入7 ~ 9月的高强度工作状态,整个人像掉了一层皮(很契合蛇年生肖😂)。
在十一的间隙,终于有时间去思考。当放下了执念,开始关注当下,才能明白自己真正追求的是什么。
今年的决定或许会影响到未来5年的发展,但我仍觉得是正确的,而且赶上这波AI对行业的重塑,或许有更多的机会。

很多人谈论AI时,默认它会提升所有人的效率。但从近期的就业市场信号来看,实际情况并非如此平均。
AI 并没有平等改善所有人的职业处境,它更像一个能力放大器。
它会让本来就有判断力、工具能力和独立交付能力的人,产出进一步放大;也会让那些主要依赖重复执行、流程衔接和中间协调工作的人,更快感受到岗位压力。
这意味着,科技就业正在进入一种越来越明显的 K 型分化:一端是更能借助 AI 放大价值的人;另一端则是被更高要求重新筛选、持续承压的中间层岗位。

这两年我越来越强烈地感觉到,信息问题早就不是获取不到,而是处理不过来。
真正让我疲惫的,不是没东西看,而是每天都有太多东西值得看:公众号文章、技术博客、GitHub Release、AI 新闻、社区讨论、长文、短讯、碎片化观点等等,全都在争夺我的注意力。
如果不做点什么,一个人的信息生活很容易退化成这样:

今年 3·15 晚会曝光了黑产通过 GEO(生成式引擎优化)技术给 AI"投毒"的事件。
被点名的力擎 GEO 优化系统,可以通过批量制造虚假信息、伪装内容来源,直接影响 AI 的推荐结果。更夸张的是,这项服务还提供抹黑竞品功能,通过向 AI 投喂虚假信息,干扰竞争对手的搜索表现。
这已经不是传统意义上的"软文"了,而是对"答案本身"的操控。
核心观点使用 AI 分析总结,笔者进行了一些调整,仅供参考。

过去一年,AI 公司和政府的关系一直在升温,但大多数讨论还停留在“谁签了单”、“谁拿到资格”和“谁更贴近监管”的层面。
直到这次 Anthropic 与五角大楼的正面冲突,问题才真正被摊开:对于大模型公司来说,进入政府市场,已经不只是产品能力、报价和交付周期的竞争,而开始变成一场安全定义权的竞争。
它看上去像一次企业公关危机,甚至像一场舆论战,但如果把视角再拉远一点,会发现它更像一场前哨战。AI 厂商、政府采购规则、国家安全逻辑,以及企业自己坚持的技术伦理边界,第一次如此直接地撞在了一起。

马斯克说:"美国芯片可能因缺电而闲置。"
这不是危言耸听。当 xAI 开始自己买燃气轮机发电、英伟达跑去投资核能公司、美国紧急批准 750 亿美元电网扩建,透露出一个信号:
AI 竞争的下一站,不在机房里,而在机房外。
过去几年,内容平台最常见的治理词是反作弊,即处理刷量、搬运、作弊等行为。
但从这轮AI 魔改专项治理开始,风向已经变了。平台不再只打击违规操作,而是在主动修复认知失真。
换句话说,过去是防流量作假,现在是防认知污染。

在《肖恩技术周刊25年总结》的来年规划中有一项是提升周刊的全流程自动化。终极目标是让个人只聚焦于阅读和笔记,剩下的交给工具,让它自己“写”出一篇周刊。
但若纯靠自己撸代码实现工具,虽然也能完成,但成本会高很多。一方面技术栈不熟,先学再写,时间成本过高;另一方面,日常事务繁忙,根本无法抽出整块时间进行沉浸式编程。
于是,我自然就想到了和AI结对编程。既能满足需求,又能借此深入了解市面上的各种AI编程工具,完成对AI编程的探索,可谓一举两得。
事不宜迟,说干就干!
PS:嫌“太长不看”的朋友可直接跳到总结部分。
本文最早撰写于4月,当时效果一般且工具JoyCode未开放外网因此文章也未发布。经过8个月的发展,编程智能体有了很大进步,越来越可用,生成的效果也越来越好。因此在新工具上执行了文章中相关案例,重新整理发布一下。
XML之父Tim Bray有个好玩的说法:“代码不写测试就像上了厕所不洗手……单元测试是对软件未来的一项必不可少的投资。” 从下图可以了解到85%的缺陷都在编码阶段产生,而发现Bug的阶段越靠后,修复成本就越高,而且是指数级别的增高!
从缺陷修复成本出发,单元测试的含金量不言而喻。

省流总结:
LLM之所以能“知道”应调用哪个MCP服务及其参数,并不是源自模型本身具备实时解析接口的能力,而是依赖于智能体框架在运行时自动收集、整理所有可用服务的描述和参数定义(schema)。
这些结构化信息通过特定的Prompt或函数调用协议作为上下文注入LLM。LLM基于用户输入和这些服务信息推理出是否需要发起服务调用,并以标准化格式(如JSON)输出调用指令和参数。
框架再解析LLM输出并完成实际调用,并将结果返回给大模型进行后续处理。
