这周Hacker News上关于AI的讨论有两条主线。一条是形而上的——关于AI到底是在帮人思考还是在替人躺平这条在HN上拿了340分。另一条是形而下的——AI把电网干到崩溃边缘EIA美国能源信息署刚发了报告2026-2027年美国电力需求要创历史新高原因是AI和数据中心。两件事看起来毫无关系但放在一起看挺有意思的。那篇340分的文章到底说了什么文章标题叫《AI should elevate your thinking, not replace it》作者Koshy John。他观察到一个现象软件工程师这个群体正在因为AI分化为两个完全不同的物种。第一类把AI当杠杆用。消除重复劳动、加快执行速度把省下来的时间拿去思考真正重要的事——定义问题、做权衡、识别风险、创造真正的洞见。第二类把AI当大脑用。写prompt、收输出、把AI生产的内容当成自己的推理结果拿出去汇报。短期内看起来挺有效率的甚至可能显得很有才。但这是死胡同。最要命的是第二种人的一个特征作者用了八个字intellectual dependency being labeled as leverage。翻译过来就是把知识依赖包装成了能力杠杆。每次你用AI替代了本该自己理解的内容你其实是在跳过练习这个环节——而这个环节是判断力形成的土壤。你在用长期能力换短期产出。你的地基是空的但你暂时意识不到因为楼还立着。作者还举了一个特别扎心的例子一个学生考试作弊看起来也能拿高分甚至长期看起来都很成功。但当有一天他面对一个需要真正理解的场景真相就暴露了。他没有底层能力他只有上层的幻觉。工程师用AI写代码是同一回事。191分那篇更狠《Simulacrum of Knowledge Work》知识工作的拟像这篇东西在HN拿了191分读完之后我觉得比340分那篇更值得焦虑。核心论点是知识工作有一个根本缺陷——判断别人工作质量的成本太高所以大家都在用代理指标。比如看一份报告日期对不对、错别字有没有、图表标得清不清楚。这些代理指标不能完全反映报告质量但检查成本低而且相关性足够高所以大家都在用。LLM打破了这个平衡。LLM可以生成一份看起来像顶级咨询公司出品的专业报告——格式漂亮、措辞严谨、逻辑自洽。但这份报告的内容质量是空洞的。问题是你很难低成本地判断这一点。作者描述了一个正在蔓延的场景工程师用AI写了几千行代码代码审查时让AI来做AI代码审查发现一堆问题这些问题被解决然后代码被标记为LGTMLooks Good To Me。代码审查的仪式被维持了但代码本身的质量没有真正被验证。知识工作的拟像已经建成了。而激励机制几乎保证了这东西只会越来越真。原因很简单大部分员工的考核维度是产出看起来怎么样而不是产出到底解决了什么问题。既然这样用AI生产漂亮输出就是理性选择。而且LLM本身也有这个问题——训练时优化的是看起来像高质量输出而不是答案是否真实有用。我们用大量算力优化出了极其擅长生产看起来对的内容的系统。所以结局就是我们花了数十亿美元建出了用来生产工作拟像的系统。公司们正在争夺tokens-spent排行榜的名次。打工人用AI产出越来越多内容但没人有时间真正审视这些内容。所有人的工作都变成了 skim it, slap LGTM on it。一个开发者工具和浏览器API插播两条技术向的新闻。EvanFlowHN 29分一个TDD驱动的Claude Code反馈循环工具。简单说就是让你的AI编程工具在TDD模式下运行——先写测试AI帮你过测试然后继续。这个工具在HN拿到29分热度不算高但思路很有意思不是让AI随便生成代码而是用TDD的约束让AI的输出更可靠。Chrome Prompt APIHN 32分Chrome推了一个浏览器原生的Prompt API可以直接在浏览器里调用本地运行的AI模型。这东西意味着以后网页应用可以更容易地集成本地AI能力不需要每次都走云端API。隐私敏感的场景下很有价值。能源问题来了EIA美国能源信息署最近发了一个警告2026-2027年美国电力需求要创历史新高。原因AI和数据中心。这个新闻在HN只拿了3分说明HN的用户群对能源问题普遍不太感冒。但这个问题一点都不遥远。AI的竞赛本质上是能源的竞赛。训练大模型需要电推理需要电冷却需要电。每一个ChatGPT的请求消耗的电力是传统搜索的十倍以上。当这个规模扩展到整个互联网经济电网压力是真实的。而且这不是将来时。俄亥俄州的电网已经出现过压力警报多个数据中心项目因为电网容量不足被推迟。电网建设速度追不上AI扩张速度这件事在2025-2026年已经不是预测是现实。一个社区讨论HN上有一个Ask讨论帖Will local models on normal hardware ever compete?本地模型在普通硬件上能追得上云端模型吗这个问题很实在。Llama、Qwen这些开源模型在进步但苹果的端侧模型、高通的AI PC芯片也在进步。本地模型的优势是隐私和延迟劣势是性能。什么时候这个差距能小到让大多数用户不在意目前来看一些垂直场景已经可以本地化了——文案生成、代码补全、总结类的任务。但复杂推理、多模态生成还是云端强。这个问题没有确定的答案但有一个趋势是确定的硬件在追软件在追但AI能力的提升速度更快。差距在缩小但消失还需要时间。我的判断这两篇HN文章放在一起说的其实是同一件事的两个面一面是认知层我们在用AI生产越来越真的工作拟像同时也在失去真正做事的能力。就像那些考试作弊的学生——短期看起来没问题长期没有底层支撑。另一面是物理层AI的竞赛正在变成能源的竞赛我们花了巨大的电力来支撑这个拟像工厂的运转。两个面加在一起有一种荒诞感我们用高能耗生产知识的拟像同时正在失去真正的知识判断力。这不是技术问题这是激励问题。考核一个人产出看起来怎么样而不是解决了什么这个激励机制不改AI只会越来越深地嵌入这个拟像循环。