2025-09-04 Hacker News Top Stories #
谷歌在反垄断案中被禁止签订独家合同,但允许保留Chrome浏览器,并需调整其搜索引擎 exclusivity agreements。 Sanity公司员工工程师分享了AI在开发工作流程中的应用经验,强调AI作为辅助工具的作用,并探讨了其局限性。 Claude Code现已在Zed中以测试版发布,通过ACP协议提供更好的代码生成和编辑体验,并支持自定义工作流。 CPU利用率并非完全反映实际工作量,超线程和涡轮技术导致其非线性,建议通过基准测试监控服务器性能。 VibeVoice是一个开源文本转语音模型,支持长篇、多说话人对话,并具备跨语言和背景音乐生成功能。 一名开发者成功将博客运行在回收的Google Pixel 5上,展示了旧硬件的创新利用和环境友好性。 腾讯混元团队推出交互式视频生成模型Voyager,支持3D重建和自定义相机路径,适用于大规模数据集。
Google can keep its Chrome browser but will be barred from exclusive contracts #
https://www.cnbc.com/2025/09/02/google-antitrust-search-ruling.html
Alphabet 公司的股票在盘后交易中上涨了 8%,因为谷歌在具有里程碑意义的反垄断案件中避免了最坏的处罚。去年,谷歌被判定在其核心的互联网搜索市场中非法持有垄断地位。美国地区法官 Amit Mehta 裁定,谷歌可以保留其 Chrome 浏览器,但将被禁止签订独家合同。这一决定是在他近一年前裁定谷歌非法垄断互联网搜索市场之后作出的。谷歌每年向苹果支付数十亿美元,以成为 iPhone 上的默认搜索引擎。在这一消息公布后,苹果的股价在盘后交易中上涨了 4%。根据 Mehta 的裁决,谷歌可以向预装其产品的公司支付费用,但不能签订以支付或许可为条件的独家合同。谷歌还被要求放松对搜索数据的控制,必须共享某些搜索索引数据和用户交互数据,但不必与广告商共享或提供访问粒度数据。
HN 热度 839 points | 评论 587 comments | 作者:colesantiago | 1 day ago #
https://news.ycombinator.com/item?id=45108548
- 记者不提供在线 PDF 链接是因为想降低跳出率,增加用户参与度。
- 记者不引用原始资料是因为他们自视为信息的守门人,认为读者无法处理原始材料。
- 记者不提供链接是因为他们担心读者发现报道或原始资料中的错误。
- 大型新闻机构的记者和编辑不会故意不提供链接,而是由于工作流程和 CMS 系统的限制。
- 记者不提供原始链接是因为历史上报纸和电视新闻没有链接的传统。
- 一些组织悄悄要求编辑阻止人们点击到第三方网站,以免注意力流失。
- 记者可能认为他们的专长是与人交谈获取信息,而不是阅读和总结大家都能访问的内容。
- 记者可能故意从研究中提取细节,以误导读者,以支持他们想要讲述的故事。
A staff engineer’s journey with Claude Code #
https://www.sanity.io/blog/first-attempt-will-be-95-garbage
这篇文章由 Sanity 的一名员工软件工程师 Vincent Quigley 撰写,分享了他如何将人工智能(AI)集成到生产开发工作流程中。文章讨论了实际工作中 AI 的作用、浪费时间的地方以及为什么将 AI 视为一个“不学习的初级开发者”是成功的心智模型。
Quigley 的编程方法在他的职业生涯中经历了四次转变:最初 5 年通过阅读书籍和 SDK 文档学习编程;接下来 12 年通过谷歌搜索寻找群体智慧的答案;18 个月使用 Cursor 进行 AI 辅助编码;最近 6 周使用 Claude Code 进行完整的 AI 委托开发。每次转变都比上一次更快。
在 AI 的帮助下,Quigley 的工作流程现在是:AI 主要用于“思考”,与他一起工作以实现最终进入生产的代码。他强调,不要期望一次性生成完美的代码。工程师的工作是找到问题的最佳解决方案,而不仅仅是编写代码。通常需要三次尝试:第一次尝试(95% 的垃圾率),Claude 建立系统上下文,识别实际挑战,代码通常完全错误;第二次尝试(50% 的垃圾率),Claude 理解细微差别,定义具体方法,但一半时间仍然不可用;第三次尝试(最终可行),Claude 实现我们可以迭代和改进的内容,不断审查和纠正方向,这成为起点,而非最终代码。
文章还讨论了 AI 无法在会话之间保留学习(除非你花时间手动给它“记忆”)的问题。Quigley 的解决方案包括创建项目特定的上下文文件 Claude.md,以及通过工具集成连接 AI 到不同的工具以获取上下文。他还提到了管理多个 AI“开发者”的策略,包括不平行化相同的问题空间、在项目管理工具中跟踪一切以及明确标记人工编辑的代码。
Quigley 还分享了他的代码审查过程如何随着采用 AI 而演变。Claude 首先审查代码,捕获缺失的测试覆盖率、发现明显的错误并提出改进建议,这为他和他的同事节省了时间和额外的审查轮次。然后他自己审查重要事项,确保代码库可维护、架构决策合理、业务逻辑正确以及集成点良好。团队正常审查代码,他们很少知道哪些代码是 AI 生成的,质量标准保持不变。
文章还提到了使用 Cursor 进行背景代理的早期实验,这些代理使用 Slack 触发,用于简单任务。他们测试了业务逻辑修复的成功案例和 CSS 布局的失败案例。当前的限制包括无法访问私有 NPM 包、提交未签名以及绕过正常跟踪。尽管如此,Quigley 认为这种代理处理小工单的潜力巨大。
最后,Quigley 讨论了 AI 辅助开发的实际成本,他的 Claude Code 使用每月花费公司相当一部分他的薪水,但这项投资使他能够以 2-3 倍的速度交付功能,同时管理多个开发线程,并在样板和重复代码上花费零时间。他建议为全力投入 AI 开发的高级工程师预算每月 1000-1500 美元,并给予他们时间随着熟练度提高而更有效地使用 AI。文章还提到了 AI 辅助开发中持续存在的挑战,包括 AI 不从错误中学习,需要反复修复相同的误解,以及更好的文档和更明确的解释是解决方案。
HN 热度 500 points | 评论 362 comments | 作者:kmelve | 1 day ago #
https://news.ycombinator.com/item?id=45107962
- LLMs 在编写简单或样板代码时表现不佳,但在调试现有代码和头脑风暴新问题解决方案方面表现良好
- 由 LLMs 编写的代码需要严格监控其正确性、风格和设计,并通常需要编辑至原始大小的一半
- LLMs 将成为软件工程师工具箱中的标配,但目前能力下不会取代任何人
- 新软件工程师受影响最大,因为他们最不擅长编辑 LLMs 的回应
- 在高级水平上,有时使用 LLMs 可以节省大量时间,有时则可能浪费时间,总体上可能是正面的,但也有些糟糕的日子会让你花费太多时间来回修改,本应自己解决问题
- 通过搜索解决方案和整合 Stack Overflow 上的例子需要的努力可以发展成技能,LLMs 可能会减少对周围环境的了解,从而破坏信任
- 没有反馈循环的学习不会发生,短周期的反馈(如与高级开发者配对、手动和自动化测试)对学习至关重要
- LLM 可以帮助学习,如果询问它如何改进,高级开发者可以制定预提示以考虑公司习惯
- 从搜索 Stack Overflow 和其他类似资源转向阅读文档和代码是技能提升的一个重要转折点,虽然起初更慢,但随着时间的推移,周围的上下文变得重要
- 存在一种错误的信念,即一切都很简单,但简单中有很多复杂性,专家和新手之间的定义特征是他们对细微差别的了解
- 尽管有关 AI 的讨论令人疲惫,但看到历史正在发生也是有趣的,十年后回顾这些对话会很有趣
- 考虑编写一个 Firefox 扩展,自动隐藏任何包含 LLM/AI 相关关键词的 HN 标题,以便再次找到有趣的内容
- 技术领域的发展是循环的,但每个循环都在进步,尽管进步很慢
- 软件开发的实践正在进步,例如源代码控制、一键构建、每日构建、bug 数据库、修复 bug、最新时间表、规范、安静的工作环境和最佳工具的使用等,尽管有些方面仍有改进空间
MIT Study Finds AI Use Reprograms the Brain, Leading to Cognitive Decline #
麻省理工学院的一项新研究《您的大脑在 ChatGPT 上:在使用 AI 助手进行写作任务时累积的认知债务》发现,使用 ChatGPT 帮助写作会导致长期的认知损害,这种损害可以通过脑电图(EEG)扫描来测量。研究发现,反复依赖 ChatGPT 的学生显示出神经连接减弱、记忆回忆受损和对自己写作的所有权感降低。尽管 AI 生成的内容往往得分较高,但背后的大脑却在关闭。
研究结果表明,像 ChatGPT 和 Grok 这样的大型语言模型(LLMs)不仅帮助学生写作,还训练大脑不参与。EEG 扫描显示,随着对外部工具依赖的增加,大脑的神经连接系统性减弱:仅用大脑的组别显示出最强、最广泛的连接;搜索引擎组别为中等;LLM 组别在 α、β、δ 和 θ 波段的连接最弱。
LLM 用户在完成任务后的采访中,83.3% 的人无法引用他们刚刚写的任何一句话,而搜索引擎和仅用大脑的用户中有 88.9% 能够准确引用。在使用 LLM 的用户中,0% 的人能够正确引用,而大多数仅用大脑和搜索引擎的用户可以。
参与者在之前使用 LLM(然后在第四阶段不使用它写作)时显示出记忆回忆减弱、α 和 β 神经参与降低,以及认知适应向被动性和“效率”的迹象,这是以努力学习为代价的。
当被问及作品的作者身份时,LLM 用户给出了“50/50”或“70% 是我的”等回应,有些人甚至声称没有所有权。而仅用大脑的组别几乎普遍报告完全拥有所有权。
从 LLM 转换到仅用大脑的用户在第四阶段显示出持续的认知缺陷,未能恢复到原始(第一阶段)的大脑活动模式。即使停止使用 AI,他们的神经活动仍然低于基线。
搜索引擎用户显示出更健康的大脑参与,维持了更强的执行功能、记忆激活和引用回忆。EEG 数据显示,支持视觉处理和认知努力的枕叶和顶叶激活更为强健。
AI 依赖导致“认知卸载”,研究人员注意到大脑向神经效率适应的趋势:大脑基本上“放弃”了合成和记忆所需的努力。这种适应导致了被动性、最小编辑和概念整合度低。
尽管 LLM 组的写作从评委那里得到了不错的分数,但他们的作品缺乏战略性整合、使用的结构较少、更短且更机械。随着时间的推移,该组显示出参与度、表现和自我报告满意度的持续下降。
基于这项研究,随着全球人口越来越多地依赖人工智能完成复杂任务,我们的认知能力和创造能力似乎准备陷入衰退。一个明确的信息是:如果你目前使用 AI,请定期休息,并给你自己的大脑一个工作的机会。否则,你可能会面临严重的认知损害和依赖。这些机器不仅仅是接管我们的工作——它们正在接管我们的思想。
HN 热度 495 points | 评论 485 comments | 作者:cainxinth | 11 hours ago #
https://news.ycombinator.com/item?id=45114753
- 通过实践和编码可以提高分析论文和合成想法的能力
- 技能分化:能够深入理解概念并编码实现的人,以及将工作外包给机器而逐渐失去这种能力的人
- 我们正在像以前对待编译器一样,提升抽象层次
- 抽象是确定性的,而 LLMs(大型语言模型)是概率性的,因此消费者需要检查结果是否正确
- 智能的委托可能导致一方变得更愚蠢,而另一方变得更聪明
- 进入管理层就像委托智能一样,可能导致程序员过早地变成不懂技术的管理者
- 委托工作并不使人更聪明,而是使人更有效率,可以有时间在其他事情上变得更聪明
- 所有参与方都可以随着时间的推移变得更聪明
- 外包工作可以提高生产力,但并不等同于变得更聪明
- 程序员使用抽象时,应该能够在没有抽象的情况下工作,并能够构建自己的抽象
- 大多数程序员不知道汇编语言,实际上无法在没有抽象的情况下工作
- 在嵌入式编程中,有时需要手动调整汇编代码以解决编译问题
Claude Code: Now in Beta in Zed #
https://zed.dev/blog/claude-code-via-acp
Claude Code 现已在 Zed 中以公开测试版的形式推出,通过新的 Agent Client Protocol (ACP) 原生运行。开发者们一直期待将 Claude Code 集成到 Zed 中,而我们不仅仅想要简单地添加一个一次性的集成,而是想要构建更好的解决方案。ACP 是我们新推出的开放标准,允许任何代理连接到 Zed(以及其他编辑器)。Claude Code 就是这种可能性的完美示例。
现在,用户可以在 Zed 的高性能编辑器中作为一等公民运行 Claude Code,而不仅仅是一个终端界面。可以实时跟随它编辑多个文件,拥有完整的语法高亮和语言服务器支持。在多缓冲区中审查和批准细粒度的更改,接受或拒绝单个代码块。在侧边栏中固定 Claude Code 的任务列表,以便始终看到代理正在处理的内容。定义自定义工作流程,使用 Claude Code 的自定义斜杠命令来完成最常见的开发任务。
Claude Code 在 Zed 中的集成不再局限于命令行界面,而是将强大的代码生成和精细调整的工具与高性能编辑器深度集成,让用户在终端之外也能获得更好的控制和更全面的视角。
这次集成使用的是 ACP,我们为此构建了一个适配器,将 Claude Code 的 SDK 包装起来,将其交互转换为 ACP 的 JSON RPC 格式。这个适配器在 Claude Code 和 ACP 的标准化界面之间架起了桥梁,允许 Claude Code 作为一个独立进程运行,而 Zed 提供用户界面。我们将开源 Claude Code 适配器,根据 Apache 许可证免费提供给任何采用 ACP 的编辑器使用。
我们希望每个代理都能在 Zed 中使用。Gemini CLI 和 Claude Code 是一个很好的开始,我们还有更多计划,但每周都有新代理发布,许多优秀的现有代理尚未支持该协议。ACP 使得将任何代理带入 Zed、Neovim 或任何其他 ACP 适配编辑器的界面变得简单。
我们正在寻找反馈,并欢迎其他代理(和客户端)构建者的反馈和贡献。在 Zed 中工作的代理越多,作为开发者的你拥有的选择就越多。如果你正在寻找一个更好的编辑器,现在可以在 macOS 或 Linux 上尝试 Zed。
HN 热度 414 points | 评论 284 comments | 作者:meetpateltech | 8 hours ago #
https://news.ycombinator.com/item?id=45116688
- Zed 获得红杉资本投资,有望与 Cursor 形成竞争
- 有用户认为 Zed 的 AI 自动补全功能不如 Cursor 准确
- 有用户期待 Augment 为 Zed 开发插件,因为 Augment 在 JetBrains IDEs 中表现良好
- 有用户希望 Zed 能允许用户购买本地运行的自动补全 AI 模型,而不是在服务器上运行
- 有用户提出使用更少的训练数据,专注于编程文档和商业写作的 AI 模型
- 有用户指出,当前的大型语言模型需要大量数据进行预训练以获得“智能”
- 有用户提到 Zed 有一个 PR 提供了通过 Ollama 实现的内联编辑补全功能
- 有用户表示可以使用本地模型,可以在设置中选择 Ollama
- 有用户认为 Copilot 集成在 Zed 中远远落后于 Cursor
- 有用户认为 AI 自动补全是 Cursor 最有效率和帮助的功能
- 有用户认为同时使用 AI 自动补全和代理可以提高工作效率
- 有用户提到 GH Copilot 在自动补全方面可能已经赶上了 Cursor,但自己没有最近比较过
- 有用户提到 Windsurf 在自动补全方面表现良好,并且可以在 Windsurf 的免费计划中使用
- 有用户认为 Zed 虽然在代码生成质量上有所欠缺,但在不是 Electron 应用方面有所弥补
- 有用户认为 Electron 应用在内存占用和 UI 卡顿方面存在问题,而现代编辑器有机会提供更好的体验
- 有用户指出在电池使用场景下,原生应用与 Electron 应用在工作效率上的差异可能意味着几个小时的电池寿命损失
- 有用户提到 Zed 缺少插件支持
%CPU utilization is a lie #
https://www.brendanlong.com/cpu-utilization-is-a-lie.html
这篇文章探讨了 CPU 利用率(%CPU Utilization)的问题,指出人们普遍认为的 CPU 利用率与实际工作量之间的关系并不准确。作者通过在一台装有 Ryzen 9 5900X 处理器的 Ubuntu 桌面计算机上进行压力测试,监测了系统报告的 CPU 利用率与实际完成的工作量之间的关系,并将结果进行了图表化展示。
在测试中,作者使用了两种不同的方法:一种是使用 24 个工作线程,每个线程从 1% 到 100% 的不同利用率运行;另一种是使用 1 到 24 个工作线程,全部以 100% 的利用率运行。测试结果显示,当系统报告 50% 的 CPU 利用率时,实际完成的工作量可能在 60-65% 之间,而在 64 位整数数学测试中,这个比例甚至达到了 65-85%。在矩阵数学测试中,50% 的利用率实际上完成了 80% 到 100% 的最大工作量。
文章分析了这种现象的原因,主要归结于超线程技术(Hyperthreading)和 Turbo 加速技术。超线程技术使得机器上的一半“核心”与其他核心共享资源,当超过物理核心数的工作线程被调度时,每个额外的工作线程都会与另一个工作线程共享资源,这在某些情况下会降低效率。而 Turbo 技术则使得处理器在低利用率时以更高的频率运行,但随着更多核心的激活,频率会逐渐降低,这也影响了 CPU 利用率的计算。
作者强调,如果简单地根据 CPU 利用率来预测性能,可能会遇到问题。如果 CPU 使用效率高(超过“50%”利用率),报告的利用率往往是低估的。由于不同处理器的超线程性能和 Turbo 行为可能有很大差异,作者建议通过运行基准测试来监控服务器实际完成的工作量,而不是仅仅依赖 CPU 利用率。这样可以更准确地了解服务器的性能和限制。
HN 热度 413 points | 评论 146 comments | 作者:BrendanLong | 23 hours ago #
https://news.ycombinator.com/item?id=45110688
- CPU 利用率并非谎言,它是一个明确数量的测量,但人们会基于此做出假设来推断容量模型,这是现实与期望产生分歧的地方。
- 多线程和涡轮增压只是导致非线性的一部分变量,还有许多其他资源是跨核心共享的,随着负载增加会“耗尽”,比如内存带宽、互连容量、处理器缓存。
- 大多数 CPU 利用率指标是在非常长的窗口内平均的,从几秒到一分钟,但对于延迟敏感的服务器性能来说,重要的是几十到几百毫秒的时间尺度,多秒平均无法区分突发行为和平滑行为。
- 建议的方法也不够准确,因为它依赖于两个本质上不稳定的概念:基准测试服务器在出现错误或不可接受的延迟之前能做多少工作,以及报告服务器当前正在做多少工作。
- 通过使用 perf 和/或 ftrace,可以获得短时间内高度详细的处理器指标,可以看到缓存未命中导致的 CPU 停顿、内存访问导致的 CPU 停顿、调度器效应等。
- 对于许多工作负载来说,大约 80% 的 CPU 利用率是一个粗略的经验法则,超过这个值,工作负载延迟就会受到严重影响。
- 要知道延迟受利用率影响的程度,需要测量特定工作负载。
- 对于现代多核、超线程的 CPU 来说,60% 左右的利用率可以被认为是“负载”的服务器。
- 公共面向的工作与用户请求有关,或者是简单地从稳定的积压/队列中处理数据/数字以构建 AI 模型。
- 超过 65% 的 CPU 负载持续 30 分钟或以上意味着服务器达到了 100% 的有效利用率,需要尽快扩展。
- IO 密集型应用超线程表现良好,可以推动到 100%。
- 等待 SQL 结果或下游结果的等待占据了大部分运行时间。
- IEEE Hot Interconnects 讨论了 Ultra Ethernet 的延迟性能调整,2 秒或 5 秒的视图看起来平滑,但在 100 毫秒时可以看到明显的帧突发效应。
- CPU 利用率不是线性的,百分比是线性度量,CPU 利用率不是谎言,%CPU 利用率是。
- CPU 利用率永远无法达到 100%,因为并非所有 CPU(甚至一个核心)的组件实际上可以同时使用。
- 两个工作负载都注册了 100% 的 CPU 使用率,但一个工作负载消耗更多的电力,使 CPU 加热更多,似乎那个工作负载更多地利用了 CPU。
- 存在一种称为“race to sleep”的现象,即尽可能快地点亮尽可能多的核心,以便尽快让 CPU 回到空闲状态以节省电池电量。
VibeVoice: A Frontier Open-Source Text-to-Speech Model #
https://microsoft.github.io/VibeVoice/
VibeVoice 是一个创新的开源文本转语音(TTS)框架,专为生成富有表现力、长篇、多说话人的对话音频而设计,例如播客。它解决了传统 TTS 系统中的可扩展性、说话人一致性和自然交替等重大挑战。VibeVoice 的核心创新在于使用连续语音分词器(声学和语义),以 7.5 Hz 的超低帧率运行,这些分词器在保持音频保真度的同时显著提高了处理长序列的计算效率。该模型采用下一个令牌扩散框架,利用大型语言模型(LLM)理解文本上下文和对话流程,以及一个扩散头部生成高保真度的声学细节。VibeVoice 能够合成长达 90 分钟、多达 4 个不同说话人的语音,超过了许多先前模型通常的 1-2 个说话人限制。
VibeVoice 的特点包括:
- 上下文感知表达:能够根据文本上下文生成自然的语言表达。
- 自发情感:能够自发地表达情感,使对话更加生动。
- 自发歌唱:能够在对话中自然地融入歌唱部分。
- 带有背景音乐的播客:能够生成带有背景音乐的播客音频。
- 跨语言能力:支持普通话到英语以及英语到普通话的语音合成。
- 长篇对话语音:能够处理长篇对话的语音合成,生成准确的时间戳,尽管时间戳可能存在错误。
HN 热度 371 points | 评论 143 comments | 作者:lastdong | 12 hours ago #
https://news.ycombinator.com/item?id=45114245
- 有些评论者认为 VibeVoice 的声音虽然比几年前的技术有所进步,但仍然不够自然,存在明显的机器人感。
- 有评论指出 VibeVoice 在中英文混合发音时表现较好,但对其他语言的发音评价不高。
- 一些评论者对 VibeVoice 的唱歌功能表示质疑,认为其表现不佳。
- 有评论者提到 Kokoro-82M 模型在小模型领域表现出色,尤其是在质量上超越了更大尺寸的模型。
- 评论中提到 F5-TTS 和 Fish-TTS 作为其他可能的替代方案。
- 有评论者推荐 ChatGPT 的语音对话模式,认为其比 VibeVoice 的样本更先进。
- 评论中提到 Dia 和 Orpheus 模型听起来更自然。
- 有评论者通过 llm-tts 尝试了多种本地和远程 TTS 模型,认为 llm-tts 虽然不完整,但提供了一种统一的尝试方式。
- 一些评论者认为 Chatterbox 的声音更真实,没有机器人感,且语调更好。
- 有评论者提到,女性声音的合成技术投资更多,可能是因为女性声音的可理解性更好。
- 评论中有人提出,女性声音更受欢迎可能与性别偏好有关,而不仅仅是性。
This blog is running on a recycled Google Pixel 5 (2024) #
https://blog.ctms.me/posts/2024-08-29-running-this-blog-on-a-pixel-5/
Dom Corriveau 是一位热衷于 Android 技术的粉丝,他尝试将手机作为服务器来运行自己的博客。他受到 Mastodon 上的一些帖子的启发,决定尝试使用 Android 设备来运行网站。他选择了一部 Google Pixel 5 手机,这款手机支持 USB-OTG 并且可以使用有线网络连接,这对于他来说是必需的。Dom Corriveau 还尝试使用太阳能板为博客供电,这是他对于永续计算(permacomputing)的兴趣的一部分。
他使用 Termux 这个终端模拟器来创建网站,这是一个非常出色的工具,让他能够在 Android 设备上运行 Hugo,这是他博客的构建工具。他发现 Hugo 已经在 Termux 的仓库中存在很长时间了。通过安装 git、screen、文本编辑器和 Hugo,他能够简单地设置并运行 Hugo 网站。
Dom Corriveau 的博客运行流畅且可靠,他没有计划改变当前的设置。他还提到了如何通过 SSH 管理设备,以及如何使用 cronie 来定时执行任务,比如自动重新加载博客。他还分享了如何使用 rsync 进行备份,包括从手机到桌面的备份,以及到 NAS 的备份。
总的来说,Dom Corriveau 成功地将一部旧手机变成了一个运行博客的服务器,并且通过太阳能供电,实现了一个完全离网、使用回收部件的网站。他的博客展示了如何利用旧硬件进行创新项目,并且对环境友好。
HN 热度 341 points | 评论 149 comments | 作者:indigodaddy | 24 hours ago #
https://news.ycombinator.com/item?id=45110209
- 使用旧手机进行基础设施轻量级应用的想法很好,可以利用它们的低功耗和内置不间断电源
- 有人使用 Pixel 3 作为类似 Elgato Stream Deck 的设备,通过显示网页按钮来控制功能
- 有人提议开发一个“服务器化”套件,用于将手机主板与外部存储、更好的电源和物理网络接口直接连接
- 许多手机难以轻易打开或扩展硬件,除了通过 USB
- 有人为了乐趣和能够使用太阳能运行而将旧手机作为服务器,尽管原本计划是夜间关闭实验室以节省电力
- 选择以太网而不是 Wi-Fi 是因为需要带宽的一致性,作者的 Wi-Fi 网络性能不佳
- 有人通过将设备分割成三个区域(始终在线、桌面和家庭实验室)来容忍电力损失
- 有人提到了 NUTs(Network UPS Tools),这是一种在网络中分发 UPS 电源信息的工具
- Android 设备上的应用程序通常难以维持持久的后台服务,有人好奇作者是如何防止 Android 终止进程的
- 服务器运行在 Termux 中,通过持久通知保持后台运行,并扩展了最大幽灵进程以防止被杀
- 有人因为设备被锁定在 Verizon 且不愿解锁 Bootloader 而没有选择 PostmarketOS,尽管认为 PostmarketOS 很酷
- Nginx 代理没有缓存网站,但网站在 HN 负载下仍然稳定
- 有人推测不使用 Wi-Fi 的原因可能是 Wi-Fi 的高延迟和不确定性,以及旧 Android 手机可能无法使用现代 Wi-Fi 标准,难以应对流量
- 有人指出 2012 年的 Android 手机已经支持 802.11ac,但后来有人纠正说实际上是 802.11n
Python has had async for 10 years – why isn’t it more popular? #
https://tonybaloney.github.io/posts/why-isnt-python-async-more-popular.html
Python 自推出异步功能已有 10 年历史,但普及程度并不高。Python 3.14 版本即将发布,带来了与并发和并行性相关的重大更新,包括 PEP779 官方支持的自由线程和 PEP 734 中的多个解释器。尽管如此,异步编程在 Python 社区中并未广泛流行。异步编程的主要用例是网络开发,协程适用于处理网络请求和数据库查询等非进程内的调用。然而,在 Python 的三大流行 Web 框架中,异步支持并不普遍。FastAPI 完全支持异步,Django 部分支持但仍在关键领域如 ORM(数据库)上努力,而 Flask 则始终是同步的(Quart 是具有类似 API 的异步替代品)。Python 最受欢迎的 ORM,SQLAlchemy,直到 2023 年才添加了 asyncio 支持。
开发者们对异步编程不够流行的原因有不同的看法。Christopher Trudeau 认为,编译器可以捕获某些类型的错误,而其他错误则可能消失,导致异步编程中的错误难以追踪。Michael Kennedy 指出,由于全局解释器锁(GIL)的存在,大多数 Python 开发者没有发展出多线程/异步思维,因为 async/await 只适用于 I/O 密集型工作,而非 CPU 密集型工作,因此其应用范围有限。
异步编程在处理 I/O 相关任务时最有价值,尤其是在网络 I/O 方面。Python 可以启动数百个协程来发起网络请求,然后等待它们全部完成,而不需要逐一运行。然而,对于磁盘 I/O 和使用子进程运行其他程序的情况,异步编程并不适用。虽然有第三方包 aiofiles 提供了异步文件 I/O 能力,但它实际上是通过线程池来卸载阻塞的文件 I/O 操作。
操作系统长期以来一直有一个处理线程的文件 I/O API,它能够很好地完成并发 I/O 的工作。因此,协程在 I/O 相关任务中最有价值这一说法实际上只对网络 I/O 和网络套接字成立,而 Python 中的网络套接字操作本来就是非阻塞的。
最后,尽管异步编程在某些情况下很有用,但它并不适合所有类型的任务,尤其是那些涉及 CPU 密集型工作的任务。开发者需要理解何时使用异步编程,以及何时需要转向线程或其他并发模型。Python 3.14 版本的新特性可能会推动异步编程的普及,但要让开发者广泛接受和使用,还需要时间和教育。
HN 热度 301 points | 评论 279 comments | 作者:willm | 1 day ago #
https://news.ycombinator.com/item?id=45106189
- Python 的异步功能出现得太晚,许多人已经有了自己的解决方案,如多进程等
- 异步代码与绿线程代码相比,后者可以阻塞,而前者需要进行异步操作,因此异步代码更受欢迎
- 异步代码看起来同步但实际上是异步的,这导致了许多奇怪的失败模式和特性,通常在异步代码部分看到更多的 bug
- 有些人更喜欢明确的“async”关键字,而不是代码看起来同步但实际上是异步的
- 有些人认为异步概念被过度使用,导致每个小函数突然都变成了异步
- Rust 的异步更像旧式的显式轮询,没有看起来同步但实际上不是的魔法代码
- Rust 的异步是新式的彩色函数并发,不需要任何运行时/操作系统级别的支持
- 异步/等待只是语法糖,你不必使用它,它完全是一个合作模型,没有魔法抢占
- 实际上,人们抱怨的是他们不喜欢异步功能的使用方式,而不是功能本身
- 在 C#中,异步非常有用,可以避免非 CPU 密集型工作的阻塞,如等待 API/数据库/文件系统等
- 异步代码没有“async”关键字也可以编写,它看起来完全不同,因为你需要控制任务调度的状态机
- 绿线程比“async”关键字更进一步,因为它们没有函数着色的东西
Voyager – An interactive video generation model with realtime 3D reconstruction #
https://github.com/Tencent-Hunyuan/HunyuanWorld-Voyager
HunyuanWorld-Voyager 是腾讯混元(Tencent-Hunyuan)团队开发的一款交互式 RGBD 视频生成模型,它可以根据相机轨迹条件生成世界一致的 3D 点云序列,从单张图片出发,支持用户自定义相机路径。Voyager 能够生成 3D 一致的场景视频,用于世界探索,并能够生成对齐的深度和 RGB 视频,以实现高效直接的 3D 重建。
2025 年 9 月 2 日,HunyuanWorld-Voyager 的代码和模型权重被发布,用户可以下载使用。同时,团队提供了微信和 Discord 群组供用户讨论和寻求帮助。
Voyager 的架构包含两个关键组件:世界一致视频扩散和长距离世界探索。世界一致视频扩散是一个统一的架构,联合生成对齐的 RGB 和深度视频序列,条件是现有的世界观察以确保全局一致性。长距离世界探索则通过一个高效的世界缓存、点剔除和自回归推理,以及平滑视频采样,实现迭代场景扩展和上下文感知一致性。
为了训练 Voyager,团队提出了一个可扩展的数据引擎,即视频重建管道,自动化相机姿态估计和度量深度预测,为任意视频提供大规模、多样化的训练数据,无需手动 3D 注释。使用这个管道,团队编译了一个包含超过 10 万个视频剪辑的数据集,结合了现实世界捕获和虚幻引擎渲染的合成数据。
在 WorldScore 基准的定量比较中,Voyager 在多个指标上表现出色,包括世界得分平均值、相机控制、对象控制、内容对齐、3D 一致性、光度一致性和风格一致性。
运行 Voyager(批量大小=1)生成视频的要求如下:模型分辨率为 540p,GPU 峰值内存为 60GB。需要支持 CUDA 的 NVIDIA GPU,模型在单个 80G GPU 上进行了测试。建议使用 80GB 内存的 GPU 以获得更好的生成质量,测试操作系统为 Linux。
安装指南包括克隆仓库、创建 conda 环境、激活环境、安装 PyTorch 和其他依赖项、安装 pip 依赖项、安装 flash attention v2 以加速(需要 CUDA 11.8 或以上)以及安装 xDiT 进行并行推理。如果在特定 GPU 类型上遇到浮点异常(核心转储),可以尝试提供的解决方案。
HN 热度 287 points | 评论 199 comments | 作者:mingtianzhang | 12 hours ago #
https://news.ycombinator.com/item?id=45114379
- 欧盟的 AI 法规使得欧盟在某些领域落后于其他国家。
- 欧盟的法规可能使得欧盟在经济和军事上成为俄罗斯或中国的附庸。
- 欧盟的法规与其他国家和地区的法律相比并没有特别之处,中国、俄罗斯和美国也有类似的法律。
- 欧盟在某些关键行业的发展上设置了障碍,导致其在全球竞争中落后。
- 欧盟在隐私法、消费者权益等方面领先,但在技术、人工智能、半导体等领域落后。
- 欧盟的法规可能限制了其在全球经济中的领导地位。
- 欧盟的能源依赖俄罗斯,这可能影响其政策制定的独立性。
- 欧盟的法规可能影响了其在技术领域的竞争力。
- 欧盟的法规可能使得其在全球经济中的地位下降。
- 欧盟的法规可能影响了其在军事技术等领域的发展。
Hacker News 精彩评论及翻译 #
Google can keep its Chrome browser but will be bar… #
https://news.ycombinator.com/item?id=45109304
By the way, a pet peeve of mine right now is that reporters covering court cases (and we have so many of public interest lately) never seem to simply paste the link to the online PDF decision/ruling for us all to read, right in the story. (and another user here kindly did that for us below: https://storage.courtlistener.com/recap/gov.uscourts.dcd.223205/gov.uscourts.dcd.223205.1436.0_1.pdf )
It seems such a simple step (they must have been using the ruling PDF to write the story) yet why is it always such a hassle for them to feel that they should link the original content? I would rather be able to see the probably dozens of pages ruling with the full details rather than hear it secondhand from a reporter at this point. It feels like they want to be the gatekeepers of information, and poor ones at that.
I think it should be adopted as standard journalistic practice in fact – reporting on court rulings must come with the PDF.
Aside from that, it will be interesting to see on what grounds the judge decided that this particular data sharing remedy was the solution. Can anyone now simply claim they’re a competitor and get access to Google’s tons of data?
I am not too familiar with antitrust precedent, but to what extent does the judge rule on how specific the data sharing need to be (what types of data, for what time span, how anonymized, etc. etc.) or appoint a special master? Why is that up to the judge versus the FTC or whoever to propose?
supernova87a
另外,我目前非常在意的一点是:负责报道法庭案件的记者(更何况最近有这么多备受公众关注的案件)似乎总忘了直接在文章里附上网上PDF的判决/裁决链接供我们阅读。(而下面其他一位用户就很贴心地为我们这样做了:https://storage.courtlistener.com/recap/gov.uscourts.dcd.223205/gov.uscourts.dcd.223205.1436.0_1.pdf)
(他们写新闻时肯定就在用那份裁决PDF)就这样一个再简单不过的步骤,为什么他们似乎总是觉得附上原始内容的链接是件麻烦事呢?现在,我宁愿自己去看那份可能长达几十页、细节齐全的裁决书,也不愿从记者的二手转述中获取信息。他们总想扮演信息的把关人,而且还是个蹩脚的。
我认为这理应成为新闻业的标准规范——报道法庭裁决必须附上PDF文件。
除此之外,法官究竟是依据什么理由认定这个特定的数据共享补救方案是最佳选择的,这一点会很有意思。难道现在任何人只要宣称自己是竞争对手,就能获取谷歌的海量数据吗?
我对反垄断判例不太了解,但涉及到裁定数据共享需要多么具体(例如是什么样的数据、时间跨度多长、如何匿名化等)时,法官有多大裁定权?他是否必须指定一名特别主事官?为什么这件事的裁定权在法官,而不是由联邦贸易委员会或其他相关方来提议呢?
Anthropic raises $13B Series F #
https://news.ycombinator.com/item?id=45105325
The compute moat is getting absolutely insane. We’re basically at the point where you need a small country’s GDP just to stay in the game for one more generation of models.
What gets me is that this isn’t even a software moat anymore - it’s literally just whoever can get their hands on enough GPUs and power infrastructure. TSMC and the power companies are the real kingmakers here. You can have all the talent in the world but if you can’t get 100k H100s and a dedicated power plant, you’re out.
Wonder how much of this $13B is just prepaying for compute vs actual opex. If it’s mostly compute, we’re watching something weird happen - like the privatization of Manhattan Project-scale infrastructure. Except instead of enriching uranium we’re computing gradient descents lol
The wildest part is we might look back at this as cheap. GPT-4 training was what, $100M? GPT-5/Opus-4 class probably $1B+? At this rate GPT-7 will need its own sovereign wealth fund
llamasushi
计算护城河简直疯了。我们现在基本上到了这个地步:你动用一个小国家的GDP,都只是为了能在游戏中多撑一个模型的代际。 最让我震惊的是,这已经不再是一个软件护城河了——说白了,就是谁能搞到足够的GPU和电力基础设施。台积电和电力公司才是这里真正的掌权者。你可以拥有全世界最顶尖的人才,但如果你搞不到10万块H100芯片和一个专用的发电厂,那你基本就出局了。 不知道这130亿美元里,有多少是预付的计算资源费用,又有多少是实际的运营支出。如果大部分钱都花在了计算上,我们正在见证一件怪事的发生——就像把曼哈顿计划级别的基建设施私有化一样。只不过我们提炼的不是铀,而是在计算梯度下降,笑。 最疯狂的部分是,我们将来回头看现在,可能会觉得这简直是白菜价。GPT-4的训练成本,我记得是一亿美元左右?GPT-5或者Opus-4级别的模型,可能就要10亿美元以上了?照这个速度下去,GPT-7就得需要它自己的主权财富基金了。
We already live in social credit, we just don’t ca… #
https://news.ycombinator.com/item?id=45107075
The issue is that American media/discourse paints a very distorted view of what life under authoritarian rule is like. The truth is in many countries, unless you’re some kind of minority, politically active, or in legal trouble, day-to-day life is mostly similar to life in the west. But people don’t want to hear that, because we want to feel better than them. Like we wouldn’t tolerate that kind of life.
Of course the most frustrating part about that is as the US and other western countries start sliding into authoritarianism, people deny it because they don’t feel like it’s authoritarian.
Edit: To clarify, I don’t think life is exactly the same - just that the consequences of authoritarianism are much more insidious than they’re portrayed.
Bukhmanizer
问题在于,美国媒体和舆论对威权统治下的生活描绘了一种非常扭曲的景象。事实是,在许多国家,除非你是某种少数群体、政治活动人士,或者惹上法律麻烦,否则日常生活与西方国家的生活大体相似。但人们不想听这个,因为我们想觉得自己比他们优越。就好像我们自己绝不会容忍那样的生活。
当然,这其中最令人沮丧的一点是,当美国和其他西方国家开始滑向威权主义时,人们会否认这一点,因为他们不觉得这是威权主义。
编辑:为了澄清,我并非认为生活完全一样——只是威权主义的后果远比人们所描绘的要阴险。
Google can keep its Chrome browser but will be bar… #
https://news.ycombinator.com/item?id=45109040
This is an astonishing victory for Google, they must be very happy about it.
They get basically everything they want (keeping it all in the tent), plus a negotiating position on search deals where they can refuse something because they can’t do it now.
Quite why the judge is so concerned about the rise of AI factoring in here is beyond me. It’s fundamentally an anticompetitive decision.
fidotron
谷歌赢得了惊人的胜利,想必他们对此非常高兴。他们基本上如愿以偿(将一切都揽入怀中),并且在搜索交易中获得了更有利的谈判地位,可以以“现在做不到”为由拒绝某些条款。我实在搞不懂,法官为何如此在意人工智能的崛起在此案中的作用。从根本上说,这是一个反竞争的判决。
The staff ate it later #
https://news.ycombinator.com/item?id=45105801
Then Pharaoh also called for the wise men and the sorcerers, and they also, the magicians of Egypt, did the same with their secret arts. For each one threw down his staff and they turned into serpents. But Aaron’s staff swallowed up their staffs.
- Exodus 7:1-12 (NIV)
Many moons ago I had a girlfriend who worked on an nationally broadcast afternoon show where they often had guest chefs demonstrating dishes, so I would come home from my thankless PhD work to eat Michelin-starred food from a lunchbox. Overall not so bad.
Y_Y
于是法老也召了贤士和术士,埃及的术士们也用他们的邪术行了同样的事。因为他们各人丢下自己的杖,杖就变作蛇。只是亚伦的杖吞了他们的杖。 - 出埃及记 7:1-12 (NIV)
很久以前,我有个女友,她在一档全国播出的下午节目工作,节目中经常会有客座厨师来示范菜肴。所以我每天下班,从那毫无成就感的博士研究工作中回到家,就能打开饭盒吃上米其林星级美食。总的来说,还不赖。
We should have the ability to run any code we want… #
https://news.ycombinator.com/item?id=45092481
If you decide you don’t want a relationship with either of those companies you will be extremely disadvantaged.
Even more worrying is the inverse of this - if Google and/or Apple decide for whatever reason they don’t want a relationship with you (aka they ban you for no reason) - you are completely screwed
shawabawa3
如果你决定不和那两家公司中的任何一家合作,你将处于极其不利的地位。 更令人担忧的是,情况恰恰相反——如果谷歌和/或苹果出于任何原因决定不想和你合作(即他们无缘无故地封禁你),那你可就彻底完蛋了。
%CPU utilization is a lie #
https://news.ycombinator.com/item?id=45111036
Utilization is not a lie, it is a measurement of a well-defined quantity, but people make assumptions to extrapolate capacity models from it, and that is where reality diverges from expectations.
Hyperthreading (SMT) and Turbo (clock scaling) are only a part of the variables causing non-linearity, there are a number of other resources that are shared across cores and “run out” as load increases, like memory bandwidth, interconnect capacity, processor caches. Some bottlenecks might come even from the software, like spinlocks, which have non-linear impact on utilization.
Furthermore, most CPU utilization metrics average over very long windows, from several seconds to a minute, but what really matters for the performance of a latency-sensitive server happens in the time-scale of tens to hundreds of milliseconds, and a multi-second average will not distinguish a bursty behavior from a smooth one. The latter has likely much more capacity to scale up.
Unfortunately, the suggested approach is not that accurate either, because it hinges on two inherently unstable concepts
Benchmark how much work your server can do before having errors or unacceptable latency.
The measurement of this is extremely noisy, as you want to detect the point where the server starts becoming unstable. Even if you look at a very simple queueing theory model, the derivatives close to saturation explode, so any nondeterministic noise is extremely amplified.
Report how much work your server is currently doing.
There is rarely a stable definition of “work”. Is it RPS? Request cost can vary even throughout the day. Is it instructions? Same, the typical IPC can vary.
Ultimately, the confidence intervals you get from the load testing approach might be as large as what you can get from building an empirical model from utilization measurement, as long as you measure your utilization correctly.
ot
利用率并非谎言,它是对一个被明确定义的数量的测量,但人们会基于它做出假设来推断容量模型,而这正是现实与期望产生分歧的地方。
超线程(SMT)和加速技术(时钟频率扩展)只是造成非线性的变量的一部分,还有许多其他资源在核心间共享,并会在负载增加时“耗尽”,例如内存带宽、互连容量和处理器缓存。一些瓶颈可能源自软件本身,比如自旋锁,它们对利用率有非线性影响。
此外,大多数CPU利用率指标的平均值窗口都非常长(从几秒到一分钟),但对于延迟敏感服务器的性能而言,真正重要的是发生在几十到几百毫秒时间刻度上的事情,而一个多秒的平均值无法区分突发行为和平稳行为。后者很可能有更强的扩展能力。
不幸的是,建议的方法也并非那么准确,因为它依赖于两个本质上不稳定的概念
在出现错误或不可接受的延迟之前,基准测试您的服务器能完成多少工作。
这个测量结果噪声极大,因为你希望检测的是服务器开始变得不稳定的那个临界点。即便审视一个非常简单的队列理论模型,其接近饱和时的导数也会变得极大,因此任何非确定性噪声都会被极度放大。
报告您的服务器当前正在完成多少工作。
“工作”这个概念很少有稳定的定义。是RPS(每秒请求数)吗?即便是在一天之内,请求成本也可能在不断变化。是指令数吗?情况同样如此,典型的IPC(每周期指令数)可能会有所不同。
最终,只要你正确测量了利用率,通过负载测试方法得到的置信区间,可能和你基于利用率测量构建经验模型所得到的置信区间一样宽。
You don’t want to hire “the best engineers” #
https://news.ycombinator.com/item?id=45104389
There is no such thing as “the best engineers.” Some engineers are definitely better than others, but once you pass the bar of “really smart, great work ethic,” the tech tree diverges pretty dramatically.
Some engineers (like Notch) are amazing at quickly putting out vast quantities of mediocre code, prototyping ideas, maintaining a clear product vision, and bringing something into reality quickly. Other engineers (like John Carmack) are great at generating well-founded opinions and finding clever solutions to difficult issues. Some engineers (like Bill Atkinson) worked mostly remotely and developed amazing technology, while other engineers (like Joel Spolsky) insisted on in-office and built a best-in-class mentorship organization.
While hiring people with exceptional talent is a step-change when it comes to any organization’s ability to accomplish its goals, there is no one metric for “best.” Much better to identify the specific skills for which you need exceptional talent, and to create a hiring funnel that identifies people who excel in that dimension.
Centigonal
根本不存在“最好的工程师”这种说法。有些工程师确实比其他人更优秀,但一旦你达到“非常聪明、勤奋工作”的门槛,其专长的发展路径(技能树)就会发生显著分化。
有的工程师(如 Notch)擅长快速产出大量代码进行原型开发,保持清晰的产品愿景,并能迅速将产品推向市场。另一些工程师(如 John Carmack)则善于形成有根有据的观点,并能巧妙地解决棘手的技术难题。有的工程师(如 Bill Atkinson)多远距离办公,却开发出了惊人的技术;而另一些工程师(如 Joel Spolsky)则坚持以在办公室工作为核心,并建立了一流的导师体制。
尽管聘用具有非凡才能的人才会给组织的目标实现能力带来质的飞跃,但“最佳”并无统一的衡量标准。更明智的做法是,明确急需具备何种顶尖技能,并建立相应的招聘渠道,以选拔出该领域的杰出人才。
MIT Study Finds AI Use Reprograms the Brain, Leadi… #
https://news.ycombinator.com/item?id=45115887
Anecdote here, but when I was in grad school, I was talking to a PhD student i respected a lot. Whenever he read a paper, he would try to write the code out and get it working. I would take a couple of months but he could whip it up in a few days. He explained to me that it was just practice and the more you practice the better you become. He not only coded things quickly, he started analyzing papers quicker too and became really good at synthesizing ideas, knowing what worked and didn’t, and built up a phenomenal intuition.
These days, I’m fairly senior and don’t touch code much anymore but I find it really really instructive to get my hands dirty and struggle through new code and ideas. I think the “just tweak the prompts bro” people are missing out on learning.
goalieca
分享一个个人经历吧,读研的时候,我和一位我非常敬佩的博士生交谈。我发现,每当他在读一篇论文时,都会尝试自己动手把代码敲出来并让它运行。虽然自己要花上好几个月,但他却能在几天内搞定。他告诉我,这不过是熟能生巧,练得越多就越好。后来,他不仅编码速度飞快,分析论文也越来越快,还能很好地总结归纳想法,判断出方法的有效与无效,最终培养出了非凡的直觉。
如今,我也算是资深人士了,不怎么再动手碰代码了。但我发现,真正动手去挣扎着搞定新的代码和想法,这个过程真的非常有启发。我觉得那些“稍微调调提示词就好,哥们”的人,他们真正错过的其实是珍贵的学习过程。
Amazon must face US nationwide class action over t… #
https://news.ycombinator.com/item?id=45108426
Amazon argued that the class was too large to be manageable
Sorry, we’ve wronged too many people to be held accountable! What a wild argument.
shayway
抱歉,我们伤害的人太多,没法被追责!真是荒谬的论点。
The Synology End Game #
https://news.ycombinator.com/item?id=45061701
Not only that, but their security situation is terrible. Their OS is full of EOL’ed stuff.
On products you can buy TODAY, you find:
- Their Btrfs filesystem is a fork of a very old branch and doesn’t have modern patches
- A custom, non standard, self built, ACL system for the filesystem
- Kernel 4.4
- PHP 7.4 (requirement for their Hyperbackup app)
- smbd 4.15
- PostgreSQL 11.11
- smbd 8.2p1
- Redis 6.2.8
- … They claim it’s OK because they’ve backported all security fixes to their versions. I don’t believe them. The (theoretical) huge effort needed for doing that would allow them to grow a way better product.
And it’s not only about security, but about features (well, some are security features too). We’re missing new kernel features (network hardware offload, security, wireguard…), filesystem (btrfs features, performance and error patches…), file servers (new features and compatibility, as Parallel NFS or Multichannel CIFS/SMB), and so on…
I think they got stuck on 4.4 because of their btrfs fork, and now they’re too deep on their own hole.
Also, their backend is a mess. A bunch of different apps developed on different ways that mostly don’t talk to each other. They sometimes overlap with each other and have very essential features that don’t work and don’t plan to fix. Meanwhile, they’re busy releasing AI stuff features for the “Office” app.
Edit note: For myself and some business stuff, I have a bunch of TrueNAS deployments, from a small Jonsbo box for my home, to a +16 disk rack server. This was for a client that wanted to migrate from another Synology they had on loan, and I didn’t want to push a server on them, as they’re a bit far away from me, and I wanted it to be serviceable by anyone. I regret it.
tecleandor
不仅如此,他们的安全状况也很糟糕。他们的操作系统充满了早已停止支持(EOL)的组件。
在你今天就能买到的新产品上,你甚至能发现:
- 他们的 Btrfs 文件系统是从一个非常古老的分支分叉出来的,没有任何现代补丁
- 一个为该文件系统定制的、非标准的、自行构建的 ACL 访问控制系统
- 内核版本 4.4
- PHP 7.4(其 Hyperbackup 应用程序的要求)
- smbd 4.15
- PostgreSQL 11.11
- smbd 8.2p1
- Redis 6.2.8
- …
他们声称这没问题,因为他们已经将所有的安全修复都反向移植到自己版本中。我不相信这套说辞。(理论上)能投入那么巨大的精力来做这件事,本可以让他们打造出好得多的产品。
这不仅仅是安全问题,还涉及特性本身——有些特性其实也属于安全特性。我们缺少了新的内核特性(如网络硬件卸载、安全增强、Wireguard…)、文件系统特性(如 Btrfs 的新功能、性能和错误修复补丁…)、文件服务器特性(如 NFS 或多通道 CIFS/SMB 等新功能和兼容性),等等……
我认为他们因为自己的 Btrfs 分叉版本而卡在了 4.4 内核上,现在已经在一个坑里陷得太深,无法自拔了。
此外,他们的后端也是一团糟。一堆用不同方式开发的应用程序,彼此之间大多不通信。它们有时会功能重叠,有些非常基础的功能无法使用,而且他们也不打算修复。与此同时,他们却忙不迭地为“办公套件”应用发布 AI 功能。
补充说明:就我个人和业务需求而言,我部署了一大堆 TrueNAS 系统,从家用的小 Jonsbo 机箱,到带 16 块以上硬盘的机架服务器。这是给一个客户的,他当时想从一台借来的另一台 Synology 产品迁移数据。我不想把我们的服务器强推给他,因为他们离我有点远,而且我希望谁都能维护这台机器。我后悔这么做了。
Six months into tariffs, businesses have no idea h… #
https://news.ycombinator.com/item?id=45078568
In NYC, for the first 6 months of 2025, 994 new private sector jobs were created [1]. During the same period last year, there were 66,000 new jobs created.
Higher cost of doing business from tariffs has frozen hiring. With a frozen job market, there’s less revenue coming in.
NYC is a leading indicator for the rest of the country.
[1] https://www.nytimes.com/2025/08/13/nyregion/nyc-jobs.html
lazarus01
在纽约市,2025年上半年新增了994个私营部门就业岗位[1]。而在去年同期,新增就业岗位为66,000个。
关税导致的企业经营成本上升已经冻结了招聘。就业市场陷入停滞,收入也随之减少。
纽约市是全国其他地区的领先指标。
[1] https://www.nytimes.com/2025/08/13/nyregion/nyc-jobs.html
The Synology End Game #
https://news.ycombinator.com/item?id=45061494
The year is 2025. Delivering a good product is not considered profitable enough anymore. If a company or product is beloved by customers then that means it doesn’t squeeze them to the max. This is clearly money left on the table that someone will sooner or later extract. High-end brands are not exempt from this.
codeflo
时间是2025年。提供优质产品已不再被视为足够盈利。如果一家公司或一个产品深受顾客喜爱,就说明它没有对这些顾客进行最大限度的压榨。这显然是漏网之财,迟早会被别人攫取。高端品牌也不例外。
Tesla said it didn’t have key data in a fatal cras… #
https://news.ycombinator.com/item?id=45063162
Immediately after the wreck at 9:14 p.m. on April 25, 2019, the crucial data detailing how it unfolded was automatically uploaded to the company’s servers and stored in a vast central database, according to court documents. Tesla’s headquarters soon sent an automated message back to the car confirming that it had received the collision snapshot.
Moments later, court records show, the data was just as automatically “unlinked” from the 2019 Tesla Model S at the scene, meaning the local copy was marked for deletion, a standard practice for Teslas in such incidents, according to court testimony.
Wow…just wow.
metaphor
根据法庭文件显示,2019年4月25日晚上9点14分事故发生后,详细记录事故经过的关键数据被自动上传至公司服务器,并存储在一个庞大的中央数据库中。特斯拉总部随即向车辆发送了一条自动回复信息,确认已收到碰撞快照。
法庭记录显示,片刻之后,这些数据也同样自动地从现场的那辆2019款特斯拉Model S上“解除链接”,这意味着本地副本被标记为待删除。根据法庭证词,这是特斯拉在类似事故中的标准做法。
我的天啊……真是服了。
Airbus B612 Cockpit Font #
https://news.ycombinator.com/item?id=45116692
What it actually looks like: https://fonts.google.com/specimen/B612
jelder
它的真实模样是这样的:https://fonts.google.com/specimen/B612
Anthropic raises $13B Series F #
https://news.ycombinator.com/item?id=45107239
The whole LLM era is horrible. All the innovation is coming “top-down” from very well funded companies - many of them tech incumbents, so you know the monetization is going to be awful. Since the models are expensive to run it’s all subscription priced and has to run in the cloud where the user has no control. The hype is insane, and so usage is being pushed by C-suite folks who have no idea whether it’s actually benefiting someone “on the ground” and decisions around which AI to use are often being made on the basis of existing vendor relationships. Basically it’s the culmination of all the worst tech trends of the last 10 years.
AlexandrB
整个大语言模型(LLM)时代都糟糕透顶。所有的创新都来自于资金雄厚的公司——其中很多是科技巨头——是典型的“自上而下”的模式,所以它们的商业化模式肯定好不了。由于模型运行成本高昂,所有服务都采用订阅定价,并且必须在云端运行,用户对此毫无控制权。炒作简直疯狂,于是,那些完全不清楚它是否能真正惠及“一线”员工的C级高管们,却在大力推动其使用。而选择使用哪种人工智能,往往只是基于现有的供应商关系,而非实际需求。说到底,这不过是过去十年所有最糟糕科技趋势的集大成者。
My startup banking story (2023) #
https://news.ycombinator.com/item?id=45056901
Funny to see this pop up again (I’m the author). The year is now 2025 and I still use Chase as a personal bank and I’m now discovering new funny banking behaviors. I’ll use this as a chance to share. :)
My company had an exit, I did well financially. This is not a secret. I’m extremely privileged and thankful for it. But as a result of this, I’ve used a private bank (or mix) for a number of years to store the vast majority of my financial assets (over 99.99% of all assets, I just did the math). An unfortunate property of private banks is they make it hard to do retail-like banking behaviors: depositing a quick check, pulling cash from an ATM, but ironically most importantly Zelle.
As such, I’ve kept my Chase personal accounts and use them as my retail bank: there are Chase branches everywhere, its easy to get to an ATM, and they give me easy access to Zelle! I didn’t choose Chase specifically, I’ve just always used Chase for personal banking since I was in high school so I just kept using them for this.
Anyways, I tend to use my Chase account to pay a bunch of bills, just because it’s more convenient (Zelle!). I have 3 active home construction projects, plus pay my CC, plus pretty much all other typical expenses (utilities, car payments, insurance, etc.). But I float the money in/out of the account as necessary to cover these. We do accounting of all these expenses at the private bank side, so its all tracked, but it settles within the last 24-48 hours via Chase.
Otherwise, I keep my Chase balance no more than a few thousand dollars.
This really wigs out automated systems at Chase. I get phone calls all the time (like, literally multiple times per week) saying “we noticed a large transfer into your account, we can help!” And I cheekily respond “refresh, it’s back to zero!” And they’re just confused. To be fair, I’ve explained the situation in detail to multiple people multiple times but it isn’t clicking, so they keep calling me.
I now ignore the phone calls. Hope I don’t regret that later lol.
mitchellh
很好看到这个帖子再次出现(我是作者)。现在是2025年,我还在用摩根大通作为个人银行,而且我现在发现了一些新的、有趣的银行行为,正好借此机会分享一下。:)
我的公司实现了退出,我因此财务状况很好。这不是什么秘密。我对自己能拥有这一切感到非常幸运和感激。因此,这些年我一直使用私人银行(或多家银行)来存放我绝大部分的金融资产(占我所有资产的99.99%以上,我刚算了一下)。私人银行一个不幸的特点是,它们让你很难进行类似零售银行的业务,比如存一张快速支票、从ATM机取现,但具有讽刺意味的是,最重要的还是Zelle转账服务。
因此,我保留了摩根大通的个人账户,并把它当作我的零售银行:摩根大通的分支机构遍布各地,去ATM机很方便,而且他们能让我轻松使用Zelle!我并非特别选择了摩根大通,只是从高中起就一直用摩根大通做个人银行业务,所以我就继续用它来做这些事。
无论如何,我倾向于用我的摩根大通账户支付一堆账单,只因为这样更方便(Zelle!)。我有3个正在进行中的房屋建设项目,还要支付我的信用卡账单,以及几乎所有其他典型开销(水电费、汽车付款、保险等)。但我会根据需要在这张账户里存入和转出资金来支付这些开销。我们在私人银行那边记录所有这些开销,所以所有情况都有记录,但最终这些交易都会通过摩根大通在最后24-48小时内结算。
否则,我账户里的余额不会超过几千美元。
这真的把摩根大通的自动系统搞懵了。我老是接到电话(真的,一周好几次),内容是“我们注意到您的账户有一笔大额转账,我们可以为您提供帮助!”。我会顽皮地回答“刷新一下,余额又回零了!”,对方就会一脸困惑。说实话,我已经跟好几个人详细解释过好几次情况了,但他们就是没明白,所以他们还是一直打电话给我。
我现在都直接忽略这些电话。希望以后不会后悔吧,哈哈。