2026 03 02 HackerNews

2026-03-02 Hacker News Top Stories #

  1. microgpt 用不到200行纯 Python 实现了端到端的小型 GPT 系统,便于理解 LLM 的分词、注意力、训练与推理机制。
  2. OpenAI 表示不应将 Anthropic 列为供应链风险,凸显两家公司在对军事合作与技术使用限制上的价值观与策略分歧。
  3. Ghostty 是一个跨平台、GPU 加速的终端模拟器及快速发展的核心库 libghostty,正成为终端生态的重要基础设施。
  4. Claude 提供将其他服务对话与偏好导入其账户记忆的功能以增强长期连贯性,但也带来隐私与透明性担忧。
  5. 一个演示展示了广告支持下的 AI 聊天可能通过多种广告形式变现,并带来偏见、隐形操控与隐私风险。
  6. 阿里巴巴发布的 Qwen3.5 系列开源模型通过混合架构与量化技术,在本地部署上接近或超越 Sonnet 4.5 并利于私有化部署。
  7. 以色列空袭导致伊朗最高领袖哈梅内伊身亡,结束其36年统治并引发国内动荡与中东局势不确定性。
  8. 文章阐述决策树通过基于特征的递归分裂与信息增益构建模型的原理、优缺点及在过拟合与特征工程上的实践要点。
  9. 虽然 AI 使写代码更容易,但工程师的职责扩展为指导、评审与系统把控,导致认知负荷上升与职业压力增加。
  10. OpenAI 与美国国防部签署协议在机密环境部署先进 AI 并设若干安全红线,此举引发对公司与政府合作、监控与武器化风险的争议。

microgpt:用 200 行纯 Python 代码实现的极简 GPT 系统 (Microgpt) #

http://karpathy.github.io/2026/02/12/microgpt/

这是一个由 Andrej Karpathy 发布的博客文章,介绍其最新艺术项目 microgpt。该项目是一个仅包含 200 行纯 Python 代码的单文件程序,不依赖任何外部库,却完整实现了从数据处理到模型训练与推理的 GPT 类神经网络系统。

项目核心目标是将大型语言模型(LLM)简化到其最本质的组成部分,展示其内在机制的简洁与优雅。microgpt 包含以下完整模块:文本数据集加载、字符级分词器、自动微分引擎、GPT-2 风格的神经网络架构、Adam 优化器、训练循环和推理生成。

数据集使用 32,000 个英文名字,每行一个。模型通过学习这些名字的字符分布模式,能够生成新的、看似合理的虚构名字,例如 kamon、anna、karia 等。

分词器将每个唯一字符(a-z)映射为一个整数 ID,额外添加一个 BOS(Beginning of Sequence)特殊标记,用于标识新文档的开始。词汇表大小为 27。

自动微分引擎是项目的技术核心,通过自定义的 Value 类实现,支持加法、乘法、幂、对数、指数、ReLU 等基本运算,并记录计算图中的前向传播与局部梯度。backward() 方法利用拓扑排序和链式法则完成反向传播,是整个训练过程的数学基础。

整个系统在无外部依赖的前提下,实现了完整的端到端训练与生成流程。文章提供了代码的 GitHub Gist 链接、网页版和 Google Colab 笔记本,方便读者直接运行与学习。

该作品是 Karpathy 长期探索(如 micrograd、makemore、nanogpt 等项目)的集大成者,体现了他对深度学习本质的深刻理解与极简主义追求。


HN 热度 1680 points | 评论 293 comments | 作者:tambourine_man | 24 hours ago #

https://news.ycombinator.com/item?id=47202708

  • 有人将 microgpt 修改为生成韩语名字,并制作了可视化网页,让用户从分词到推理全程互动体验。
  • 该可视化网站详细解释了分词、嵌入、注意力机制、损失与梯度、训练、推理等环节,并与真实 GPT 进行对比,对学习 LLM 内部原理很有帮助。
  • 用更轻量级的模型也能实现类似功能,例如基于 PyTorch 的字符级 RNN 生成教程。
  • 所谓“修改”实际上只是将原始英文名字列表替换为韩语名字,网站内容基本是基于原博客生成的 AI 可视化,创新性有限。
  • 有人用 C++ 重写了 microgpt,代码约 400 行,速度提升 10 倍,难点在于如何在 C++ 中实现 Value 类(使用 shared_ptr)。
  • 有人在 Python 中实现了显式的反向传播(无自动微分),速度比原版快 8 倍。
  • 有人提出可以为 LLM 输出添加置信度评分,但模型的置信度并不一定准确,尤其在经过指令微调后更易失准。
  • 模型的置信度在 token 层可能不校准,但在概念层面可能校准,即对多个生成结果按语义聚类后整体可信。
  • 有人认为 LLM 输出的置信度变化可能反映在生成过程中,例如突然下降可能预示幻觉,可尝试用颜色标注来可视化。
  • “Dataloom” 等技术已尝试利用置信度分析,但难以有效识别错误,因为错误往往由多个低概率 token 共同导致。
  • 置信度评分本身价值有限,除非用户了解训练数据的来源和分布,否则无法判断其可靠性。
  • 一个从未接触现实世界的人仅通过阅读书籍学习语言,其理解只是词语之间的关联,缺乏真实意义。
  • 即使加入图片、视频等多模态信息,若缺乏身体感知和交互经验,也无法真正理解世界。
  • 真实的理解来自婴儿成长过程中的多感官、多动作、多反馈的交互式学习,而非被动接收数据。
  • 人类大脑天生具备视觉、语音识别、语言结构等基础能力,理解并非从零开始。
  • 人类对世界的认知很大程度上是间接获得的,比如从未见过考拉的人也能通过图片和文字了解其习性。
  • 人类与 LLM 在间接知识获取方面并无本质区别,因此不能简单否定 LLM 的知识有效性。

我们认为 Anthropic 不应被列为供应链风险 (We do not think Anthropic should be designated as a supply chain risk) #

https://twitter.com/OpenAI/status/2027846016423321831

openai 的 Twitter 账号发文:我们认为不应将 Anthropic 列为供应链风险,并且我们已向战争部明确表达了我们的立场。


HN 热度 780 points | 评论 422 comments | 作者:golfer | 1 day ago #

https://news.ycombinator.com/item?id=47200420

  • Anthropic 因坚持技术使用红线而被排除在合同之外,而 OpenAI 则通过妥协获得合同,反映出两者在价值观与商业策略上的根本差异。
  • OpenAI 所谓的“红线”并非道德底线,而是形式上的抗议,实际允许国防部自由使用其模型,本质上是配合军方需求。
  • “红线”在此语境中指不可逾越的使用限制,而非合同谈判中的修改标记,强调的是伦理与价值观的坚守。
  • Anthropic 希望基于自身价值观限制技术用途,而国防部要求无限制使用,导致合作失败。
  • OpenAI 与国防部的合作模式是“法律合规优先于价值坚守”,而 Anthropic 则坚持“价值优先于商业利益”。
  • 部分用户因不满 OpenAI 与国防部的合作而决定立即删除账户,转向其他大模型服务。
  • 有用户认为应尽可能多使用 OpenAI 服务,以消耗其计算资源并生成低质量数据,从而损害其模型质量。
  • 有人指出 OpenAI 的推理成本并不高,其高昂定价并非基于成本,而是基于市场估值和用户依赖。
  • 有人担忧 OpenAI 可能利用与国防部的合作进行政治渗透,甚至泄露数据以打击政治对手。
  • 美国政府在军事行动中缺乏国会正式授权,但依然频繁发动战争,反映出其法律与现实之间的脱节。
  • 有观点认为,即使 AI 用于战争或大规模监控,美国政府也未必顾及合法性,因为其政治体系对违法行为容忍度极高。
  • 部门名称“国防部”无法由总统单方面更改,必须经国会批准,这与总统可单方面发动战争形成讽刺对比。

Ghostty – 终端模拟器 (Ghostty – Terminal Emulator) #

https://ghostty.org/docs

Ghostty 是一款快速、功能丰富且跨平台的终端模拟器,采用原生图形界面和 GPU 加速技术,支持多平台使用。

安装简单,无需配置即可立即使用。提供适用于 macOS 的预编译二进制文件,Linux 用户可选择包管理器安装或从源码构建。

核心功能包括:

  • 支持灵活自定义快捷键,通过配置文件实现个性化操作。
  • 内置数百种主题,支持根据系统亮暗模式自动切换,满足不同视觉偏好。
  • 提供数百项配置选项,可深度定制外观与行为,适配各种使用场景。
  • 支持终端 API(VT),为终端应用程序开发者提供控制序列参考和开发支持。

项目开源,可通过 GitHub 获取源码与文档,欢迎贡献与反馈。同时提供 Discord 社区支持,方便用户交流与获取帮助。

网站还提供财务支持入口,鼓励用户通过捐赠支持项目持续发展。


HN 热度 600 points | 评论 265 comments | 作者:oli5679 | 13 hours ago #

https://news.ycombinator.com/item?id=47206009

  • Ghostty 的核心库 libghostty 正在快速发展,已支持超过十个项目,未来可能成为终端生态的基础设施,其使用量预计会远超 GUI 版本。
  • Ghostty 的 GUI 应用持续迭代,即将发布 1.3 版本,新增搜索、滚动条等关键功能,并在 VT 协议支持上持续优化。
  • Ghostty 已成立非营利组织,财务透明,且已签署首批四位贡献者合同,实现项目去中心化和可持续发展。
  • 使用 Zig 语言开发 Ghostty 效果良好,尽管语言本身变化较快,但通过 LLM 代理工具可有效应对升级挑战,整体体验积极。
  • LLM 在 Zig 开发中作用有限,但结合代理行为和工具调用后,能显著提升代码迁移与调试效率。
  • 项目维护者对 Zig 语言的社区、领导力和生态系统持高度认可态度,认为其适合大型项目。
  • 有人对 LLM 代理在开发中的伦理问题感到担忧,但意识到其在行业中的不可逆趋势,正逐步接受。
  • 有人希望了解如何更有效地将 Zig 文档与 LLM 代理结合,以提升开发效率。
  • 对于低训练数据语言如 Zig,LLM 仍可通过代理工具快速学习和适应,表现不逊于主流语言。
  • Ghostty 的终端协议解析能力处于行业前沿,对 tmux、mosh 等“拦截器”类应用的兼容性有深入思考。
  • libghostty 当前不支持协议转换类功能,但未来可能考虑扩展以支持此类场景,目前仍以标准 VT 协议为核心。
  • 令人意外的是,终端使用率在 AI 编码工具兴起后显著回升,如今许多开发者在终端中的时间甚至超过浏览器。
  • 项目早期曾被质疑“为何做终端”这种“过时”工作,如今却成为前沿 AI 编码生态的核心工具,令人感慨。

Claude 官方产品页面:多平台集成与智能记忆功能,赋能高效 AI 工作流 (Switch to Claude without starting over) #

https://claude.com/import-memory

Claude 提供了一种简单的方法,让用户可以在不丢失上下文和偏好的情况下,从其他人工智能提供者切换到 Claude。用户可以通过复制粘贴提供的提示,将之前的偏好和项目上下文导入到 Claude 中,从而实现无缝切换。

具体步骤如下:

  1. ** 复制提示 **:用户需要将 Claude 提供的特定提示复制,然后在任何其他 AI 提供者的聊天中粘贴。这个提示旨在帮助用户获取所有必要的上下文信息。
  2. ** 粘贴结果 **:接下来,用户将其他 AI 提供者的聊天结果粘贴到 Claude 的记忆设置中。
  3. ** 更新记忆 **:完成以上步骤后,Claude 会更新其记忆,使得用户在与 Claude 的首次对话中,能够感受到与之前使用的 AI 服务相似的体验。

Claude 的记忆功能在所有付费计划中都可用,它不仅能学习用户的偏好,还能将不同项目的上下文分开处理,确保信息不会混淆。此外,用户可以随时查看和编辑 Claude 记住的内容,从而获得更好的使用体验。

用户可以在准备好之后开始其 Pro 计划,导入记忆,亲自体验 Claude 带来的便利和效率。通过这种方式,用户不需要重新开始,而是可以直接继续之前的工作。


HN 热度 516 points | 评论 248 comments | 作者:doener | 18 hours ago #

https://news.ycombinator.com/item?id=47204571

  • 账户级记忆能带来持续的上下文积累,使 AI 在重复使用中表现越来越精准,尤其在处理复杂任务如财务报告时能显著提升效率。
  • 对于日常使用场景,用户希望 AI 记住个人偏好,如饮食习惯、爱好、技术偏好等,以减少重复说明,提升交互体验。
  • 许多用户在工程、编程、家庭自动化等项目中,依赖 AI 记住硬件配置、项目进展等信息,从而实现更精准的建议和自动化支持。
  • 一些用户担心账户级记忆带来的隐私问题,尤其是对记忆内容不透明,存在数据泄露或滥用风险,感到不安。
  • 用户对 AI 记忆功能的使用存在分歧:部分人认为项目(Project)模式更可控、更安全,能避免上下文污染;另一些人则认为记忆功能在长期使用中能形成“良性循环”,显著提升 AI 的实用性。
  • 有用户指出,AI 能根据用户已知的技术水平调整回答深度,但目前在领域知识的连贯性上仍有不足。
  • 一些用户举例说明,AI 能基于历史对话自动识别其车辆、家庭设备、孩子学习情况等信息,从而提供个性化建议,如推荐适合孩子的编程项目或音乐。

我打造了一个演示,展示当 AI 聊天变为“免费”且广告支持时的样子 (I built a demo of what AI chat will look like when it’s “free” and ad-supported) #

https://99helpers.com/tools/ad-supported-chat

广告支持的 AI 聊天演示工具总结

该工具是一个具有讽刺意味的功能演示,展示了如果 AI 聊天助手通过广告进行货币化,可能呈现的样子。这种模式类似于如今许多免费应用、网站和流媒体服务的融资方式。随着 AI 聊天的普及,企业面临一个根本问题:如何在不收费的情况下覆盖巨大的计算成本?广告是一个显而易见的解决方案。该演示旨在帮助营销人员、产品经理和开发人员了解 AI 货币化的格局,并让用户看到他们可能希望避免(或拥抱)的未来。

** 演示中的广告类型 **

该演示涵盖了可能出现在 AI 聊天产品中的各种广告模式,包括:

  1. ** 聊天前插播广告 **:类似于 YouTube 前插广告,在对话开始前展示一个全屏广告,并有倒计时。
  2. ** 横幅和侧边广告 **:在页面顶部和底部显示经典展示广告,以及在聊天窗口旁边的固定侧边面板。
  3. ** 赞助响应 **:AI 在回答中自然地融入产品推荐,成为一种微妙但强大的原生广告形式。
  4. ** 上下文文本广告 **:在响应块之间插入与对话主题实时匹配的短广告文本。
  5. ** 基于意图的产品卡片 **:当用户表达购买意图时,展示带有图片、价格和行动号召的丰富媒体卡片。
  6. ** 增值付费墙 **:用户在发送 5 条免费消息后,必须观看广告或升级以继续使用。
  7. ** 再营销和地理广告 **:根据对话主题(再营销)和用户位置(地理定向)跟踪用户的广告。
  8. ** 赞助建议 **:广告驱动的快速回复按钮提示用户 “询问 [品牌]”,将导航变成广告单元。

HN 热度 454 points | 评论 263 comments | 作者:nickk81 | 13 hours ago #

https://news.ycombinator.com/item?id=47205890

  • AI 聊天机器人在免费且广告支持的模式下,可能会出现各种形式的商业化行为,包括预加载广告、赞助回复、免费消息限制后需观看广告才能继续等。
  • 最危险的 monetization 方式是让 AI 输出带有偏见的内容,例如在技术问题中推荐特定云服务,在医疗问题中推荐赞助治疗方案。
  • 赞助内容可能以看似自然的方式融入对话,比如 AI 主动推荐产品或服务,用户难以察觉其广告性质。
  • 当 AI 被当作“朋友”对待时,其推荐更容易被接受,从而成为一种隐蔽而强大的心理操控手段。
  • 未来广告可能通过“沉默的删除”实现,即某些负面评价被过滤,而用户无法察觉内容被删减,AI 具有“合理否认”的能力。
  • AI 可能通过隐性关联,将某些话题与负面情绪或想法联系起来,从而对“错误思想”进行心理惩罚。
  • AI 的输出可能被用于社会操控,例如影响公众舆论、推动特定政治立场,甚至被用于大规模心理战。
  • 企业可能通过付费方式影响 AI 推荐,例如让 AI 优先推荐特定技术栈或部署平台,从而实现商业利益最大化。
  • 用户的聊天记录可能被用于分析个人生活轨迹,包括健康、情感状态等,存在隐私泄露风险。
  • 企业可能将用户数据出售给政府机构,甚至通过拍卖方式将数据卖给最急需的机构,而非仅限于特定政府。
  • 未来 AI 可能被用于制造虚假共识或操控公众认知,其影响力远超传统社交媒体,成为更高效的宣传工具。
  • 某些广告形式可能完全不标注为广告,以“权威建议”或“自然推荐”的形式出现,极具欺骗性。
  • 一些评论调侃这种模式,认为其荒谬可笑,但也有担忧其实际危害可能远超表面表现。

Qwen3.5 122B 和 35B 模型在本地计算机上实现 Sonnet 4.5 性能 (Qwen3.5 122B and 35B models offer Sonnet 4.5 performance on local computers) #

https://venturebeat.com/technology/alibabas-new-open-source-qwen3-5-medium-models-offer-sonnet-4-5-performance

阿里巴巴旗下知名 Qwen 团队于 2026 年 2 月 25 日发布全新开源系列模型 Qwen3.5-Medium,包含四款大语言模型,其中三款(Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B)采用 Apache 2.0 开源协议,支持企业与独立开发者商用,可从 Hugging Face 和 ModelScope 下载。

该系列模型在多项基准测试中表现卓越,性能媲美甚至超越 OpenAI 的 GPT-5-mini 和 Anthropic 的 Claude Sonnet 4.5,尤其在知识理解(MMMLU)与视觉推理(MMMU-Pro)方面领先。

核心技术亮点包括:采用混合架构,融合门控 Delta 网络与稀疏 Mixture-of-Experts(MoE)系统,实现高效推理;Qwen3.5-35B-A3B 模型仅激活 30 亿参数处理单个 token,显著提升效率;支持 4-bit 权重与 KV 缓存量化,实现近无损压缩,大幅降低本地部署内存需求。

旗舰模型 Qwen3.5-35B-A3B 可在配备 32GB 显存的消费级 GPU 上实现超 100 万 token 上下文长度,打破本地运行超长上下文的硬件壁垒,无需服务器级基础设施。

模型默认启用“思考模式”,通过内部推理链(以 隔开)进行逻辑推演,提升复杂任务处理能力。同时支持原生工具调用,增强智能体自主性。

Qwen3.5-Flash 为云端托管版本,仅通过阿里云 Model Studio API 提供,但价格极具竞争力:输入 0.1 元/百万 tokens,输出 0.4 元/百万 tokens,缓存读取仅 0.01 元/百万 tokens,工具调用(如网页搜索)也远低于主流竞品。

对企业和技术决策者而言,此次发布标志着前沿 AI 能力正从大型科技公司向中小企业开放。本地化部署可保障数据安全与主权,支持对大规模文档、视频等数据进行私有化分析,构建更可靠、自主的 AI 代理系统。

该系列模型的推出,标志着 AI 发展正从“规模竞赛”转向“架构与效率创新”,推动 AI 应用更安全、低成本、敏捷化落地。


HN 热度 445 points | 评论 254 comments | 作者:lostmsu | 1 day ago #

https://news.ycombinator.com/item?id=47199781

  • 开源模型虽性能 impressive,但与 SOTA 模型如 Sonnet 4.5 相比仍有差距,实际使用中常因过度“执着”而表现不稳定。
  • StepFun-3.5-Flash 在复杂 Rust 项目中表现优异,具备强大编码能力,尤其在高并发和集成测试场景下表现突出。
  • 使用 StepFun-3.5-Flash 配合自研编码代理工具,可高效完成大规模代码开发任务,且比部分商业模型更稳定。
  • 尽管开源模型在知识覆盖和风格上仍不及前沿模型,但在特定任务中(如高性能实时模拟)已可超越 Sonnet 4.5。
  • 本地部署模型具有无速率限制、高吞吐(如 50+ tps)、低延迟等优势,适合持续开发工作流。
  • 对于 Lua 等特定语言开发,本地模型如 Qwen3.5 和 GLM 4.7 Flash 表现接近甚至媲美部分商业模型,具备实用价值。
  • TDD(测试驱动开发)是提升本地 LLM 编码效率的关键,能有效弥补模型在一次性任务中的不足。
  • 模型性能差异与提示工程方式密切相关,结构化、需求驱动的提示可显著缩小开源与闭源模型之间的差距。
  • 当前模型生态已形成分工:前沿模型适合复杂规划,而强而快的开源模型已能胜任多数日常开发任务。

伊朗最高领袖哈梅内伊在以色列空袭中身亡,结束 36 年统治 (Iran’s Ayatollah Ali Khamenei is killed in Israeli strike, ending 36-year rule) #

https://www.npr.org/2026/02/28/1123499337/iran-israel-ayatollah-ali-khamenei-killed

伊朗最高领袖哈梅内伊在以色列空袭中身亡,终年 86 岁。此次袭击得到美国支持,以色列军方确认击毙了哈梅内伊。美国总统特朗普与以色列领导人共同呼吁推翻哈梅内伊长期统治的威权体制。伊朗政府已证实其最高领袖的死亡,并宣布进入为期 40 天的哀悼期。

哈梅内伊自 1989 年起掌权,执政长达 36 年,是伊朗伊斯兰共和国第二任最高领袖。他出生于 1939 年,出身宗教家庭,早年因反对美国支持的巴列维王朝而多次被捕。1981 年曾遭遇刺杀,导致右臂残疾。他原为中层宗教人士,缺乏宗教威望,但凭借政治手腕和对伊斯兰革命卫队的掌控,逐步巩固权力,成为中东地区任期最长的领导人。

他在任期间强化了对国内政治的控制,多次干预选举,如 2009 年总统选举中支持保守派候选人内贾德,镇压大规模抗议活动。此后,伊朗国内爆发多轮大规模抗议,据美国支持的人权组织统计,哈梅内伊执政期间至少有超过 7000 人死于镇压,其中包括 2025 年底持续数周的抗议浪潮。

哈梅内伊推动伊朗发展防御性战略,包括支持黎巴嫩真主党、加沙地带哈马斯等代理人组织,并大力发展弹道导弹技术以形成威慑。他拥有对伊朗核计划的最终决策权,长期坚持反美、反以色列立场,拒绝与西方进行政治和解。

其去世引发伊朗政局动荡,继任者人选成为国际关注焦点。目前尚无官方宣布新领导人,但权力核心可能由革命卫队或宗教精英集团主导。此次事件或将深刻改变中东地缘政治格局,加剧地区紧张局势。


HN 热度 432 points | 评论 845 comments | 作者:andsoitis | 1 day ago #

https://news.ycombinator.com/item?id=47200879

  • 伊朗 diaspora 在海外庆祝最高领袖被击毙,认为这是长期等待的转折点。
  • 尽管对现政权不满是移民离开的原因,但暗杀领导人并不保证未来会更好。
  • 领导人更替可能带来变革机会,部分人期待未来能更自由地探望伊朗亲属。
  • 领导人被杀常成为政权转折点,但结果可能是极端化或内部权力斗争导致崩溃。
  • 外部打击和领导人被杀未必带来积极结果,历史上常引发长期动荡和报复。
  • 日本在二战后被占领并实现民主转型,可作为外部干预成功的案例。
  • 美国对日本的占领虽有干预,但日本政府仍保持运作,且宪法由美方主导制定。
  • 有观点指出日本投降主要因苏联参战和对被占领的恐惧,而非原子弹。
  • 历史上罗马、诺曼对希腊和英格兰的占领虽有反抗,但最终建立新秩序。
  • 德国战后经历“去纳粹化”并建立民主制度,虽有前纳粹人员复出,但意识形态已式微。
  • 西德并未真正实现去纳粹化,许多前纳粹分子重新进入政治体系。
  • 伊朗邻国大多缺乏能力、动机或组织去发动战争或占领伊朗。
  • 以色列和沙特可能从伊朗虚弱中获益,但占领伊朗代价过高,可能性低。
  • 印度等非邻国虽有能力,但介入的收益与成本不成正比。
  • 有评论错误地声称美国通过绑架和审判委内瑞拉总统实现了政权更迭。
  • 有人提出以海上封锁和持续威慑替代大规模地面作战,可能更有效且成本更低。
  • 伊朗周边国家中,阿富汗、伊拉克、土库曼斯坦、巴基斯坦、亚美尼亚、阿塞拜疆和土耳其均不具备发动战争的条件。

决策树——嵌套决策规则的不可思议力量 (Decision trees – the unreasonable power of nested decision rules) #

https://mlu-explain.github.io/decision-tree/

本文介绍了决策树(Decision Trees)这一监督学习算法的核心原理与应用。通过一个农场主根据树干直径和高度判断树种(苹果、樱桃、橡树)的实例,生动展示了决策树如何通过一系列嵌套的决策规则对数据进行分层划分。

决策树从根节点开始,逐层分裂数据,每个内部节点代表一个基于特征的判断条件(如直径 ≥ 0.45),叶节点则输出最终分类结果。通过不断分割数据,决策树将特征空间划分为互不重叠的区域,实现对新样本的分类预测。

为确定最优分割点,算法引入信息熵(Entropy)来衡量数据的纯度:纯度越高(单一类别),熵越低;类别越混杂,熵越高。信息增益(Information Gain)用于评估某次分割带来的不确定性减少量,即分割前后熵的差值。选择使信息增益最大的特征与分割点作为当前节点的决策依据。

文章重点介绍了 ID3 算法的训练流程:计算各特征的信息增益,选择最大增益的特征进行分割,递归构建子树,直到满足停止条件(如节点全为同一类别、达到最大深度或叶节点样本数不足)。

最后强调,过度分割会导致模型过拟合,即学习了训练数据中的噪声而非通用规律。因此需设置合理的停止条件,平衡模型的复杂度与泛化能力。

决策树因其结构清晰、易于解释,广泛应用于分类与回归任务,是机器学习中基础而强大的工具。


HN 热度 392 points | 评论 69 comments | 作者:mschnell | 16 hours ago #

https://news.ycombinator.com/item?id=47204964

  • 决策树在拟合线性函数时表现不佳,需要大量节点进行阶梯式逼近,而线性模型在具有递归划分结构的等标签区域上也表现差,两者互补,结合使用可提升性能。
  • 通过将线性分类器的输出作为新特征输入决策树,可让决策树快速捕捉线性模式,从而专注于处理线性模型难以建模的复杂结构,提升整体效果。
  • 该方法类似于提升(boosting)思想,通过组合弱学习器(线性模型 + 决策树)实现强学习器,且实现简单,易于调试和维护。
  • 决策树的性能高度依赖特征工程,若缺乏高质量的特征处理,其表现可能远不如黑箱模型如神经网络,而神经网络能自动发现潜在特征但解释性差。
  • 对于结构化数据(如图像、音频、时间序列),神经网络可利用先验结构(如卷积)提升性能,但其本质仍依赖人工设计的结构,非完全自主发现。
  • 决策树的特征合成是通过组合逻辑“与”关系的路径实现,最终通过“或”关系整合,能有效捕捉多特征交互,但搜索空间为组合式,缺乏平滑优化路径。
  • 与神经网络的梯度下降式连续优化不同,决策树采用贪婪的局部搜索,缺乏对目标函数的全局导向,导致优化过程不够高效。
  • 决策树在特征稀疏(低熵)的数据上表现差,且运行时因分支预测不可靠,难以实现高吞吐量,但相比深度神经网络仍具一定速度优势。
  • 可使用斜向决策树、模型树、逻辑模型树或分层专家混合模型等改进方法,但复杂度较高,实际应用中未必必要。
  • “递归划分结构”指数据中具有相同标签的区域可通过不断分割空间来描述,类似于地图上的国家边界,具有分形般的层次结构。

AI 让写代码变得更容易,却让工程师更难做 (AI Made Writing Code Easier. It Made Being an Engineer Harder) #

https://www.ivanturkovic.com/2026/02/25/ai-made-writing-code-easier-engineering-harder/

AI 让写代码变得前所未有的容易,但软件工程师的工作却变得更加复杂和疲惫。尽管 AI 能快速生成代码,提升效率,但整体工作负荷显著上升,许多工程师感到压力倍增,甚至出现 burnout。

研究显示,83% 的员工认为 AI 增加了工作量,基层员工中超过六成报告有 burnout,而高层管理者却只有 38% 有类似感受。这种认知差距导致信任流失、士气下降,人才也逐渐流失。

工程师的职业身份正在发生危机。过去,他们热爱的是亲手编写代码,享受创造与实现的过程。如今,AI 让代码生成变得自动化,工程师被要求从“编写者”转变为“指导者”和“评审者”,角色转变迅速且缺乏过渡支持。许多人感到自己最珍视的专业技能被边缘化,职业认同感受到冲击。

与此同时,工程师的职责范围急剧扩大。他们不仅要负责代码本身,还需参与产品设计、架构决策、测试监督、部署管理、安全评估等原本由其他角色承担的任务。AI 压缩了编码时间,导致瓶颈转移到前期规划与系统整体把控上,而这些责任被无形中转移到工程师身上。

这种“全栈化”趋势被宣传为进步,但现实中却让工程师面临更高的认知负荷和更频繁的上下文切换。工作内容的扩展没有配套的培训或支持,导致效率不升反降。

总结而言,AI 并未真正减轻工程师负担,反而推动了工作标准的无形提升。岗位要求在变,但组织和管理者并未及时调整期望与资源分配,最终让一线工程师承受了巨大的隐性压力。


HN 热度 374 points | 评论 287 comments | 作者:saikatsg | 11 hours ago #

https://news.ycombinator.com/item?id=47206824

  • 该文章存在部分由 AI 生成或经过 LLM 深度编辑的迹象,表现为重复性语言和固定语调。
  • 当前许多关于 LLM 的讨论内容本身很可能也是由 LLM 辅助或生成的,这引发人们对内容真实性和价值的质疑。
  • 作者主张,若文本表达个人观点或使用第一人称,则应由本人亲自撰写,避免让 LLM 代为发声。
  • LLM 可用于辅助修改代码文档或生成 README,但需人工审核以避免引入虚假 rationale 或主观判断。
  • LLM 在提升工程师表达清晰度方面有一定帮助,尤其对非母语者而言,可作为沟通能力的“等化工具”。
  • 尽管 LLM 能生成流畅文本,但其内容往往空洞、冗长,缺乏实质思想,经不起深入推敲。
  • 语言表达不清往往反映的是思维本身不够清晰,而依赖 LLM 写作无法真正促进对问题的深入理解。
  • LLM 能为错误观点构建看似合理的辩护,揭示其“拼凑逻辑”的本质,容易误导读者。
  • 使用 LLM 写作可能削弱作者对信息传达的精准把控,导致思想被“标准化”或“去个性化”。
  • 评论区整体质量下降,充斥着 AI 生成内容,使得 Hacker News 等平台的讨论氛围日益令人失望。
  • 寻找高质量、小众且未被 AI 泛滥影响的在线社区,需要通过人际交往和信任建立来实现。
  • 以 LinkedIn 式标题和风格为代表的“伪深度”内容,正成为 AI 生成内容的典型特征。
  • 语言能力的提升不应依赖 AI,而应通过在母语环境中持续练习和反思来实现。
  • LLM 的输出风格反映了人类写作的普遍问题,其“平庸化”是社会整体表达质量下降的镜像。

OpenAI 与美国国防部协议 (Our Agreement with the Department of War) #

https://openai.com/index/our-agreement-with-the-department-of-war

OpenAI 与美国国防部(DoW)达成协议,允许其先进 AI 系统在机密环境中部署,同时要求该协议对所有 AI 公司开放。该协议包含三项核心安全红线:禁止用于大规模国内监控、禁止用于自主武器系统、禁止用于高风险自动化决策(如“社会信用”系统)。

与其它 AI 实验室仅依赖使用政策作为主要保障不同,OpenAI 采用多层次、更严格的保障机制。其部署架构为纯云端模式,保留对安全系统(安全堆栈)的完全控制权,确保模型始终运行在安全框架内。同时,部署过程中将有经过安全审查的 OpenAI 工程师现场支持,并持续有安全与对齐研究人员参与监督。

合同明确规定,国防部不得使用该 AI 系统在法律、法规或政策要求人类控制的情况下独立指挥自主武器,也不得用于需人类审批的高风险决策。在情报活动中,处理个人隐私信息必须遵守美国宪法第四修正案、《1947 年国家安全法》、《1978 年外国情报监视法》及《第 12333 号行政命令》等法律,禁止对美国公民进行无限制监控,且不得用于国内执法活动,除非符合《波塞科·科米塔图斯法案》等法律规定。

OpenAI 强调,其并未放弃关键技术安全防护以换取性能提升,也未将模型部署于边缘设备(可能被用于致命自主武器)。其安全机制可独立验证并持续更新,确保红线不被突破。

针对外界质疑,OpenAI 表示,该协议比此前 Anthropic 等公司签署的协议更具保障性,因其部署方式更安全、安全堆栈持续运行、人员全程参与。OpenAI 不认为 Anthropic 应被列为“供应链风险”,并已向政府明确表达立场。

若政府违反合同条款,OpenAI 有权终止协议。即使未来法律或政策发生变化,合同仍以当前法律标准为准,确保使用行为始终符合现有安全规范。

OpenAI 认为,该协议为 AI 实验室与政府之间建立负责任、深度协作关系提供了范例,是保障国家安全与民主价值并行的正确路径。


HN 热度 358 points | 评论 268 comments | 作者:surprisetalk | 1 day ago #

https://news.ycombinator.com/item?id=47199948

  • OpenAI 与五角大楼的合同仅禁止在美国法律已禁止的范围内对美国公民进行大规模监控,暗示五角大楼可能通过第三方公司获取美国公民的个人数据并用于大规模监控。
  • OpenAI 已从非营利组织转变为以资本为导向的实体,其隐私政策多次变更以获取更多用户数据,且数据导出功能存在缺陷,存在误导用户的行为。
  • OpenAI 董事会试图罢免 CEO 萨姆·阿尔特曼的事件显示出公司内部权力斗争,但最终由员工支持恢复其职位,表明员工力量在公司治理中仍具影响力。
  • 有人认为,技术巨头的权力已超越民主制度,导致公众对 AI 技术被用于监控和武器化的担忧,认为不应让科技公司制定涉及国家安全的政策。
  • 民主制度在美国面临选举人团、选区划分、投票压制和“公民联合”等结构性问题,导致其民主性受到质疑,但仍有观点认为民主制度仍优于由科技寡头主导的治理模式。
  • 投票权受到系统性压制,包括学生、原住民和低收入群体因缺乏身份证明或居住地址而难以投票,相关问题在多个州普遍存在。
  • 有人讽刺地指出,五角大楼的名称虽为“国防部”,但其行为和权力扩张类似“战争部”,并质疑为何一个私人企业要受其支配。
  • 有人认为总统无权单方面更改地理名称,如“墨西哥湾”等,即使其在行政系统内使用新名称,也不改变其法律地位,且此类行为属于行政权力滥用。

Hacker News 精彩评论及翻译 #

Ghostty – Terminal Emulator #

https://news.ycombinator.com/item?id=47207472

I’m the original creator of Ghostty. It’s been a few years now! I don’t know why this is on the front page of HN again but let me give some meaningful updates across the board.

First, libghostty is way more exciting nowadays. It is already backing more than a dozen terminal projects that are free and commercial: https://github.com/Uzaaft/awesome-libghostty I think this is the real future of Ghostty and I’ve said this since my first public talk on Ghostty in 2023: the real goal is a diverse ecosystem of terminal emulators that aim to solve specific terminal usage but all based on a shared, stable, feature-rich, high performant core. It’s happening! More details what libghostty is here: https://mitchellh.com/writing/libghostty-is-coming

I suspect by the middle of 2027, the number of people using Ghostty via libghostty will dwarf the number of users that actually use the Ghostty GUI. This is a win on all sides, because more libghostty usage leads to more stable Ghostty GUI too (since Ghostty itself is… of course… a libghostty consumer). We’ve already had many bugs fixed sourced by libghostty embedders.

On the GUI front Ghostty the apps are still getting lots of new features and are highly used. Ghostty the macOS app gets around one million downloads per week (I have no data on Linux because I don’t produce builds). I’m sure a lot of that is automated but it’s still a big number. I have no telemetry in Ghostty to give more detailed notes. I have some data from big 3rd party TUI apps with telemetry that show Ghostty as their biggest user base but that is skewed towards people consuming newer TUIs tend to use newer terminals. The point is: lots of people use it, its proven in the real world, and we’re continuing to improve it big time.

Ghostty 1.3 is around the corner, literally a week or two away, and will bring some critically important features like search (cmd+f), scrollbars, and dozens more. In addition to GUI features it ships some big improvements to VT functionality, as always.

Organizationally, Ghostty is now backed by a non-profit organization: https://mitchellh.com/writing/ghostty-non-profit And just this past week we signed our first 4 contributor contracts to pay contributors real money! Our finances are all completely public and transparent online. This is to show the commitment I have to making Ghostty non-commercial and non-reliant on me (the second part over time).

That’s a 10,000 foot overview of what’s going on. Exciting times in Ghostty land. :) Happy to answer any big questions.

mitchellh

我是 Ghostty 的原作者。时间过得真快,已经过去好几年了!我不知道为什么这篇文章又登上了 HN 的首页,但借此机会,我想全面地更新一下一些重要信息。

首先,现在的 libghostty 要激动人心得多。它已经支持了十几个免费和商业的终端项目:https://github.com/Uzaaft/awesome-libghostty 我认为这才是 Ghostty 的真正未来,而且我从 2023 年第一次公开发表演讲时就这么说了:真正的目标是建立一个多样化的终端模拟器生态系统,它们旨在解决特定的终端使用场景,但都基于一个共享的、稳定的、功能丰富的、高性能的核心。这件事正在发生!关于 libghostty 更多细节在这里:https://mitchellh.com/writing/libghostty-is-coming

我猜测到 2027 年中期,通过 libghostty 使用 Ghostty 的人数将远超实际使用 Ghostty GUI 的用户数。这对各方都是个好消息,因为更多的 libghostty 使用也会让 Ghostty GUI 更稳定(因为 Ghostty 本身……当然……也是一个 libghostty 的使用者)。我们已经通过 libghostty 的嵌入者们修复了许多 bug。

在 GUI 方面,Ghostty 这款应用仍在不断增加大量新功能,并且使用率很高。macOS 版本的 Ghostty 每周大约有 100 万次下载(我没有 Linux 的数据,因为我没有提供构建版本)。我确定其中很多是自动化下载,但这仍然是一个巨大的数字。Ghostty 中没有遥测数据,所以我无法提供更详细的说明。我从一些带遥测功能的大型第三方 TUI 应用中得到了一些数据,这些数据显示 Ghostty 是它们最大的用户群,但这个数据可能存在偏差,因为倾向于使用更新 TUI 的人往往也会使用更新的终端。重点在于:有很多人在使用它,它已经在现实世界中得到了验证,而且我们正在持续不断地对其进行重大改进。

Ghostty 1.3 版本即将发布,一两周内就会推出,并且将带来一些至关重要的功能,比如搜索(cmd+f)、滚动条等,以及其他数十项新功能。和往常一样,除了 GUI 功能,它还带来了对 VT 功能的重大改进。

在组织架构上,Ghostty 现在由一个非营利组织支持:https://mitchellh.com/writing/ghostty-non-profit 就在刚刚过去的一周,我们签下了首批 4 位贡献者的合同,并会为他们支付真实的酬劳!我们的财务状况是完全公开和透明的。这是为了证明我致力于让 Ghostty 保持非商业化和对我个人的依赖性(后者会逐步实现)。

以上就是目前情况的宏观概述。Ghostty 领域真是激动人心的时刻。很乐意回答任何重大问题。


We do not think Anthropic should be designated as … #

https://news.ycombinator.com/item?id=47202101

OpenAI is playing games.

When Anthropic says they have red lines, they mean “We refuse to let you use our models for these ends, even if it means losing nearly a billion dollars in business.”

When OpenAI says they have red lines, they mean “We are going to let the DoD do whatever the hell they want, but we will shake our fist at them while they do it.”

That’s why they got the contract. The DoD was clear about what they wanted, and OpenAI wasn’t going to get anywhere without agreeing to that. They’re about as transparent as Mac from It’s Always Sunny in Philadelphia when he’s telling everyone he’s playing both sides.

AlexVranas

OpenAI是在玩文字游戏。

当Anthropic说他们有红线时,意思是“我们绝不允许你们用我们的模型达到这些目的,哪怕这意味着要损失近十亿美元的业务。”

当OpenAI说他们有红线时,意思是“我们会让国防部为所欲为,但在他们这么做的时候,我们还要摆出一副谴责他们的样子。”

这就是他们能拿到合同的原因。国防部明确表达了他们的要求,而OpenAI如果不答应就根本别想拿到合同。他们的透明度,堪比《费城总是阳光灿烂》里的Mac,当他告诉所有人自己脚踩两条船时,他那种透明度。


We do not think Anthropic should be designated as … #

https://news.ycombinator.com/item?id=47201779

From that same X thread: Our agreement with the Department of War upholds our redlines 1

OpenAI has the same redlines as Anthopic based on Altman’s statements 2. However somehow Anthropic gets banished for upholding their redlines and OpenAI ends up with the cash?

cube00

来自同一则X帖子:我们与战争部的协议坚守了我们的红线 1

根据奥特曼的声明,OpenAI与Anthropic的红线相同 2。然而,不知为何,Anthropic因坚守自己的红线而遭驱逐,OpenAI最终却赚得盆满钵满?


We do not think Anthropic should be designated as … #

https://news.ycombinator.com/item?id=47202020

more stringent safeguards than previous agreements, including Anthropic’s.

Except they are not “more stringent”.

Sam Altman is being brazen to say that.

In their own agreement as Altman relays:

The AI System will not be used to independently direct autonomous weapons in any case where law, regulation, or Department policy requires human control

any use of AI in autonomous and semi-autonomous systems must undergo rigorous verification, validation, and testing

For intelligence activities, any handling of private information will comply with the Fourth Amendment, the National Security Act of 1947 and the Foreign Intelligence and Surveillance Act of 1978, Executive Order 12333, and applicable DoD directives

The system shall also not be used for domestic law-enforcement activities except as permitted by the Posse Comitatus Act and other applicable law.

I don’t think their take is completely unreasonable, but it doesn’t come close to Anthropic’s stance. They are not putting their neck out to hold back any abuse - despite many of their employees requesting a joint stand with Anthropic.

Their wording gives the DoD carte blanch to do anything it wants, as long as they adopt a rationale that they are obeying the law. That is already the status quo. And we know how that goes.

In other words, no OpenAI restriction at all.

That is not at all comparable to a requirement the DoD agree not to do certain things (with Anthropic’s AI), regardless of legal “interpretation” fig leaves. Which makes Anthropic’s position much “more stringent”. And a rare and significant pushback against governmental AI abuse.

(Altman has a reputation for being a Slippery Sam. We can each decide for ourselves if there is evidence of that here.)

Nevermark

比之前的协议,包括 Anthropic 的协议,有更严格的保障措施。

但它们并非“更严格”。

萨姆·奥特曼这么说真是厚颜无耻。

正如他所传达的,在他们自己的协议中:

在任何法律、法规或部门政策要求人类控制的场景下,该 AI 系统不得被用于独立指挥自主武器

在自主和半自主系统中的任何 AI 使用,都必须经过严格的验证、验证和测试

对于情报活动,任何私人信息的处理都必须遵守《第四修正案》、《1947 年国家安全法》、《1978 年外国情报监视法》、第 12333 号行政命令以及适用的国防部指令

该系统也不得用于国内执法活动,除非《平民权利法》及其他适用法律允许。

我认为他们的立场并非完全不合理,但它远不及 Anthropic 的立场。他们并没有挺身而出以遏制任何滥用——尽管许多员工曾要求与 Anthropic 采取联合立场。

他们的措辞给了国防部 carte blanch( carte blanche:全权委托, carte blanche 为法语,意为空白支票,意指不受限制的自由行事权)去做任何他们想做的事,只要他们采纳一个遵守法律的理由即可。而这早已是现状。我们都知道事情会发展到何种地步。

换句话说,OpenAI 根本没有任何限制。

这与要求国防部同意不做某些事情(使用 Anthropic 的 AI)完全不可同日而语,无论他们是否会用法律“解释”来做遮羞布。这使得 Anthropic 的立场要“严格得多”。这也是一次罕见且重要的对政府滥用 AI 的抵制。

(奥特曼有“滑头萨姆”的名声。我们每个人都可以自行判断此处是否有证据。)


Switch to Claude without starting over #

https://news.ycombinator.com/item?id=47204771

I already switched to claude a while ago. Didn’t bring along any context, just switched subscriptions, walked away from chatgpt and haven’t touched it again. Turned out to be a non-event, there really is no moat.

I switched not because I thought Claude was better at doing the things I want. I switched because I have come to believe OpenAI are a bad actor and I do not want to support them in any way. I’m pretty sure they would allow AGI to be used for truly evil purposes, and the events of this week have only convinced me further.

Joeri

我前段时间就已经切换到 Claude 了。我没有迁移任何对话记录,只是更换了订阅,然后就离开了 ChatGPT,再也没有碰过它。结果证明这完全不是个事儿,ChatGPT 真的没什么护城河了。

我切换,并不是因为我觉得 Claude 在做我想做的事情上更出色。我切换是因为我逐渐相信 OpenAI 是个不良的参与者,我不想以任何方式支持他们。我非常确定他们会放任 AGI 被用于真正邪恶的目的,而本周发生的事情,只是让我更加确信这一点。


How to talk to anyone, and why you should #

https://news.ycombinator.com/item?id=47210627

After a bad breakup in 2015, I followed some advice from the socialskills subreddit to “talk to everyone” so that you get better at talking to women you might want to date. The advice was not to only talk to attractive people but everyone. The old man reading a Russian newspaper, the kid on bike doing tricks, people in the elevator.

I do that now and it brings me a lot of joy. Recently while leaving a botanical garden I spoke to a man who was excitedly looking for a few specific plants. He is a botanist (amateur? professional? unclear) and I enjoyed sharing in his passion for a moment. Then I saw a maintenance guy moving with great intention who took a moment to ask me and my family if we had a nice time. We did, and I asked him about the papers in his hand. “Gotta get approval for this purchase request asap.” He said. We talked a bit about how nice it is to work at such a beautiful place.

I highly recommend talking to strangers! People are lovely. Go out and try it.

SequoiaHope

2015年经历了一场糟糕的分手后,我听从了社交技巧版块的建议,去“和每个人交谈”,以便更好地与可能想约会的人交流。这个建议是不仅仅要和有吸引力的人交谈,也要和所有人交谈。无论是读着俄文报纸的老先生,是做特技骑单车的孩子,还是在电梯里的人。

我现在就这么做,这给我带来了很多快乐。最近,离开一个植物园时,我和一个男人聊了几句,他正兴奋地寻找几种特定的植物。他是个植物学家(是业余的还是专业的?不太清楚),我很高兴能与他共享那份热忱片刻。接着,我看到一个维修工神情专注地走过来,他特意停下来问我及我的家人玩得是否愉快。我们确实玩得很愉快,于是我问他手里拿的文件是什么。“得尽快为这个采购申请拿到批准,”他说。我们还聊了聊在这么美丽的地方工作是多么棒的事情。

我强烈推荐和陌生人交谈!人们都很可爱。走出去,试试看吧。


Our Agreement with the Department of War #

https://news.ycombinator.com/item?id=47200771

For intelligence activities, any handling of private information will comply with the Fourth Amendment, the National Security Act of 1947 and the Foreign Intelligence and Surveillance Act of 1978, Executive Order 12333, and applicable DoD directives requiring a defined foreign intelligence purpose. The AI System shall not be used for unconstrained monitoring of U.S. persons’ private information as consistent with these authorities. The system shall also not be used for domestic law-enforcement activities except as permitted by the Posse Comitatus Act and other applicable law.

My reading of this is that OpenAI’s contract with the Pentagon only prohibits mass surveillance of US citizens to the extent that that surveillance is already prohibited by law. For example, I believe this implies that the DoW can procure data on US citizens en masse from private companies - including, e.g., granular location and financial transaction data - and apply OpenAI’s tools to that data to surveil and otherwise target US citizens at scale. As I understand it, this was not the case with Anthropic’s contract.

If I’m right, this is abhorrent. However, I’ve already jumped to a lot of incorrect conclusions in the last few days, so I’m doing my best to withhold judgment for now, and holding out hope for a plausible competing explanation.

(Disclosure, I’m a former OpenAI employee and current shareholder.)

tfehring

在情报活动中,对私人信息的处理将遵守《第四修正案》、《1947年国家安全法》、《1978年外国情报监视法》、第12333号行政命令,以及所有要求具备明确外国情报目的的适用国防部指令。根据这些授权条款,该人工智能系统不得用于对美国公民的私人信息进行无限度的监视。除非得到《平民执法法》及其他适用法律的许可,否则该系统也不得用于国内执法活动。

我的理解是,OpenAI与五角大楼的合同仅禁止了法律已经禁止的那种对美国公民的大规模监视。例如,我相信这意味着五角大楼可以从私营公司大批量获取美国公民的数据——例如,详细的位置和金融交易数据——并运用OpenAI的工具处理这些数据,从而大规模监视和针对美国公民。据我了解,Anthropic的合同并非如此。

如果我的理解是正确的,那真是令人发指。然而,在过去的几天里,我已经犯了太多草率下结论的错误,所以我正尽力暂缓判断,并希望有一个更合理的解释。

(声明:我曾为OpenAI员工,现为其股东。)


Block the “Upgrade to Tahoe” alerts #

https://news.ycombinator.com/item?id=47200608

I accidentally hit the wrong button a few weeks ago and upgraded to Tahoe. I didn’t think it was that big a deal at the time, I’d just been putting it off.

But having used it for a few weeks now I can confirm it is a strict downgrade over Sequoia for me. I use none of the new features it has introduced, and the changes to existing features are just worse.

Some UI animations are slow and jittery - and this is on an M4 Pro. The Finder has gone from fine to janky once again, especially with horizontal scroll. The window corners and mouse interactions are indeed annoying (I’d assumed the many complaints were at least slight hyperbole). Left-aligned window titles are unbalanced and ugly. I’ve had weird (visual) app duplication issues with the Application smart-folder in the Dock. Cross-device copy-paste SEEMS to be more flaky than usual. And most petty of all I really don’t like the new icons - especially the Trash icon for some reason.

DavidPiper

几周前我不小心按错了按钮,升级到了Tahoe系统。当时我没觉得这有什么大不了的,因为一直拖着没升级。

但用了几周后我可以确认,对我而言,这相比Sequoia是一次彻底的降级。我用不上它引入的任何新功能,而对现有功能的改动也只是变得更差了。

一些UI动画变得缓慢且卡顿——这还是在M4 Pro上。Finder从尚可再次变得卡顿,特别是在水平滚动时。窗口的圆角和鼠标交互确实很烦人(我曾以为那么多抱怨多少有点夸张)。左对齐的窗口标题显得很不平衡且丑陋。Dock的应用程序智能文件夹曾出现奇怪的(视觉上)应用重复问题。跨设备复制粘贴似乎比平时更不稳定了。而最让我在意的是,我真的不喜欢新图标——特别是不知为何的回收站图标。


Statement on the comments from Secretary of War Pe… #

https://news.ycombinator.com/item?id=47188872

Stay strong Anthropic. We just like you more for this.

hank2000

Anthropic,请坚强。我们因为这个更喜欢你们了。


Iran’s Ayatollah Ali Khamenei is killed in Israeli… #

https://news.ycombinator.com/item?id=47201027

The Iranian diaspora around the world is celebrating. Here’s the scene in Berlin:

https://youtu.be/NSbx_0mtk80?si=MJ_Bfvx8gVd1P1mm

They’ve waited a very long time for this moment!

thomassmith65

全世界的伊朗侨民都在庆祝。以下是柏林的现场情况:

https://youtu.be/NSbx_0mtk80?si=MJ_Bfvx8gVd1P1mm

他们为了这一刻已经等待了非常长的时间!


I built a demo of what AI chat will look like when… #

https://news.ycombinator.com/item?id=47205891

We all know the pattern: something useful launches → it becomes popular → it needs to make money → ads everywhere.

AI chat is heading the same way. So I built a fully interactive demo that shows what an ad-supported AI chatbot could actually look like: https://99helpers.com/tools/ad-supported-chat

It includes every monetization pattern you can think of:

  • Pre-chat interstitials (like YouTube pre-rolls, but for chat) - Sponsored AI responses (the AI casually recommends products mid-answer) - Freemium gates (5 free messages, then watch an ad to continue) - Banner ads, sidebar ads, retargeting ads - Sponsored suggestion chips (“Ask about BrainBoost Pro! “)

nickk81

我们都清楚这个套路:某个有用的东西诞生了 → 它变得流行 → 它需要赚钱 → 广告铺天盖地。

AI聊天也正在走上这条路。所以我做了一个完全交互式的演示,来展示一个靠广告支持的AI聊天机器人实际上会是什么样子:https://99helpers.com/tools/ad-supported-chat

它包含了你能想到的所有变现模式:

  • 聊天前的插页广告(类似YouTube的贴片广告,但用于聊天)
  • 赞助的AI回答(AI在回答中不经意地推荐产品)
  • 免费增值门槛(5条免费消息,然后看广告才能继续)
  • 横幅广告、侧边栏广告、再营销广告
  • 赞助的建议芯片(“来问问BrainBoost Pro吧!”)

I am directing the Department of War to designate … #

https://news.ycombinator.com/item?id=47188788

The administration’s approach to contracts, agreements, treaties and so on could be summed up as ‘I am altering the deal. Pray I do not alter it further.’

The basic problem in our polity is that we’ve collectively transferred the guilty pleasure of aligning a charismatic villain in fiction to doing the same in real life. The top echelons of our government are occupied by celebrities and influencers whose expertise is in performance rather than policy. For years now they’ve leaned into the aesthetics of being bad guys, performative cruelty, committing fictional atrocities, and so forth. Some MAGA influencers have even adopted the Imperial iconography from Star Wars as a means of differentiating themselves from liberal/democratic adoption of the ‘rebel’ iconography. So you have have influencers like conservative entrepreneur Alex Muse who styles his online presence as an Imperial stormtrooper. As Poe’s law observes, at some point the ironic/sarcastic frame becomes obsolete and you get political proxies and members of the administration arguing for actual infringements of civil liberties, war crimes, violations of the Constitution and so on.

anigbrowl

政府在合同、协议、条约等问题上的处理方式,可以总结为一句话:‘我正在修改协议。希望我不会再进一步修改了。’

我们政治体系的基本问题在于,我们集体将小说中追随魅力型反派的罪恶快感,转移到了现实生活中。政府高层被那些精通表演而非政策的名人和网红所占据。多年来,他们一直沉浸于扮演反派的美学中,表演性的残酷,犯下虚构的暴行,等等。一些MAGA网红甚至采纳了《星球大战》中的帝国徽标,以区别于自由派/民主党人对‘反叛军’徽标的使用。因此,你像保守派企业家亚历克斯·缪斯这样的网红,会将网络形象塑造成帝国暴风兵。正如波伊定律所言,到了某个阶段,讽刺/戏谑的框架就会过时,你会看到政治代理人及政府官员开始为实际侵犯公民自由、战争罪、违反宪法等行为辩护。


How do I cancel my ChatGPT subscription? #

https://news.ycombinator.com/item?id=47191478

Department of Defense: You just bombed the wrong Georgia! The people of Atlanta are furious!

ChatGPT: You’re absolutely right, and you’re right to call that out. Upon examination it does appear that there might have been a mistake with the coordinates of the bomb. Let’s try again, this time we will double check before we launch any missiles! :missile emoji:

tombert

国防部:你们炸错了乔治亚!亚特兰大的人民愤怒了!

ChatGPT:你说得完全正确,而且指出这个问题是对的。经查证,看来炸弹的坐标可能出了差错。我们再试一次,这次在发射任何导弹前,我们都会再三检查!💥


Statement on the comments from Secretary of War Pe… #

https://news.ycombinator.com/item?id=47189931

My lived experience with tech companies is that principles are easy when they’re free - i.e., when you’re telling others what to do, or taking principled stances when a competitor is not breathing down your neck.

So, with all respect, when someone tells me that the people they worked with were well-intentioned and driven by values, I take it with a grain of salt. Been there, said the same things, and then when the company needed to make tough calls, it all fell apart.

However, in this instance, it does seem that Anthropic is walking away from money. I think that, in itself, is a pretty strong signal that you might be right.

lich_king

我与科技公司的亲身经历是,原则在无关痛痒时很容易坚持——也就是说,当你只是在指手画脚,或者在竞争对手还没构成威胁时采取某种原则立场时。

因此,恕我直言,当有人告诉我他们共事的人怀揣善意、受价值观驱动时,我总会对此打个问号。我经历过,也说过同样的话,可一旦公司需要做出艰难抉择,那些所谓的原则就都土崩瓦解了。

然而,在这次事件中,Anthropic 似乎真的在拒绝金钱。我认为,这一点本身就是一个非常强烈的信号,或许你是对的。


The whole thing was a scam #

https://news.ycombinator.com/item?id=47200239

This is only a surprise to HN, because all the other threads about the corrupt US regime have been flagged before. I guess now is a good time as any to start paying attention. Who would’ve thought that attention is all you need?

addandsubtract

这对HN来说是个意外,因为所有关于腐败美国政权的帖子之前都被标记了。我想现在开始关注正是个好时机。谁能想到,你所需要的全部,就是关注呢?