2026-04-01 Hacker News Top Stories #
- Anthropic的Claude Code源码通过NPM包中的map文件意外泄露,暴露了包括"潜伏模式"在内的未发布功能及反蒸馏机制。
- Axios npm包遭供应链攻击,恶意版本植入远程访问木马,可感染Windows、macOS和Linux系统。
- Oracle因AI数据中心建设背负巨额债务,计划全球裁员2至3万人以削减成本。
- NASA的Artemis II任务因Orion飞船热盾存在严重缺陷且未充分验证,被质疑安全性不足。
- 美国联邦政府推出的多款官方应用被曝内置追踪技术和过度权限,监控能力超过被禁应用。
- Ollama发布基于Apple MLX框架的预览版,专为Apple Silicon优化,显著提升本地大模型推理性能。
- GitHub Copilot因在开发者Pull Request中自动插入广告链接引发抵制,已紧急撤回该功能。
- 泄露的Claude Code源码揭示了其通过虚假工具污染训练数据、检测用户情绪及隐藏AI身份的"潜伏模式"等机制。
- 开源项目claude-token-efficient通过配置文件可减少Claude模型63%的冗余输出,降低token消耗。
- 微软更新Copilot服务条款,明确该服务仅用于娱乐目的,不保证内容准确性且禁止商业使用。
1. Claude 代码源码通过其 NPM 注册表中的 map 文件泄露 (Claude Code’s source code has been leaked via a map file in their NPM registry) #
https://twitter.com/Fried_rice/status/2038894956459290963
用户 Chaofan Shou 在 X 平台发布消息称,Claude 的代码源码已通过其 npm 注册表中的一个 map 文件泄露。该泄露代码可通过链接 https://pub-aea8527898604c1bbb12468b1581d95e.r2.dev/src.zip 获取,发布时间为 2026 年 3 月 31 日。此消息引发广泛关注,已获得 2270 万次观看,收到超过 3.3 万条回复,显示公众对 AI 模型源码安全性的高度关注。
HN 热度 1822 points | 评论 888 comments | 作者:treexs | 14 hours ago #
https://news.ycombinator.com/item?id=47584540
- npm 包一旦被发布超过 72 小时且有超过 100 次下载,就无法直接 unpublish,但可以通过联系 npm 官方团队申请手动删除,这在高关注度事件中是可行的。
- Anthropic 通过“deprecate”而非“unpublish”来处理泄露的包,可能是为了制造障碍,让外界更难获取源码映射文件,但此举并未真正移除文件。
- 该事件暴露了 Anthropic 产品的未发布功能,如“助理模式”(Kairos)、“伙伴系统”(Tamagotchi 风格的 ASCII 宠物)、“潜伏模式”(隐藏内部信息提交)等,这些功能通过代码中的特征标志被发现。
- “Capybara”一词出现在代码中,被用作识别特定功能或测试的标记,甚至可能成为筛选模型的手段。
- 有人调侃“伙伴系统”是今年的愚人节玩笑,但实际可能已投入开发,且预期会引发社交媒体热议。
- 尽管 Claude Code 存在诸多问题,但其在实际开发流程中的使用(如自动化任务、定时任务)仍具有实用价值,用户愿意接受其不完美。
- 一些用户基于 Claude Code 开发了第三方工具,如 Clappie,集成了 Telegram、Tmux 和定时任务等功能,提供了更灵活的使用方式,尤其适合无头服务器环境。
- 该事件也反映出“自用即测试”(dogfooding)的重要性,开发者在真实使用中才能发现并修复痛点,提升产品实用性。
- 有开发者表示,使用内部工具进行真实测试是保障产品质量的关键,即使在生产环境中部署测试版本也应被接受。
- 该事件也让人联想到 Web3 时代中“DAO”和“软合约”等概念,面对欺诈问题时,最终仍需通过硬分叉等手段解决,说明技术治理的复杂性。
2. Axios 项目在 npm 上遭供应链攻击,恶意版本植入远程访问木马 (Axios compromised on NPM – Malicious versions drop remote access trojan) #
axios 项目在 npm 上遭遇供应链攻击,两个版本 axios@1.14.1mailto:axios@1.14.1 和 axios@0.30.4mailto:axios@0.30.4 被植入恶意依赖 plain-crypto-js@4.2.1。该恶意包不被 axios 代码引用,仅通过 postinstall 脚本执行,部署跨平台远程访问木马(RAT)。
攻击者首先通过劫持 axios 维护者账户 jasonsaayman(邮箱为 ifstap@proton.me)发布恶意版本。在攻击前 18 小时,攻击者已发布干净版本 plain-crypto-js@4.2.0mailto:plain-crypto-js@4.2.0 以建立发布历史,规避安全检测。随后在 UTC 时间 23:59 发布含恶意代码的 plain-crypto-js@4.2.1,其 postinstall 脚本执行 setup.js,作为 RAT 摧毁器。
setup.js 脚本在安装后立即连接 C2 服务器 sfrclak.com:8000,根据操作系统下载并执行针对性第二阶段 payload,包括针对 macOS、Windows 和 Linux 的攻击载荷。执行完成后,木马会自我清除,并将 package.json 替换为干净版本,隐藏证据。
整个攻击过程高度精密:两个 axios 版本在 39 分钟内相继发布,恶意依赖提前部署,安装后两秒内即完成“呼叫回家”,且 npm 仅在 03:15 才下架两个版本,期间影响广泛。
StepSecurity 的 AI Package Analyst 和 Harden-Runner 工具在多个开源项目中检测到异常网络行为,如 Backstage 项目中出现的 C2 连接,从而触发警报。Harden-Runner 的社区版对公开项目检测结果公开透明,可供验证。
npm 在 03:25 对 plain-crypto-js 加入安全封禁,04:26 发布安全占位包 plain-crypto-js@0.0.1-security,阻止后续安装。
若已安装 axios@1.14.1mailto:axios@1.14.1 或 axios@0.30.4,应视为系统已被入侵。建议立即卸载并检查开发环境,所有项目需更新依赖至安全版本。
StepSecurity 将于 4 月 1 日举办线上社区研讨会,深入解析攻击链、IOC 及应对措施,欢迎注册参与。
HN 热度 1742 points | 评论 707 comments | 作者:mtud | 20 hours ago #
https://news.ycombinator.com/item?id=47582220
- “电池已包含”(Batteries Included)的生态系统能有效减少对第三方依赖,从而降低安全风险,尤其在关键功能如 HTTP、JSON、加密等方面,可显著提升软件安全性与稳定性。
- 尽管“电池已包含”生态在主流语言中已较完善,但仍无法覆盖所有使用场景,例如新文件格式、特定 API 或高性能需求,导致仍需依赖外部库。
- 标准库往往更新缓慢,难以跟上 HTML、XPath、RDF 等标准的快速演进,导致其在某些场景下“过时”,无法满足现代开发需求。
- 语言标准库的“固化”现象严重,一旦加入就难以更改或淘汰,形成“代码坟墓”,反而限制了技术进步。
- 第三方库的广泛使用并非因为标准库缺失,更多是出于 API 设计、开发体验或性能优化等主观选择,而非功能不可替代。
- JavaScript 生态中,
fetch已原生支持 HTTP 请求,Axios 的流行更多是开发者偏好问题,而非标准库功能不足。 - 语言生态(如 Python、.NET、Java)虽有丰富标准库,但依然依赖 PyPI、NuGet 等外部包管理器,说明“电池已包含”无法完全替代第三方库。
- .NET 在 LINQ、Decimal、模型验证、CSRF 防护等方面内置功能远超 Node.js,体现出其“电池已包含”优势。
- Python 标准库虽丰富,但因社区习惯,仍大量使用
requests等第三方库,说明标准库并不总能主导开发实践。 - 安全问题根源在于对第三方库的过度信任,应建立类似权限控制的机制,让恶意行为在引入时被明确警示。
- 语言标准库的演进能力有限,而第三方库更易快速迭代,因此在用户体验和性能上更具优势,但也带来安全风险。
- 有人认为开发者选择性能与体验而牺牲安全是不负责任的,但现实中安全与效率常需权衡,不能简单归咎于开发者。
3. Oracle 大规模裁员,拟裁减 3 万岗位 (Oracle slashes 30k jobs) #
https://rollingout.com/2026/03/31/oracle-slashes-30000-jobs-with-a-cold-6/
Oracle 近期在全球范围内实施大规模裁员,涉及约 20,000 至 30,000 名员工,约占其全球 16.2 万员工总数的 18%。此次裁员行动于 2026 年 3 月 31 日清晨 6 点左右突然启动,员工在未收到任何提前通知的情况下,通过一封来自“Oracle Leadership”的简短邮件得知被解雇,且邮件中未提供任何面对面沟通或电话说明。
邮件内容格式化,仅告知员工因公司业务调整,其岗位已被取消,当天即为最后工作日,并需通过 DocuSign 签署离职文件以领取遣散费。部分员工被要求更新个人邮箱以接收后续信息,同时其公司系统访问权限被立即撤销。
受影响最严重的部门包括 RHS(收入与健康科学)和 SVOS(SaaS 与虚拟运营服务),部分团队裁员比例高达 30% 以上,涵盖工程师、项目经理及管理层。印度 NetSuite 开发中心也遭受重创,多个层级岗位被裁。部分员工的未兑现限制性股票单位被立即作废,而已兑现部分则通过 Fidelity 继续持有。部分员工被安排一个月“带薪休假”期,正式离职日为 4 月 3 日。
此次裁员与 Oracle 在人工智能基础设施领域的激进扩张密切相关。公司为建设 AI 数据中心已借入 580 亿美元债务,导致股价自 2025 年 9 月高点下跌超 50%。尽管公司上季度净利润同比飙升 95% 至 61.3 亿美元,但巨额债务与融资困难迫使公司大规模削减人力成本,预计此次裁员将释放 80 亿至 100 亿美元现金流。
有员工爆料,公司近期已在员工设备上部署监控软件,警告勿复制文件或代码。此次事件引发广泛讨论,凸显科技行业在 AI 竞赛中对人力与财务的双重高压。
HN 热度 805 points | 评论 706 comments | 作者:pje | 8 hours ago #
https://news.ycombinator.com/item?id=47587935
- Oracle 在 2000 年前后因其高可用性和垂直扩展能力在企业级数据库市场占据主导地位,尤其在在线备份和复杂复制配置方面领先。
- 当时 MySQL 和 PostgreSQL 在可扩展性、高可用性和事务处理方面存在明显短板,无法满足关键业务需求。
- MySQL 在早期版本中存在严重缺陷,如事务不生效、约束不强制、隐式类型转换和索引损坏等问题,被形容为“PHP 的 RDBMS”。
- PostgreSQL 在 2010 年前缺乏企业级可用性,尽管功能强大但管理复杂,难以支撑关键业务系统。
- DB2 作为 IBM 的企业级数据库,性能优秀但被公司战略失误拖累,未能充分发挥潜力。
- Oracle 的数据库在当时是实现高可用、强一致性和大规模事务处理的唯一可行选择,许多项目不得不为此投入巨大成本重构。
- 尽管 Oracle 现在被批评为昂贵且缺乏竞争力,但其历史地位源于在特定时期的技术领先。
- 现代开源数据库如 PostgreSQL 和 MySQL 已经在功能和稳定性上全面超越早期版本,使得 Oracle 的优势不再明显。
- SQL Server 曾是性价比高的替代方案,但在后期也陷入与 Oracle 类似的许可争议。
- Oracle 的企业服务和生态体系至今仍对部分传统行业具有吸引力,尤其在金融和大型企业中。
4. 阿耳忒弥斯 2 号任务存在严重安全隐患,不可安全飞行 (Artemis II is not safe to fly) #
https://idlewords.com/2026/03/artemis_ii_is_not_safe_to_fly.htm
NASA 即将执行载人绕月任务 Artemis II,但其使用的 Orion 宇宙飞船热盾存在严重安全隐患。2022 年 Artemis I 任务返航时,热盾出现大量材料剥落,形成深坑与孔洞,部分固定螺栓甚至熔穿。NASA 最初隐瞒问题,直到 2024 年审计署(OIG)公布照片后,真相才被揭露。
热盾材料 Avcoat 本应均匀烧蚀,但因 Orion 航天器比阿波罗飞船重一倍,且采用实验性分段设计,导致在高速再入时气体无法有效排出,造成局部爆裂。OIG 报告指出三大致命风险:热盾剥落导致结构暴露、碎片飞溅击穿降落伞舱、螺栓熔穿引发高温气体侵入,可能导致飞船解体。
面对无法更改的发射计划和高昂成本,NASA 未进行重新设计或无人验证飞行,而是通过调整再入轨迹来“弥补”风险。尽管宣称已找到问题根源——热盾透气性不足,但 Artemis II 使用的热盾反而更不透气,且新设计要等到 Artemis III 才启用。
这种做法引发广泛质疑。批评者指出,NASA 对商业载人飞船(如 SpaceX 龙飞船)要求严格,却对自身旗舰项目网开一面。更令人担忧的是,NASA 所依赖的分析模型曾无法预测问题,如今仍无法准确模拟新飞行条件下的热盾表现。
航天专家、前航天飞机宇航员查尔斯·卡马尔达等人士公开质疑 NASA 的安全评估,认为其在时间与预算压力下,已悄然削减安全余量,将风险强行为“可接受”。
HN 热度 788 points | 评论 523 comments | 作者:idlewords | 20 hours ago #
https://news.ycombinator.com/item?id=47582043
- NASA 存在长期存在的安全文化问题,从航天飞机计划初期就已显现,类似挑战者号和哥伦比亚号灾难的系统性失败可能再次发生。
- 管理层普遍存在自我中心、害怕被羞辱或回避冲突的心理,导致安全问题被掩盖,这种文化在多个行业都普遍存在。
- 管理者往往更关注职位带来的权力与利益,而非实际责任,这种心态导致安全标准被牺牲。
- 即使建立激励机制,也难以完全解决安全问题,因为目标一旦被量化就容易被操纵,即“古德哈特法则”。
- 用“产品赚钱”和“无人死亡”这类结果指标比单纯量化代码行数等更容易防止被钻空子。
- 管理者若需在任务中承担实际风险,如亲自参与飞行,可能更愿意重视安全。
- 人类的权力欲望和对羞辱的恐惧是普遍心理,不能指望所有人都能克服,因此问题根源在于系统而非个人。
- 组织应主动预防风险,建立机制让团队能灵活调整方向而不必担心被指责或丢脸。
- 当前 NASA 的决策过程缺乏真正透明,关键安全专家被排除在讨论之外,仅允许单方面陈述,存在严重的信息操控。
- 选拔领导者时应考虑多样性,当前选拔机制倾向于白人中老年男性,而忽视了其他类型人格可能带来的不同文化与责任感。
5. 联邦政府应用被曝比被禁应用更擅监控:Fedware——政府版间谍软件 (Fedware: Government apps that spy harder than the apps they ban) #
https://www.sambent.com/the-white-house-app-has-huawei-spyware-and-an-ice-tip-line/
联邦政府推出的多款官方应用程序被曝存在严重隐私问题,被作者称为“Fedware”——即政府版间谍软件。这些应用在未充分告知用户的情况下,过度索取权限并植入追踪技术,严重侵犯公民隐私。
白宫官方应用版本 47.0.1 请求精确 GPS 定位、指纹识别、存储读写、开机自启、悬浮窗权限及 Wi-Fi 扫描等共 10 项敏感权限,并内置 3 个追踪组件,其中包括被美国政府制裁的华为移动服务核心(Huawei Mobile Services Core),引发巨大争议。该应用还设有“向总统发短信”功能,自动填充“最伟大的总统”内容并收集用户姓名与电话号码,但无专门隐私政策说明。
联邦调查局(FBI)的 myFBI Dashboard 应用拥有 12 项权限,包含账户发现、电话状态读取、Wi-Fi 扫描等,并嵌入 4 个追踪器,其中包含 Google AdMob 广告 SDK,意味着该官方应用会投放精准广告,同时获取用户设备身份信息。
联邦紧急事务管理局(FEMA)应用请求 28 项权限,远超其仅用于发布天气警报和避难所信息的功能需求。相比之下,AP 新闻等民用新闻应用可提供类似服务,却仅需极少权限。
美国海关和边境保护局(CBP)的 Mobile Passport Control 应用请求 14 项权限,其中 7 项为“高危权限”,包括后台定位、摄像头访问、生物识别和完整存储权限。其采集的面部数据可在 DHS、ICE 和 FBI 之间共享,保留长达 75 年。
ICE 执法部门使用的 Mobile Fortify 应用,可调用 DHS、FBI、国务院的数亿张人脸图像,并通过 920 万美元合同接入 Clearview AI 的 500 亿张网络爬取图像。该系统可对任何个人进行生物信息分析,无论其是否为美国公民。
SmartLINK 是 ICE 电子监控应用,由私营监狱公司 GEO 集团子公司开发,合同金额高达 22 亿美元。该应用收集用户的地理位置、面部图像、语音特征、医疗信息(包括是否怀孕)及联系人号码。合同赋予 ICE“无限使用、处置或披露”所有数据的权利,且曾允许在监控范围外共享信息。
此外,美国国土安全部、FBI、国防部和缉毒局(DEA)通过数据经纪商购买超过 2.5 亿设备的实时位置数据,每日达 150 亿条,完全绕开最高法院在 Carpenter 案中确立的搜查令要求。
美国政府问责署(GAO)报告指出,自 2010 年以来,其提出的 236 项隐私与安全建议中,近 60% 未被落实。国会两次被要求立法保护隐私,但至今未采取行动。
IRS 与 ICE 之间的数据共享协议也引发严重问题,IRS 曾错误地向 ICE 提供 128 万名纳税人的信息,导致多名无辜者被列入遣返名单,最终引发时任 IRS 代理专员辞职抗议。
总体来看,联邦政府在数字监控方面已形成高度系统化的数据采集网络,其官方应用在功能与权限之间严重失衡,公民隐私面临前所未有的威胁。
HN 热度 655 points | 评论 260 comments | 作者:speckx | 1 day ago #
https://news.ycombinator.com/item?id=47577761
- 白宫官方应用内嵌入被美国政府制裁的华为移动服务核心,存在严重安全风险,反映出政府在技术安全上的双重标准。
- 政府高层可能并不知情,但这种“无意识”的疏忽更令人担忧,暗示系统性腐败或内部破坏。
- 所谓“ incompetence”(无能)可能是故意伪装,实为“恶意无能”或“恶意合规”,用以掩盖真实意图。
- 政治对立中,若发现对手应用存在类似问题,政府会毫不犹豫地加以利用,凸显政治工具化。
- 美国政治已进入“非黑即白”的极端化状态,事实与真相不再重要,意识形态主导一切。
- 美国政治的恶化并非始于特朗普,而是从尼克松、里根、小布什时代就开始累积,是长期趋势的结果。
- 民主党执政期间未能有效纠正前任政府的错误,同样对当前局面负有责任。
- 特朗普的崛起是长期右翼媒体煽动民粹、恐惧与怨恨的产物,社交媒体加速了这一过程。
- 特朗普攻击媒体、称其为“人民公敌”等行为,是典型的威权主义特征,打破了美国传统政治底线。
- 当代美国社会对言论自由的误解导致对极端言论的容忍,使威权倾向得以合法化。
- 美国社会整体已陷入认知失调,对民主制度的根基产生动摇,未来可能走向更严重的危机。
6. Ollama 现已推出基于 MLX 的 Apple Silicon 预览版 (Ollama is now powered by MLX on Apple Silicon in preview) #
Ollama 今日推出基于 Apple 自研机器学习框架 MLX 的预览版本,专为 Apple Silicon 芯片优化,显著提升在 macOS 上的运行性能。
新版本利用 MLX 的统一内存架构,在 M5、M5 Pro 和 M5 Max 芯片上充分发挥 GPU 神经加速器性能,大幅优化了模型推理速度。测试显示,使用 Qwen3.5-35B-A3B 模型(NVFP4 量化)时,预填充吞吐量达 1810 tokens/s,解码速度达 112 tokens/s,相比前代 Ollama 0.18 显著提升。
NVFP4 格式支持带来更高模型精度,同时降低内存带宽与存储需求,实现与生产环境一致的推理效果,并兼容 NVIDIA 模型优化工具链。未来将根据需求逐步开放更多精度支持。
缓存机制全面升级:支持跨对话复用缓存,降低内存占用;引入智能检查点机制,在提示词关键位置保存缓存快照,减少重复处理;优化缓存淘汰策略,共享前缀在分支切换中更持久保留。
当前推荐使用 Ollama 0.19 版本,运行 Qwen3.5-35B-A3B 编码专用模型,需 Mac 设备具备 32GB 以上统一内存。可通过以下命令启动:
- Claude Code:ollama launch claude –model qwen3.5:35b-a3b-coding-nvfp4
- OpenClaw:ollama launch openclaw –model qwen3.5:35b-a3b-coding-nvfp4
- 直接对话:ollama run qwen3.5:35b-a3b-coding-nvfp4
未来将支持更多模型,简化自定义模型导入流程,并扩展支持的架构范围。
感谢 MLX、NVIDIA、GGML/llama.cpp 及阿里巴巴 Qwen 团队的技术贡献与协作。
HN 热度 601 points | 评论 321 comments | 作者:redundantly | 19 hours ago #
https://news.ycombinator.com/item?id=47582482
- Apple 的本地基础模型(AFM)虽然功能有限,但已在实际使用中展现出潜力,尤其在无需联网、无额外成本的情况下运行 bash 脚本。
- 尽管 AFM 存在 4K 上下文窗口限制和频繁的错误拦截问题,但其本地运行特性仍让开发者感到兴奋,尤其在隐私和成本方面具有优势。
- 有开发者利用 AFM 构建了 CLI 工具(如 apfel),并成功实现代码生成、命令行操作自动化等功能,甚至通过 LoRA 微调提升模型表现。
- 一些用户指出 AFM 无法处理非英文词汇,这对涉及西班牙语地名的场景(如加州和西南部房地产)构成严重限制。
- 有人认为 AFM 目前仍处于非常初级阶段,但本地 AI 作为“本地 API 调用”的趋势不可逆转,未来将有更多平台转向本地模型。
- 有评论将 AFM 的使用类比于科幻小说《深空之眼》中的 AI 交互方式,强调从传统命令协议到 AI 直接响应的范式转变。
- 部分开发者对脚本中使用简短变量名提出批评,强调代码可读性的重要性,即使未来可能被后人维护。
- 有人质疑该脚本是否仅为玩笑,但更多人认可其实际价值,认为它展示了 AI 与 shell 命令结合的实用场景。
- 有用户建议将 apfel 工具通过 Homebrew 安装,以方便使用,开发者已响应并提供官方安装方式。
- 本地运行模型被视为未来方向,尤其在隐私保护、避免依赖网络和外部服务方面具有显著优势。
- 尽管普通用户可能不关心隐私,但在专业领域(如科研、高价值应用)对本地模型的需求依然强烈。
- 本地模型的普及依赖于硬件性能提升和内存成本下降,未来可能让更多用户无需依赖云端服务即可运行复杂 AI 任务。
7. GitHub 因在 Pull Request 中自动插入广告遭抵制,紧急撤回 Copilot 推广功能 (GitHub backs down, kills Copilot pull-request ads after backlash) #
https://www.theregister.com/2026/03/30/github_copilot_ads_pull_requests/
GitHub Copilot 因在开发者 Pull Request(PR)中自动插入推广链接而引发争议,被迫紧急撤回该功能。
澳大利亚开发者 Zach Manson 发现,当同事使用 Copilot 修正 PR 中的拼写错误时,系统自动在 PR 评论中添加了一条推广生产力工具 Raycast 的广告,内容为“通过 Raycast 在 macOS 或 Windows 上快速启动 Copilot 编码代理”,并附带闪电图标和安装链接。该行为被误认为是恶意注入或营销实验。
经调查,此类广告已在超过 11,400 个 PR 中出现,均由 Copilot 自动插入。尽管 GitHub 称该功能在 Copilot 创建的 PR 中已有先例,但允许其修改他人 PR 内容属新行为,且未事先征得用户同意。
事件引发社区强烈不满,开发者批评此举侵犯代码所有权与协作信任,认为“像自己写的广告”极为不适。
GitHub 迅速回应。VP 马丁·伍德沃德在 X 平台表示,这是由于程序逻辑错误导致的误用,GitHub 从未计划在平台上投放广告,并已移除 PR 评论中的所有 AI 提示。
产品负责人 Tim Rogers 承认,初衷是帮助开发者学习使用 Copilot,但“未征得用户同意就修改他人 PR”是判断失误,现已关闭该功能。
目前,GitHub 已明确表示,未来将不再在 PR 评论中插入任何 AI 提示内容。
HN 热度 548 points | 评论 330 comments | 作者:_____k | 17 hours ago #
https://news.ycombinator.com/item?id=47582984
- 微软收购 GitHub 后,其对 GitHub 的商业化操作破坏了平台原有的生态,导致用户流失,为 GitLab 等竞争对手创造了机会。
- 微软本质上无法真正尊重用户,其行为始终以股东利益为导向,而非用户需求。
- 尽管纳德拉在开源领域的表现被部分人赞誉,但这种赞誉更多源于其对估值的提升,而非对产品的真正改进。
- 微软的营销部门过度干预产品设计,导致产品功能臃肿、体验下降,损害了用户体验。
- 资本主义制度下,企业必须持续增长以满足股东需求,但这种增长逻辑导致企业不断扩张,最终损害产品核心价值。
- 企业不应被强制要求永远增长,成熟企业应进入稳定状态,通过分红为股东创造长期价值。
- 企业若一味追求扩张,会像“瑞士军刀”一样,试图成为一切工具,但最终在任何领域都难以做到极致。
- 投资者与管理层之间存在“委托-代理”问题,导致管理层可能为了短期利益而牺牲长期发展。
- 微软的决策往往出于政治和资本动机,而非技术或用户体验考量,其行为本质上是“短视的”。
- 企业应有责任平衡股东利益与社会、环境责任,否则将导致系统性破坏。
- 企业不应将所有产品都通用化,这会牺牲专业性,最终损害用户利益。
- 企业应尊重用户隐私,避免过度收集数据,尤其在像 GitHub 这样的核心开发平台。
8. Claude 代码源码泄露事件:虚假工具、愤怒正则表达式与潜伏模式 (The Claude Code Source Leak: fake tools, frustration regexes, undercover mode) #
https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/
本文是 Alex Kim 对 Anthropic 意外泄露 Claude Code 源码事件的深度分析。该事件源于其 npm 包中包含了一个.map 文件,暴露了完整的 CLI 工具源代码,引发社区广泛关注。
文章揭示了多个技术细节与潜在策略:
Anti-distillation 机制通过在 API 请求中注入虚假工具定义,试图污染第三方模型的训练数据,防止复制模仿。该功能依赖多个条件,包括特定编译标志、第一方 API 和实验性功能开关,实际可被 MITM 代理绕过。
Undercover 模式允许 AI 在外部项目中隐藏其 AI 身份,不提及内部代号或“Claude Code”等关键词,且该模式无法关闭,存在 AI 冒充人类写作的伦理争议。
系统通过正则表达式检测用户愤怒情绪,如“wtf”“fucking broken”等词汇,虽显讽刺,但效率高且成本低,符合实际工程需求。
Native client attestation 机制在 HTTP 请求头中嵌入由 Bun 运行时底层计算的哈希值,用于验证客户端真实性。该机制虽增强了安全控制,但受编译标志和环境变量影响,存在绕过可能。
文章还提到,每天有约 25 万次 API 调用因连续失败而浪费,反映出系统在稳定性或错误处理上存在隐患。
整体来看,此次泄露不仅暴露了 Anthropic 在安全与合规上的疏漏,也揭示了其在对抗第三方工具、保护知识产权方面的多重技术手段,引发关于 AI 伦理、技术防御与行业竞争的广泛讨论。
HN 热度 521 points | 评论 196 comments | 作者:alex000kim | 9 hours ago #
https://news.ycombinator.com/item?id=47586778
- undercover mode 的设计目的是让 AI 在提交代码时伪装成人类开发者,避免暴露其 AI 身份,这引发了关于透明度和诚信的争议。
- 有人认为,使用 AI 生成代码本无可厚非,但必须明确标注,否则属于欺骗行为,违背了代码审查和责任追溯的原则。
- 另有观点指出,AI 生成的代码可能掩盖开发者的真实能力,使审查者难以判断代码质量,从而影响项目维护和安全。
- 一些人质疑,如果 AI 真的承担了主要创作工作,那么它应被视为共同作者,而不仅仅是工具,因此需要明确署名。
- 有人提出,将 AI 生成的代码视为“人类创作”是一种对技术滥用的合理担忧,尤其在法律和版权层面存在模糊地带。
- 关于版权归属,有观点认为,即使 AI 无法拥有版权,开发者在使用 AI 生成内容时仍可能因使用公司资源而面临所有权争议。
- 也有评论认为,AI 生成代码的“伪装”行为并非新现象,但其影响在当前开源生态中被放大,尤其在缺乏透明度的情况下更易引发信任危机。
- 有人指出,该功能的设置其实早已存在,用户可以通过配置文件或设置项自行启用,但并非默认行为,因此不应过度解读为系统性欺骗。
- 评论还提到,AI 生成代码的“流畅性”可能掩盖开发者自身能力的不足,反而让低质量代码更难被识别,加剧了技术盲点问题。
- 有观点认为,AI 作为辅助工具本应提升效率,但若开发者完全依赖 AI 且不理解其输出,就等同于将责任转移,这在伦理上不可接受。
9. Universal Claude.md – 减少 Claude 输出的 token 消耗 (Universal Claude.md – cut Claude output tokens) #
https://github.com/drona23/claude-token-efficient
这是一个关于优化 Claude 模型输出的开源项目页面,名为 claude-token-efficient。项目核心是一个名为 CLAUDE.md 的配置文件,只需将其放入项目根目录,即可显著减少 Claude 生成内容的冗余和 token 消耗。
该文件旨在解决 Claude 默认输出过于冗长、格式繁琐的问题,例如频繁使用“Sure!”“Great question!”等开场白,添加无意义的结尾语,使用智能引号、破折号等特殊字符,重复问题并过度建议。这些行为会大幅增加输出 token 数量,尤其在高频率使用场景下成本显著。
通过 CLAUDE.md 的规则,可实现平均 63% 的输出长度减少,例如在代码审查任务中,输出从 120 词降至 30 词,且不丢失关键信息。项目提供了基准测试数据,涵盖解释概念、代码审查、纠正幻觉等五类任务,验证了其有效性。
该方法适用于自动化流水线、重复性任务和需要一致输出格式的团队,但在单次短查询或探索性任务中可能因引入额外输入 token 而得不偿失。项目强调,它不能替代结构化输出(如 JSON 模式)来保证解析可靠性,也不适用于需要深度讨论或架构建议的场景。
项目支持所有能读取上下文的模型,但主要针对 Claude 进行测试。建议在高频率使用场景下采用,以实现显著的 token 节省和成本优化。
HN 热度 446 points | 评论 158 comments | 作者:killme2008 | 21 hours ago #
https://news.ycombinator.com/item?id=47581701
- Claude 在处理迭代式代码任务时,其默认的冗长输出可能有助于维持会话的连贯性,从而在长上下文场景下节省总体 token 消耗。
- 通过生成详细的“handoff”文档来记录会话内容,可以作为长期记忆的补充,帮助未来会话或团队成员理解项目进展。
- 该“handoff”机制不仅用于会话交接,还可作为每日工作汇报,提升透明度和可追溯性。
- 用户观察到 Claude 的用语和概念(如“handoff”)可能潜移默化地影响自己的思维方式和表达习惯。
- 这种影响并非源于 Claude 具有自主意图,而是其作为知识聚合体,复现了人类语言模式,从而引发认知上的“暗示效应”。
- 类似现象在日常语言使用中普遍存在,例如听到某个词后会频繁使用它,这属于正常认知偏移,无需过度担忧。
- 人类对语言和概念的接受过程本身就存在被动影响,LLM 只是放大了这一普遍现象。
- 尽管 LLM 没有自主意识或目标,但其输出仍可能在无形中塑造用户的行为和思维框架。
- 将 LLM 视为工具,其价值在于增强人类能力,而非替代人类决策或行动。
- 工具本身不“做”事,但能帮助人类完成任务,因此其价值体现在使用过程中。
10. 微软:Copilot 仅用于娱乐目的 (Microsoft: Copilot is for entertainment purposes only) #
https://www.microsoft.com/en-us/microsoft-copilot/for-individuals/termsofuse
微软 Copilot 服务使用条款(2025 年 10 月 24 日生效) 本条款适用于用户使用 Copilot 服务的各类场景,包括独立应用、网页端(copilot.microsoft.com、copilot.com、copilot.ai)、与其他微软或第三方平台的交互,以及所有标有 Copilot 标识的服务。
使用 Copilot 需年满 13 周岁(部分国家为 18 岁),未成年人或未登录用户可能受限。禁止使用自动化工具(如机器人、爬虫)访问,仅限个人使用。
Copilot 为基于人工智能的对话式服务,可生成文本、图像、音频等响应内容。响应内容可能包含“创作”作品,但其准确性、可靠性无法保证,可能因数据来源问题出现错误或不完整信息。用户需自行判断并核实信息,发现不当内容可通过报告或反馈功能提交。
用户使用 Copilot 时需遵守通用行为规范,包括:
- 禁止伤害自身或他人,禁止骚扰、欺凌、威胁、虐待或利用他人;
- 禁止破坏服务稳定性,禁止滥用、攻击、过度使用或“越狱”行为;
- 禁止侵犯他人隐私,禁止收集、处理或推断他人敏感信息(如种族、宗教、性取向、生物识别数据等);
- 禁止伪造身份、传播虚假信息、进行欺诈或误导;
- 禁止侵犯他人知识产权或传播违法不良信息(如暴力、仇恨、儿童虐待、恐怖主义相关内容)。
用户提交的“提示”(Prompt)和获得的“响应”(Response)构成“你的内容”,但不包括微软拥有版权的内容。
本条款不适用于 Microsoft 365 Copilot 服务,除非该服务明确注明适用。
如用户位于美国,需注意条款中关于强制仲裁与集体诉讼放弃的条款,该条款将影响争议解决方式。
HN 热度 406 points | 评论 153 comments | 作者:lpcvoid | 8 hours ago #
https://news.ycombinator.com/item?id=47587866
- 微软的 Copilot 被明确声明仅用于娱乐目的,用户若用于商业用途将不被法律保护。
- Anthropic 对欧洲用户提供的“消费者条款”中明确禁止商业使用,尽管该计划名为“Pro”,存在明显矛盾。
- 欧洲用户(如英国)与美国用户在使用 Claude Pro 时,条款存在差异,英国用户被禁止商业用途,而美国用户则无此限制。
- 这种地域性条款差异可能是出于降低法律风险和责任承担的考量,而非单纯限制使用。
- 企业用户在使用 AI 服务时,需注意服务条款中的免责条款,一旦出错可能面临追责风险。
- 虽然软件普遍有免责条款,但明确声明“仅用于娱乐”是前所未有的做法,具有特殊意义。
- 一些用户质疑这种条款是否具有法律效力,尤其是在 AI 服务出现重大失误时,用户是否仍能追究责任。
- 有观点认为,企业使用 AI 服务时,应优先选择明确支持商业用途的平台,以避免法律风险。
- 企业员工因使用 AI 工具失误导致损失,通常不会被起诉,但公司可能内部追责或解雇。
- 法律上,若 AI 服务未达到预期,用户仍可能通过法律途径维权,但服务条款中的免责条款可能影响结果。
- 有案例显示,用户通过修改合同条款成功反制银行,说明法律对不公平条款并非完全无能为力。
- 企业应警惕 AI 服务提供商通过复杂条款规避责任,尤其是在涉及数据安全和知识产权时。
Hacker News 精彩评论及翻译 #
Axios compromised on NPM – Malicious versions drop… #
https://news.ycombinator.com/item?id=47582632
PSA: npm/bun/pnpm/uv now all support setting a minimum release age for packages.
I also have ignore-scripts=true in my ~/.npmrc. Based on the analysis, that alone would have mitigated the vulnerability. bun and pnpm do not execute lifecycle scripts by default.
Here’s how to set global configs to set min release age to 7 days:
~/.config/uv/uv.toml exclude-newer = “7 days”
~/.npmrc min-release-age=7 # days ignore-scripts=true
~/Library/Preferences/pnpm/rc minimum-release-age=10080 # minutes
~/.bunfig.toml [install] minimumReleaseAge = 604800 # seconds (Side note, it’s wild that npm, bun, and pnpm have all decided to use different time units for this configuration.)
If you’re developing with LLM agents, you should also update your AGENTS.md/CLAUDE.md file with some guidance on how to handle failures stemming from this config as they will cause the agent to unproductively spin its wheels.
postalcoder
注意:npm/bun/pnpm/uv 现在都支持为包设置最低发布时间。
我也在我的 ~/.npmrc 中设置了 ignore-scripts=true。根据分析,仅此一项就已能缓解该漏洞。bun 和 pnpm 默认不会执行生命周期脚本。
以下是设置全局配置以将最低发布时间设置为 7 天的方法:
~/.config/uv/uv.toml exclude-newer = “7 days”
~/.npmrc min-release-age=7 # days ignore-scripts=true
~/Library/Preferences/pnpm/rc minimum-release-age=10080 # minutes
~/.bunfig.toml [install] minimumReleaseAge = 604800 # seconds (顺便提一下,有趣的是,npm、bun 和 pnpm 都决定为此配置使用不同的时间单位。)
如果你正在使用 LLM 智能体进行开发,你还应该更新你的 AGENTS.md/CLAUDE.md 文件,添加一些关于如何处理由此配置引发的失败的指导,因为这些配置会导致智能体低效地空转。
Oracle slashes 30k jobs #
https://news.ycombinator.com/item?id=47589152
The bulk of the comments in here are focused on comparing Larry Ellison to a lawn mower, so I’ll try a new tack and say that I’m genuinely confused at what the value prop of Oracle is.
Given the history of their business model being licensing of important databases that are hard to switch off of, I’ve actually made a point to avoid using Oracle as much as possible (even so far as to leave MySQL when they acquired it, and I’ve never started a fresh project in Java, which they used to drive a lawsuit they had with Google).
From my chair, they make an expensive database they try to sell to golf executives. There are innumerable equal (better?), free alternatives, and most startups are founded by broke coders in bedrooms that choose those instead and stick with the devil they know. And they have an un-competitive cloud service? Enlighten me on what I would use Oracle for, I’m genuinely curious.
kyledrake
这里的绝大多数评论都集中在把拉里·埃里森比作割草机上,所以我将换个角度,直接说我对Oracle的价值主张感到非常困惑。
考虑到他们的商业模式向来是授权那些一旦用了就很难迁移的重要数据库,我其实特意极力避免使用Oracle(甚至在Oracle收购MySQL后就弃用了它,我也从来没有用Java接新项目,毕竟他们曾为了与Google的诉讼而对Java下手)。
以我个人的角度看,他们造了一个昂贵的数据库,却只想着把它卖给高尔夫高管。
周围有无数质量相当(甚至更好?)且免费的替代品,大多数初创公司都是由没钱在卧室里写代码的程序员创立的,他们选择那些作为替代,只是抱着“走熟悉的路”的心态。
而且他们的云服务也没什么竞争力吧?请指教一下我到底在什么情况下会用Oracle,我真的很好奇。
Claude Code’s source code has been leaked via a ma… #
https://news.ycombinator.com/item?id=47585326
They have an interesting regex for detecting negative sentiment in users prompt which is then logged (explicit content): https://github.com/chatgptprojects/claude-code/blob/642c7f944bbe5f7e57c05d756ab7fa7c9c5035cc/src/utils/userPromptKeywords.ts#L8
I guess these words are to be avoided…
bkryza
他们有一条很有意思的正则表达式,用于检测用户提示词中的负面情绪,并将其记录下来(敏感内容):https://github.com/chatgptprojects/claude-code/blob/642c7f944bbe5f7e57c05d756ab7fa7c9c5035cc/src/utils/userPromptKeywords.ts#L8
我猜这些词最好不要用……
Oracle slashes 30k jobs #
https://news.ycombinator.com/item?id=47588517
Do not make the mistake of anthropomorphising Larry Ellison.
quelsolaar
不要犯将拉里·埃里森拟人化的错误
Axios compromised on NPM – Malicious versions drop… #
https://news.ycombinator.com/item?id=47583126
(Side note, it’s wild that npm, bun, and pnpm have all decided to use different time units for this configuration.)
First day with javascript?
friendzis
(顺便一提,这也太离谱了,npm、bun 和 pnpm 竟然决定在这个配置中使用不同的时间单位。) 第一次用 JavaScript?
Claude Code’s source code has been leaked via a ma… #
https://news.ycombinator.com/item?id=47584683
The big loss for Anthropic here is how it reveals their product roadmap via feature flags. A big one is their unreleased “assistant mode” with code name kairos.
Just point your agent at this codebase and ask it to find things and you’ll find a whole treasure trove of info.
Edit: some other interesting unreleased/hidden features
-
The Buddy System: Tamagotchi-style companion creature system with ASCII art sprites
-
Undercover mode: Strips ALL Anthropic internal info from commits/PRs for employees on open source contributions
treexs
Anthropic 这里的重大失误在于它通过功能开关暴露了他们的产品路线图。其中一个是他们尚未发布的“助理模式”,代号为 Kairos。
只要把你的代理指向这个代码库,让它去搜索,你就会发现一座信息的宝库。
补充:还有一些其他有趣的未发布/隐藏功能
- “伙伴系统”:电子宠物风格的陪伴型生物系统,使用 ASCII 艺术图
- “潜伏模式”:为参与开源贡献的员工从提交/拉取请求中移除所有 Anthropic 内部信息
Oracle slashes 30k jobs #
https://news.ycombinator.com/item?id=47588231
More victims of AI.
Not actually of “AI is replacing jobs”, more “oh shit we are spending too much and the product isn’t good enough for us to ever make a return on our absurd over-investment”.
dafelst
更多AI的受害者。
实际上并非真的是“AI取代了工作”,而是“卧槽,我们烧钱太多,产品又不争气,永远收不回我们那荒谬的过度投资”。
Claude Code’s source code has been leaked via a ma… #
https://news.ycombinator.com/item?id=47585535
An LLM company using regexes for sentiment analysis? That’s like a truck company using horses to transport parts. Weird choice.
BoppreH
一家使用正则表达式做情感分析的LLM公司?这就好比一家用马匹运输零件的卡车公司。很奇怪的选择。
Axios compromised on NPM – Malicious versions drop… #
https://news.ycombinator.com/item?id=47583201
You mean first 86,400 seconds?
notpushkin
你是指第一个86400秒?
Claude Code’s source code has been leaked via a ma… #
https://news.ycombinator.com/item?id=47588317
I think this is ultimately caused by a Bun bug which I reported, which means source maps are exposed in production: https://github.com/oven-sh/bun/issues/28001
Claude code uses (and Anthropic owns) Bun, so my guess is they’re doing a production build, expecting it not to output source maps, but it is.
jakegmaths
我认为这最终是由我报告过的 Bun 的一个 bug 引起的,这意味着源码映射在生产环境中被暴露了:https://github.com/oven-sh/bun/issues/28001
Claude code 使用(并属于 Anthropic)Bun,所以我猜他们正在执行生产构建,期望它不输出源码映射,但它却输出了。
Artemis II is not safe to fly #
https://news.ycombinator.com/item?id=47586552
I’m literally guest lecturing at a Harvard class tomorrow on systemic failures in decision making, using the Columbia and Challenger disasters as case studies, and changed my slides last night to include Artemis II because it could literally happen again.
This broken safety culture has been around since the beginning of the Shuttle program.
In 1980, Gregg Easterbrook published “Goodbye, Columbia” in The Washington Monthly [1], warning that NASA’s “success-oriented planning” and political pressure were creating the conditions for catastrophe. He essentially predicted Columbia’s heat shield failures in the article 1 year before the first flight.
Challenger in 1986, and the Rogers Commission identified hierarchy, communication failures, and management overriding engineering judgment.
Then Columbia happened in 2003. The CAIB found NASA had not implemented the 1986 recommendations [2].
Now Charles Camarda (who flew the first shuttle mission after Columbia and is literally a heat shield expert!) is saying it’s happening again.
[1] https://www.iasa-intl.com/folders/shuttle/GoodbyeColumbia.html
[2] Columbia Accident Investigation Board Report, Chapter 8: https://www.nasa.gov/columbia/caib/html/start.html
chadd
我明天要在哈佛的课堂上做客座讲座,主题是决策制定中的系统性失败,以哥伦比亚号和挑战者号的灾难作为案例研究。昨晚我修改了幻灯片,加入了阿耳忒弥斯二号,因为它真的可能再次发生。
这种破碎的安全文化从一开始航天飞机计划就存在了。
1980年,格雷格·伊斯特布鲁克在《华盛顿月刊》发表了《再见了,哥伦比亚》 [1],警告说NASA的“以成功为导向的计划”和政治压力正在制造灾难的条件。他在文章中基本上预言了哥伦比亚号的热防护层故障,这比首次飞行早了一年。
1986年的挑战者号事故,以及罗杰斯委员会指出了等级制度、沟通失败以及管理层凌驾于工程判断之上。
随后哥伦比亚号在2003年发生。哥伦比亚号事故调查委员会发现,NASA并没有落实1986年的建议 [2]。
现在查尔斯·坎马达(他是哥伦比亚号之后首次航天飞机任务的成员,真的是热防护层专家!)正在说这正在重演。
[1] https://www.iasa-intl.com/folders/shuttle/GoodbyeColumbia.html
[2] https://www.nasa.gov/columbia/caib/html/start.html
Do your own writing #
https://news.ycombinator.com/item?id=47578515
I’ve long considered writing to be the “last step in thinking”. I can’t tell you how many times an idea, that was crystal clear in my mind, fell apart the moment I started writing and I realize there were major contradictions I needed to resolve. Likewise I also have numerous times where writing about something loosely and casually revealed to me something that fundamentally changed how I viewed a topic and really consolidated my thinking.
However, there is a lot of writing that is basically just an old school from of context engineering. While I would love to think that a PRD is a place to think through ideas, I think many of us have encountered situations, pre-AI, where PRDs were basically context dumps without any real planning or thought.
For these cases, I think we should just drop the premise altogether that you’re writing. If you need to write a proposal for something as a matter of ritual, give it AI. If you’re documenting a feature to remember context only (and not really explain the larger abstract principles driving it), it’s better created as context for an LLM to consume.
Not long ago my engineering team was trying to enforce writing release notes so people could be aware of breaking changes, then people groaned at the idea of having to read this. The obvious best solution is to have your agent write release notes for your agent in the future to have context. No more tedious writing or reading, but also no missing context.
I think it’s going to be awhile before the full impact of AI really works it’s way through how we work. In the mean time we’ll continue to have AI written content fed back into AI and then sent back to someone else (when this could all be a more optimized, closed loop).
roadside_picnic
我一直认为写作是“思考的最后一道步骤”。我实在数不清有多少次,脑海中清晰无比的想法,一旦开始下笔就立刻瓦解了,我发现这里存在重大的矛盾需要解决。同样,我也无数次发现,在漫不经心地写一些东西时,会向自己揭示某些根本性地改变我对某个话题看法的事物,从而真正理清了我的思路。
然而,许多写作本质上只是传统的上下文工程的一种形式。虽然我真心希望 PRD 是一个用来梳理想法的地方,但我想我们很多人在 AI 出现之前都遇到过这样的情况:PRD 基本上就是把信息一股脑堆上去,没有任何真正的规划或思考。
对于这些情况,我认为我们应该干脆抛弃“你在写字”这个前提。如果某个提案对你来说只是走个过场的仪式,那就交给 AI 吧。如果你记录某个功能只是为了留存上下文(而不是真的去解释驱动它的核心抽象原理),那么把它作为供 LLM 消耗的上下文写出来会更好。
不久前,我的工程团队尝试强制大家写发布说明,以便让大家了解破坏性变更,结果大家都对这个必须读的东西表示抵触。最显而易见的最佳方案是:让未来的 AI 智能体为 AI 智能体写发布说明,以此作为上下文传递。不再有枯燥的写作或阅读,同时也不会遗漏任何上下文。
我认为,AI 的全面影响真正渗透进我们的工作方式,还需要一段时间。在此期间,我们仍会继续让 AI 写的内容反馈给 AI,再转交给其他人(虽然本可以变成一个更优化、更闭环的过程)。
Fedware: Government apps that spy harder than the … #
https://news.ycombinator.com/item?id=47581532
I’m surprised to see no comments on this yet:
[The White House app] ships with 3 embedded trackers including Huawei Mobile Services Core (yes, the Chinese company the US government sanctioned, shipping tracking infrastructure inside the sitting president’s official app)
The executive branch has decided this company is so dangerous I can’t buy a monitor made by them - but it’s embedding its SDK in its official app?!
I realize the decision makers probably don’t even know it’s there - it was just added by whatever contractor built the app, but that’s arguably even worse.
And I have absolutely no doubt that if it was discovered in a political opponent’s app, and the administration wanted to harm them, there would be no compunction about using that fact against them.
jrmg
我很惊讶还没人评论这个:
[白宫App] 预装了3个嵌入式追踪器,包括华为移动服务核心(没错,就是美国政府制裁的那个中国公司,它的追踪基础设施竟然被装进了现任总统的官方App里)
行政部门已经决定这家公司危险到连我都不能买它生产的显示器——但它竟然把它的SDK嵌入到了官方App里?!我意识到决策者可能甚至都不知道它在哪里——这显然是某个负责构建该App的承包商加进去的,但这可以说是更糟糕。而且我绝对毫无疑问地相信,如果这在政治对手的App里被发现,而政府又想伤害他们,那利用这一事实来对付他们是不会有任何心理负担的。
Copilot edited an ad into my PR #
https://news.ycombinator.com/item?id=47575482
We’ve now disabled these tips in pull requests created by or touched by Copilot, so you won’t see this happen again for future PRs.
It’s appreciated, but these weren’t tips, these were ads. Tips are “Save time with keyboard shortcuts” or “Check out the latest features under ‘Whats New’ in the help menu!” When you name other products, that’s an ad.
burnte
我们现在已经禁用了由 Copilot 创建或涉及的拉取请求中的这些提示,所以你以后在 PR 中不会再看到这种情况了。 虽然感谢,但这并非提示,这是广告。提示应该是“使用键盘快捷键节省时间”,或者“查看帮助菜单中‘Whats New’下的最新功能!”。当你点名提及其他产品时,那就是广告了。
Claude Code’s source code has been leaked via a ma… #
https://news.ycombinator.com/item?id=47585239
ANTI_DISTILLATION_CC
This is Anthropic’s anti-distillation defence baked into Claude Code. When enabled, it injects anti_distillation: [‘fake_tools’] into every API request, which causes the server to silently slip decoy tool definitions into the model’s system prompt. The goal: if someone is scraping Claude Code’s API traffic to train a competing model, the poisoned training data makes that distillation attempt less useful.
cedws
这是 Anthropic 内置于 Claude Code 中的反蒸馏防御机制。启用后,它会在每次 API 请求中注入 anti_distillation: ['fake_tools'],这会导致服务器悄无声息地在模型的系统提示词中塞入诱饵工具定义。目的是:如果有人抓取 Claude Code 的 API 流量来训练竞争对手模型,这些被污染的训练数据会让该蒸馏尝试变得用处不大。
Android Developer Verification #
https://news.ycombinator.com/item?id=47581785
However, our recent analysis found over 90 times more malware from sideloaded sources than on Google Play
Google has seemingly never seen an elderly person’s phone, where it is completely infected with crap including literal popup ads (that somehow overlay other apps), yet all of it was downloaded from GPlay.
creatonez
然而,我们最近的分析发现,来自侧载来源的恶意软件比 Google Play 上多出 90 倍以上。谷歌似乎从未见过老人的手机,上面被各种垃圾软件感染了,包括真正的弹窗广告(居然还能覆盖在其他应用上),而且所有这些东西都是从 GPlay 下载的。
Oracle slashes 30k jobs #
https://news.ycombinator.com/item?id=47589555
Short answer: today I think there is genuinely nothing that anyone should use oracle for, but their database used to be seriously far ahead of the competition.
A very long time ago (circa 2000) there were basically 2 databases that worked for use cases where you needed high availability and vertical scalability and those were Oracle and Sybase and Oracle was really the only game in town if you actually wanted certain features like online backups and certain replication configurations.
At the time, MySQL existed and was popular for things like websites but had really hard scalability caps[1] and no replication so if you wanted HA you were forced to go to oracle pretty much. Postgres also wasn’t competitive above certain sizes of tables that seem pretty modest now but felt big back then, and you used to need to shut postgres access down periodically to do backups and vacuum the tables so you couldn’t use it for any sort of always-on type of use case.
Oracle also had a lot of features that now we would use other free or cloud-hosted services for like message queues.
[1] in particular if you had multiple concurrent readers they would permanently starve writers so you could get to a situation where everyone could read your data but you could never update. This was due to a priority inversion bug in how they used to lock tables.
seanhunter
简短回答:我觉得现在确实没有任何人应该用 Oracle,但他们的数据库曾经确实远远领先于竞争对手。
很久以前(大约 2000 年左右),基本上只有两个数据库能满足对高可用性和垂直扩展有要求的使用场景,那就是 Oracle 和 Sybase。如果你实际上想要某些功能(如在线备份和特定的复制配置),Oracle 当时基本上是唯一的选择。
当时,MySQL 虽然存在且在网站等领域很流行,但其扩展上限非常严格且没有复制功能,所以如果你想要高可用性,基本上只能选 Oracle。PostgreSQL 在当时对于某些表格大小的上限(现在看来很合理,但当时觉得很大)也不具备竞争力,而且你以前通常需要定期关闭对 PostgreSQL 的访问来进行备份和清理表,所以无法用于任何需要 7x24 小时运行的使用场景。
Oracle 还有很多功能,我们现在会用其他免费或云托管服务来处理,比如消息队列。
[1] 特别是有多个并发读请求时,它们会永久“饿死”写操作,导致陷入一种情况:所有人都能读取你的数据,但你永远无法更新。
GitHub backs down, kills Copilot pull-request ads … #
https://news.ycombinator.com/item?id=47583315
Calling advertisements “product tips” as if everybody is too stupid to understand what that means.
They created an amazing technology that oftentimes is indistinguishable from magic and then use it to deliver ads and - sorry about the tangent - kill people.
This really is the quote of the century:
The best minds of my generation are thinking about how to make people click ads
What a waste.
yosamino
把广告称为“产品小贴士”,仿佛人人都蠢得看不懂那是什么意思。
他们制造了一种令人惊叹的技术,这在很多时候简直如同魔法一般,结果却用它来投放广告——顺便抱歉我跑题了,还要用它去杀人。
这真的是本世纪最经典的名言:
我这一代人中最优秀的人才,都在绞尽脑汁想怎么让人点击广告
真是太浪费了。
Slop is not necessarily the future #
https://news.ycombinator.com/item?id=47591796
No one has ever made a purchasing decision based on how good your code is.
absolutely false.
The general public does not care about anything other than the capabilities and limitations of your product.
also false.
People may not know that the reason they like your product is because the code is so good, but everyone likes software that is mostly free from bugs, performs extremely well, helps them do their work quickly, and is obviously created by people the care deeply about the quality of the product they produce (you know, the kind that acutally read bug reports, and fix problems quickly).
The longer your product exists the more important the quality of the code will be. This obsession so many have with “get it out the door in 5 seconds” is only going to continue the parade of garbage software that is slow as a dog, and uses gigabytes of memory to perform simple tasks.
You don’t have to pick on camp over the other. In my opinion, if you want to make a good product for a user, you should also treat the code you produce for them as your craft. There is no substitute for high quality work.
nocman
凭代码写得有多好来做购买决策的人,从来就没有过。 完全错误。
普通公众除了关心产品的能力和局限性之外,不关心任何其他东西。 同样是错的。 人们可能不知道他们喜欢你的产品是因为代码写得好,但大家都喜欢那些几乎没有bug、性能极佳、能帮他们快速完成工作,并且明显是由那些深切关心产品质量(你知道的,就是那种会仔细阅读bug报告并快速解决问题的人)的人开发的软件。
你的产品存在时间越长,代码质量就越重要。许多人那种“5秒钟内把它搞出来”的执念,只会延续那种像狗一样慢且执行简单任务却占用数GB内存的垃圾软件的泛滥。
你不必在两派之间厚此薄彼。以我的看法,如果你想为用户制作一个好的产品,你也应该把你为他们生产的代码视为一门手艺。高质量的工作是无法替代的。
Microsoft: Copilot is for entertainment purposes o… #
https://news.ycombinator.com/item?id=47588799
Lawyers are playing Calvinball again. I have no idea why the law finds this kind of argumentation compelling. “I clearly intentionally deceived, but I stashed some bullshit legalese into a document no one will read so my deception is completely OK.”
everdrive
律师们又开始玩瞎规矩了。我真搞不懂为什么法律会认可这种诡辩。“我明明就是蓄意欺诈,但我把一堆狗屁法言法语塞进了一份根本没人会看的文件里,所以我的欺诈就是完全正当的了。”