2025 10 01 HackerNews

2025-10-01 Hacker News Top Stories #

  1. Claude Code 是 Anthropic 推出的终端级智能编程代理,可理解与修改整个代码库并管理 Git 流程,但其强大能力伴随提示注入与沙箱隔离等严重安全隐患。
  2. Kagi News 用大语言模型从社区维护的 RSS 源生成每日五分钟新闻摘要,强调隐私与多语种支持,但存在模型“幻觉”与引用不准的问题。
  3. 作者因 Disqus 在评论区嵌入大量低质甚至近似诈骗广告、破坏用户体验与隐私而将其移除并寻求无广告自托管替代方案。
  4. 文章警告 LLM 自动生成代码会积累“理解债务”,短期节省时间却可能导致长期维护成本激增,建议重视可读性、测试与团队对设计意图的掌握。
  5. OpenAI 的 Sora 2 提供高保真视频与音频生成并以社交短视频应用发布,虽降低创作门槛但偏向娱乐化并引发滥用与内容质量担忧。
  6. 加州签署《前沿人工智能透明度法案》(SB 53),要求大型 AI 开发者披露合规做法、建立公共计算平台与重大事件上报机制,但罚款较低、以构建监管框架为主。
  7. Ask HN 的社区帖子汇集开发者正在进行的各类项目与反馈,从独立产品检测到技术工具,促进协作与建议交流。
  8. Imgur 因英国信息专员办公室就儿童数据保护调查并拟罚款而停止向英国用户提供服务,凸显跨境数据合规压力。
  9. iRobot 创始人警告不要盲信 AI 与机器人炒作,主张务实的增强型机器人更能落地并提升工人效率与福利。
  10. OpenAI 在 ChatGPT 推出“即时购买”并发布代理电商协议,与 Stripe 等合作实现一键下单,旨在简化购物流程但可能改变电商入口并带来商业化与偏见风险。

Claude Code 2.0 #

https://www.npmjs.com/package/@anthropic-ai/claude-code

Claude Code 是由 Anthropic 推出的一款终端级智能编程工具,支持在终端、IDE 或 GitHub 中使用,通过自然语言指令帮助开发者完成代码编写、解释复杂代码、管理 Git 工作流等任务。

该工具可全局安装,命令为 npm install -g @anthropic-ai/claude-code,安装后进入项目目录运行 claude 命令即可启动。

Claude Code 具备理解整个代码库的能力,能执行日常编码任务,提升开发效率。用户可通过自然语言与工具交互,实现代码生成、重构建议、错误排查等功能。

支持在 GitHub 中通过 @claude 标注进行协作,也可使用 /bug 命令在工具内直接报告问题。

官方提供了详细的文档支持,用户可通过官网或 Discord 社区获取帮助,参与开发者交流。

关于数据使用,工具会收集使用反馈,包括代码接受/拒绝记录、对话数据及用户提交的 bug 信息。Anthropic 采取了多项隐私保护措施,如限制敏感信息保留时间、控制访问权限,并明确声明不会将反馈用于模型训练。


HN 热度 820 points | 评论 392 comments | 作者:polyrand | 1 day ago #

https://news.ycombinator.com/item?id=45416228

  • 使用“编码代理”工具可以实现人类通过终端输入命令所能完成的任何操作,具有强大能力但存在安全风险。
  • 有人通过使用 AI 工具成功开发出功能完整的 C++ 项目并生成专业报价单,实现了高额收益,证明了其在实际项目中的高效价值。
  • 尽管 AI 工具可能带来安全威胁,但长期使用未遭遇问题,认为“危险”说法被过度夸大,实际风险可控。
  • 提出 AI 工具的安全隐患主要来自提示注入攻击,目前尚未大规模出现,但一旦发生将造成严重后果,需提前防范。
  • 强调当前缺乏可靠的防御机制,唯一可信的解决方案是通过有效沙箱隔离运行 AI 工具,避免潜在攻击。
  • 使用 GitHub Codespaces 或自定义 Docker 容器作为沙箱环境,可有效隔离 AI 操作,保护本地系统安全。
  • 有人正在开发名为 Sandcastle 的开源沙箱项目,旨在为 AI 代理提供更安全的运行环境,目前尚处于实验阶段。
  • 认为 AI 工具若不访问外部数据源则相对安全,但现实中工具常自动调用网络请求(如 curl),增加了攻击面。
  • 指出 PDF 等文件中可能隐藏恶意指令,存在隐蔽的提示注入风险,尤其在处理未知来源文件时需警惕。
  • 认为当前对 AI 提示注入的担忧被过度渲染,相比已知的 VS Code 扩展漏洞,其实际攻击面非常狭窄。
  • 强调 AI 工具调用外部工具(如 curl)的行为本身是风险点,建议通过 MCP 等机制替代并增加过滤与日志审计能力。
  • 指出 AI 工具的广泛使用才刚兴起,攻击者尚未大规模利用该漏洞,但未来极可能爆发系统性攻击。
  • 有研究者已通过提示注入成功获取 OpenAI 服务器的远程 shell,证明此类攻击在技术上完全可行。

Kagi News #

https://blog.kagi.com/kagi-news

Kagi News 是一款全新的每日新闻简报服务,旨在提供一种更健康、更尊重用户时间与隐私的新闻阅读方式。它每天中午 UTC 时间发布一次,将全球数千个社区精选的 RSS 源内容,通过 AI 技术整合成一份全面且简洁的五分钟阅读材料。

该服务强调“信号胜过噪音”,通过多源信息聚合,避免单一视角带来的信息茧房,帮助用户获得更完整的全球图景。所有新闻来源均公开透明,由社区在 GitHub 上共同维护,任何人都可参与推荐或优化内容。

Kagi News 坚持隐私优先,不追踪用户行为,不利用用户注意力进行广告变现,用户始终是服务的主人。同时支持多语言阅读,内容以原始语言呈现,可按需翻译,区域新闻默认保留原语言。

在设计上,它反对无休止的滚动和碎片化信息,将新闻消费转化为一种有始有终的日常仪式。用户还可自定义内容类别、排序方式和显示数量,打造个性化的信息流。

技术层面,Kagi News 仅使用出版商公开提供的 RSS feeds,完全尊重其内容发布策略,不进行网页抓取,确保与出版生态和谐共存。

如果你厌倦了被算法操控、充满焦虑的新闻体验,Kagi News 提供了一个更清醒、更自主的选择。可通过网页、iOS 或 Android 客户端下载使用。


HN 热度 714 points | 评论 330 comments | 作者:grappler | 8 hours ago #

https://news.ycombinator.com/item?id=45426490

  • Kagi News 使用大语言模型从多个新闻网站的 RSS 源中提取内容,并生成摘要,但存在幻觉问题,无法保证引用来源的准确性。
  • 有用户指出,Kagi 官方在 GitHub 上承认存在“LLM 幻觉”问题,且其关于页面明确提示“摘要可能包含错误,请核实重要信息”。
  • 部分评论对 AI 生成新闻的可靠性表示怀疑,认为即使要求提供来源,模型也可能编造虚假链接或不存在的内容。
  • 有用户提到,AI 生成的链接经常是 404 错误,甚至包括从未在网站上出现过的页面路径。
  • 有人认为,AI 生成内容的泛滥反映了社会对“假新闻”的需求,真实新闻正逐渐被付费服务垄断。
  • 评论中提到,随着伪造技术的进步,可信信息机构正在减少,未来可能需要付费订阅才能获取经过验证的信息。
  • 有人调侃,从“假新闻”到“新闻可能为假”的转变仅用了 8 年,讽刺了当前信息环境的恶化。
  • 有用户指出,Kagi News 的设计目标并非重构单篇新闻,而是提炼宏观趋势,帮助用户决定是否点击原文,这一目标更现实且更易实现。
  • 有人建议,应训练模型理解“编造来源”与“提供真实来源”之间的区别,而不是盲目满足用户请求。
  • 有观点认为,即使技术上可以验证链接有效性,但大规模检测和过滤会面临被识别为爬虫的风险,执行难度很高。
  • 有人提出,应让模型在无法提供真实来源时明确声明,而不是生成虚假信息,这需要模型具备“诚实”而非“迎合”的能力。
  • 有评论指出,要让模型只引用真实来源,仅靠奖励机制远远不够,因为虚假来源的数量远超真实来源,难以有效训练。

I’ve removed Disqus. It was making my blog worse #

https://ryansouthgate.com/goodbye-disqus/

作者 Ryan Southgate 宣布正式停止使用 Disqus 评论系统,原因是其在免费版中植入了低质量、类似诈骗的广告,严重影响了网站的用户体验和隐私保护。

尽管最初 Disqus 在邮件中对广告的引入显得轻描淡写,且界面设计曾给人以美观印象,但实际广告内容却极为糟糕,格式混乱,具有明显的诱导性和欺骗性。

作者长期使用 Pi-hole 和 WireGuard VPN,几乎完全屏蔽了网络广告,因此长期处于“无广告”环境,逐渐忽视了普通用户所面临的糟糕网络体验。当他临时解除广告屏蔽查看评论时,发现页面被大量低质广告占据,而非正常评论。

他对此表示歉意,认为这些广告不仅破坏了博客简洁、专注的技术内容氛围,还涉及用户数据追踪,违背了他构建一个自由、无干扰技术资源的初衷。

因此,他决定彻底移除 Disqus,不再让自己的博客成为广告和数据监控的载体。

作者表示,虽然评论功能有一定价值,但他更重视隐私与用户体验。他欢迎读者推荐尊重隐私、可自托管或无广告的替代评论系统,可通过 GitHub 或 Twitter/X 等渠道联系。

最后,他强调博客的核心是为开发者和技术人员提供有价值、无干扰的信息,而广告和追踪正与此背道而驰。


HN 热度 534 points | 评论 332 comments | 作者:ry8806 | 15 hours ago #

https://news.ycombinator.com/item?id=45423268

  • 广告平台对诈骗广告的处理不力,部分原因是去除诈骗广告后广告库存不足,难以支撑现有广告支持服务的运营。
  • YouTube 等平台在用户未登录或关闭观看历史时,会展示质量低下的广告,如 5G 防辐射帽、可疑医疗产品等,严重影响用户体验。
  • 用户关闭个性化设置后可能被分配到“垃圾广告”,这可能是平台的一种暗黑设计,用以惩罚不提供数据的用户。
  • 广告行业对诈骗行为的纵容是系统性的,平台并非无辜受害者,而是与诈骗行为存在利益关联。
  • 广告技术公司对广告质量的解释自相矛盾:一方面声称广告来自可信品牌,另一方面又以广告数量庞大为由无法过滤所有恶意广告。
  • 广告平台对用户举报诈骗广告缺乏有效响应机制,说明其并非真正致力于清除诈骗内容。
  • 现有法律虽禁止广告欺诈,但在实际执行中严重不足,尤其在跨国场景下难以有效监管。
  • 英国等地区虽有相关法律,但主要针对广告主而非平台,导致执行效果有限。
  • 平台为追求利润,更倾向于接受高回报的诈骗广告,而非低收益但合规的广告。
  • 通过提高广告账户注册和投放门槛,辅以人工审核和定期验证,可显著提升广告生态质量,但平台缺乏动力实施。
  • 诈骗广告长期存在,反映出监管机构、媒体、执法部门等多方失职,加剧公众对系统性不公的不信任感。
  • 平台对真实信息传播的打压远甚于对诈骗内容的容忍,反映出权力对真相的恐惧。

Comprehension debt: A ticking time bomb of LLM-generated code #

https://codemanship.wordpress.com/2025/09/30/comprehension-debt-the-ticking-time-bomb-of-llm-generated-code/

文章探讨了由大型语言模型(LLM)生成代码所引发的“理解债务”问题。随着 AI 编码助手快速生成大量代码,开发团队面临难以及时理解和审查这些代码的挑战。尽管部分团队会投入时间进行审查和重构,但许多团队选择直接提交未经充分理解的代码,仅做简单测试甚至不测试。

这种做法导致“理解债务”迅速积累——即代码虽已存在,但开发者对其逻辑和设计意图缺乏清晰认知。当需要修改或修复时,往往无法依赖 AI 工具完成,因为 LLM 在某些情况下无法有效处理复杂或异常情况,甚至陷入反复尝试却无果的“灾难循环”。

作者指出,这种债务迟早会带来严重后果:未来修改代码所需的时间将远超最初节省的开发时间。因此,当前看似高效的 AI 辅助编程,实则埋下了长期维护成本飙升的风险。文章呼吁重视代码可读性和团队对代码的理解能力,警惕技术进步带来的隐性代价。


HN 热度 474 points | 评论 295 comments | 作者:todsacerdoti | 13 hours ago #

https://news.ycombinator.com/item?id=45423917

  • 程序员团队对程序“理论”或“模型”的掌握是程序生命力的关键,一旦团队解散,程序便可能陷入“死亡”状态,难以进行有效修改。
  • 程序设计的本质在于“编程 ≠ 编码”,编程是目标与方法的思考,而编码只是实现细节,两者不可混淆。
  • 即使没有正式的建模阶段,程序员在编写代码时仍会无意识地构建某种“模型”,而大语言模型正在取代这种被动的模型构建过程。
  • 那些认为无需建立理论或模型的程序员,往往更倾向于认为大语言模型能显著提升效率,这可能是因为他们本身缺乏系统性思考。
  • 在脱离计算机、远离技术工具的环境下思考,能更高效地明确目标,从而让编码变得快速而精准,大语言模型在此时可作为验证想法的工具。
  • 真正的创新和问题解决往往发生在非技术场景中,如厨房、散步等,此时大脑处于放松专注状态,有助于产生深刻洞见。
  • 要改善系统,必须先明确“如果不受限制,我想要什么”,这是解决问题的前提,否则无法在约束中做出明智选择。
  • 在编程中,代码的意义往往不在代码本身,而在于其解决的外部问题和上下文环境,代码只是实现手段。
  • 测试用例能极大压缩正确代码的可能空间,通过反复运行测试,可以有效验证和引导大语言模型生成更可靠的代码。
  • 用纸笔进行草图、流程图和架构设计,是理解需求和发现关键问题的高效方式,远胜于数字工具。
  • 优秀的软件开发始于对需求的深刻理解,再进行架构设计,最后才进入编码阶段,这是被实践验证的黄金法则。
  • 大语言模型的使用若缺乏前期思考,容易让人陷入无效尝试和“走偏”的陷阱,如同在冰面上滑行却不知方向。
  • 用纸笔思考是激发原创想法的最有效方式,数字白板无法替代这种直观、自由的思维过程。
  • 缺乏系统性思考的程序员更容易被大语言模型“带偏”,因为模型生成的内容缺乏深层理解,容易误导方向。

Sora 2 #

https://openai.com/index/sora-2/

Sora 2 是 OpenAI 推出的最新视频与音频生成模型,标志着视频生成技术进入新阶段。相比 2024 年初发布的原始 Sora 模型,Sora 2 在物理真实性、现实感和可控性方面实现显著提升,可生成奥运体操动作、在桨板上完成后空翻并准确模拟浮力与刚性,以及在猫稳稳坐在头上的情况下完成三周跳等复杂场景。

该模型更注重真实世界规律,例如篮球投篮未中时球会按物理规律反弹,而非“瞬移”至篮筐。这种对失败的建模能力,是构建真实世界模拟系统的关键。Sora 2 还能精准维持多镜头间的场景状态一致性,支持复杂指令和多种风格(写实、电影级、动漫等)。

在音频方面,Sora 2 可生成高度逼真的背景音效、对话与声音细节。用户还可将真实人物、动物或物体通过短时视频与音频录制“上传”至模型,实现高保真“登场”(cameos),例如让 Bigfoot 与真人互动,或让同事出现在任意生成场景中。

Sora 2 首次以社交应用形式发布,名为“Sora”的 iOS 应用,支持用户创作、 remix 他人作品、在个性化推荐流中发现内容,并通过“cameos”功能与朋友互动。应用默认聚焦于用户关注的人和创作灵感,不追求用户停留时长,强调创作而非消费。

为保障用户安全,尤其是青少年群体,应用设有每日内容浏览限制、严格 cameo 使用权限,并配备人工审核团队应对欺凌行为。家长可通过 ChatGPT 中的 Sora 家长控制功能管理内容、关闭个性化推荐、限制私信等。所有含用户 cameo 的视频均由用户自主控制,可随时撤销授权或删除。

OpenAI 强调该应用的设计核心是“以朋友为基础的社交”,旨在通过真实互动增强社区感,而非依赖算法诱导的无限滚动。Sora 2 的发布被视为视频生成领域的“GPT-3.5 时刻”,是迈向通用世界模拟的重要一步。


HN 热度 456 points | 评论 483 comments | 作者:skilled | 6 hours ago #

https://news.ycombinator.com/item?id=45427982

  • OpenAI 正在将 Sora 打造成类似 TikTok 的 AI 社交平台,以内容消费为核心,强调用户互动和社交属性,而非深度创作功能。
  • 该平台生成的视频极为短小,控制选项极少,缺乏长视频和复杂编辑能力,与现有视频生成工具相比更偏向娱乐化和社交化。
  • 尽管存在技术局限,如物理模拟不准确,但部分生成内容在视觉表现上已具备一定吸引力,且用户创作热情高涨。
  • 有人质疑“AI 版 TikTok”对社会的负面影响,认为其本质是追求流量与资本回报,而非真正有益于公众。
  • 也有观点认为降低创作门槛让普通人也能参与叙事表达,具有积极意义,尽管可能伴随低质量内容泛滥。
  • AI 生成内容的社交化可能推动平台算法进化,甚至倒逼现有社交平台(如 TikTok)进行功能升级。
  • 用户生成内容可能被用于训练 AI 模型,为 OpenAI 构建高质量的 AI 内容数据库,增强其技术优势。
  • 该平台可能成为广告和品牌植入的新载体,尽管 AI 生成内容与真实广告的融合仍面临挑战。
  • 一些用户担忧平台未来可能引入付费机制,创作者难以获得回报,长期吸引力存疑。
  • Sora 目前尚未在英国上线,部分用户无法访问相关内容,限制了其全球影响力。
  • OpenAI 内部已有社交网络项目在推进,Sora 2 可能是其战略布局的一部分,旨在构建 AI 驱动的社交生态。
  • 类似功能已在 Midjourney 等平台出现,用户通过互动和评分塑造内容风格,形成社区文化。
  • 有观点认为 Sora 2 的推出可能对现有社交平台造成冲击,甚至引发新一轮 AI 视频社交竞争。

California governor signs AI transparency bill into law #

https://www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/

加州州长纽森签署 SB 53 法案,推动该州在安全、可信的人工智能领域保持全球领先地位。该法案名为《前沿人工智能透明度法案》(TFAIA),由参议员斯科特·维纳(Scott Wiener)提出,旨在为前沿人工智能模型的开发设立合理的监管框架,既促进技术创新,又保障公共安全。

法案核心内容包括五个方面: 透明度方面,要求大型前沿 AI 开发者在其网站上公开说明如何融入国家、国际标准及行业共识的最佳实践。 创新方面,设立由政府运营机构牵头的“CalCompute”联盟,推动建设公共计算集群,支持安全、公平、可持续的人工智能研究与应用。 安全性方面,建立机制让 AI 公司和公众可向加州应急服务办公室报告潜在的重大安全事件。 问责机制方面,保护举报重大健康与安全风险的内部人士,并授权总检察长办公室对违规行为处以民事罚款。 响应性方面,要求加州技术部每年根据多方利益相关方意见、技术发展和国际标准,提出法律修订建议。

该法案基于今年早些时候由纽森州长召集的全球顶尖 AI 专家团队发布的首份全美首创报告,回应了其中关于基于科学证据制定政策、平衡透明度与安全风险等建议。在联邦层面尚未出台全面 AI 政策的背景下,加州此举填补了空白,为全国提供可借鉴的范本。

目前,加州仍是全球 AI 产业的核心地带:拥有全球前 50 大 AI 企业中的 32 家,2024 年全美 15.7% 的 AI 岗位需求位于加州,位居各州首位。湾区吸引了超过一半的全球 AI 初创企业风险投资。谷歌、苹果、英伟达等三家加州企业市值均突破 3 万亿美元,均深度参与 AI 技术发展并创造了数十万就业岗位。

纽森州长表示,加州证明了在保护社区的同时也能推动 AI 产业繁荣,该法案标志着加州在技术革新与安全治理之间取得平衡,巩固其作为全球 AI 领导者地位。


HN 热度 312 points | 评论 211 comments | 作者:raldi | 1 day ago #

https://news.ycombinator.com/item?id=45418428

  • 该法案旨在为立法者和法律体系提供基于实际数据讨论人工智能影响的基准框架,而非立即实施全面监管。
  • 当前罚款金额较低,主要是为了促使科技公司配合,而非惩罚,且罚款金额根据违规性质和后果分级设定。
  • 低罚款可能被企业视为可接受的成本,甚至可能通过虚假报告规避责任,但合规在公关和员工保留方面有潜在好处。
  • 申诉过程通常不会长达 28 年,实际多数案件在 1-2 年内解决,因此长期拖延的担忧被夸大。
  • 企业可能在报告中“适度”夸大或虚构内容,但完全造假难以被证实,且低罚款不足以形成有效威慑。
  • 企业对法案的接受度高,可能是因为其在监管压力下达成妥协,而非真正支持。
  • OpenAI 曾公开反对该法案,但企业立场可能随市场变化而调整。
  • 当前 AI 行业存在泡沫,但类似互联网泡沫,技术本身仍有长期价值,只是估值过高。
  • 大量 AI 初创企业可能无法存活,30% 的成功率已属乐观估计,多数公司将迅速倒闭。
  • 与历史上的科技泡沫类似,AI 热潮可能经历调整,但技术变革仍会持续,不会彻底消失。
  • 当前 AI 热潮的可重复包装和销售特性使其更像一种无限可复制的营销模式,而非可持续创新。

Ask HN: What are you working on? September 2025 #

https://news.ycombinator.com/item?id=45418675

  • Laboratory.love:一个众筹独立产品检测的平台,专注于检测食品中的内分泌干扰物,如塑料化学品。用户可以为特定产品的检测基金捐款,检测完成后获得详细结果。
  • 膝关节置换手术辅助系统:通过 4k 立体视觉捕捉和机器学习模型,帮助外科医生在膝关节置换手术中进行精确的骨骼切割,提高手术精度、减少错误和手术时间。
  • PastMaps:一个类似于谷歌地图的平台,专注于展示历史地图,目前支持美国地图,未来计划扩展到其他国家。
  • Dead Chefs Society:一个每月举办一次的晚餐俱乐部,围绕世界美食主题组织活动,支持当地餐厅,并计划发展成生活方式品牌。
  • ISBN 数据库:一个整合多个服务信息的 ISBN 数据库,旨在提供更完整的书籍信息,并计划推出 ISBN 搜索网站。
  • Circuitscript:一种基于 Python 的电子电路描述语言,通过代码生成电子电路,简化电路设计过程。
  • 3D 体素游戏引擎:一个支持 GPU 计算的 3D 体素游戏引擎,允许用户实时重新加载世界生成着色器,查看变化。
  • 轨道动力学代码:用于天文学博士研究的轨道动力学代码,能够准确计算小行星和彗星的轨道位置,并添加新的数值积分方法。
  • Quiet UI:一个注重无障碍性、持久性、性能和简洁性的 UI 组件库,支持多种现代前端技术。
  • NickC25 的运动饮料公司:一家基于南佛罗里达州的运动饮料公司,产品采用简单成分,强调产品透明度和真实性。
  • Dots Journal:一个帮助用户追踪生活事件以避免偏头痛的应用,通过记录事件和症状,帮助用户发现触发因素。
  • Typegres:一个为现代技术栈设计的数据层,专注于表达 PostgreSQL 的全部功能,提供类型安全的 TypeScript API。
  • Small Transfers:一个支付平台,方便 SaaS/API 开发者为客户提供按使用量付费的模式,支持非常小的金额收费。
  • Soupy 的旧地图项目:一个展示和探索历史地图的网站,目前专注于美国地图,未来计划扩展到其他国家。
  • JamesPondDotCo 的 ISBN 数据库:一个整合多个服务信息的 ISBN 数据库,旨在提供更完整的书籍信息,并计划推出 ISBN 搜索网站。
  • Circuitscript:一种基于 Python 的电子电路描述语言,通过代码生成电子电路,简化电路设计过程。
  • Jesse__的 3D 体素游戏引擎:一个支持 GPU 计算的 3D 体素游戏引擎,允许用户实时重新加载世界生成着色器,查看变化。
  • Ddahlen 的轨道动力学代码:用于天文学博士研究的轨道动力学代码,能够准确计算小行星和彗星的轨道位置,并添加新的数值积分方法。
  • Claviska 的 Quiet UI:一个注重无障碍性、持久性、性能和简洁性的 UI 组件库,支持多种现代前端技术。
  • NickC25 的运动饮料公司:一家基于南佛罗里达州的运动饮料公司,产品采用简单成分,强调产品透明度和真实性。
  • Tubignaaso 的 Dots Journal:一个帮助用户追踪生活事件以避免偏头痛的应用,通过记录事件和症状,帮助用户发现触发因素。
  • RyanRasti 的 Typegres:一个为现代技术栈设计的数据层,专注于表达 PostgreSQL 的全部功能,提供类型安全的 TypeScript API。
  • Strnisa 的 Small Transfers:一个支付平台,方便 SaaS/API 开发者为客户提供按使用量付费的模式,支持非常小的金额收费。
  • Soupy 的 PastMaps:一个展示和探索历史地图的网站,目前专注于美国地图,未来计划扩展到其他国家。
  • JamesPondDotCo 的 ISBN 数据库:一个整合多个服务信息的 ISBN 数据库,旨在提供更完整的书籍信息,并计划推出 ISBN 搜索网站。
  • Circuitscript:一种基于 Python 的电子电路描述语言,通过代码生成电子电路,简化电路设计过程。
  • Jesse__的 3D 体素游戏引擎:一个支持 GPU 计算的 3D 体素游戏引擎,允许用户实时重新加载世界生成着色器,查看变化。
  • Ddahlen 的轨道动力学代码:用于天文学博士研究的轨道动力学代码,能够准确计算小行星和彗星的轨道位置,并添加新的数值积分方法。
  • Claviska 的 Quiet UI:一个注重无障碍性、持久性、性能和简洁性的 UI 组件库,支持多种现代前端技术。
  • NickC25 的运动饮料公司:一家基于南佛罗里达州的运动饮料公司,产品采用简单成分,强调产品透明度和真实性。
  • Tubignaaso 的 Dots Journal:一个帮助用户追踪生活事件以避免偏头痛的应用,通过记录事件和症状,帮助用户发现触发因素。
  • RyanRasti 的 Typegres:一个为现代技术栈设计的数据层,专注于表达 PostgreSQL 的全部功能,提供类型安全的 TypeScript API。
  • Strnisa 的 Small Transfers:一个支付平台,方便 SaaS/API 开发者为客户提供按使用量付费的模式,支持非常小的金额收费。
  • Soupy 的 PastMaps:一个展示和探索历史地图的网站,目前专注于美国地图,未来计划扩展到其他国家。
  • JamesPondDotCo 的 ISBN 数据库:一个整合多个服务信息的 ISBN 数据库,旨在提供更完整的书籍信息,并计划推出 ISBN 搜索网站。
  • Circuitscript:一种基于 Python 的电子电路描述语言,通过代码生成电子电路,简化电路设计过程。
  • Jesse__的 3D 体素游戏引擎:一个支持 GPU 计算的 3D 体素游戏引擎,允许用户实时重新加载世界生成着色器,查看变化。
  • Ddahlen 的轨道动力学代码:用于天文学博士研究的轨道动力学代码,能够准确计算小行星和彗星的轨道位置,并

HN 热度 287 points | 评论 872 comments | 作者:david927 | 1 day ago #

https://news.ycombinator.com/item?id=45418675

  • 项目旨在通过众筹方式对消费者日常购买的产品进行独立检测,特别是关注内分泌干扰物等有害化学物质,以提升食品透明度。
  • 用户希望项目能增加“接近筹资目标”排序功能,便于关注进展接近完成的检测项目。
  • 有用户指出当前检测结果对普通消费者不够友好,建议增加“欧盟安全标准”等直观标签帮助理解数据。
  • 项目方回应称数据可读性改进已在规划中,并计划公开安全限值标准以提升结果的可解释性。
  • 有开发者询问是否接受代码贡献,希望加快项目进展。
  • 用户建议增加“非转基因”等标签,但也有观点认为这可能只对科学素养较低的人群有用。
  • 项目目前主要聚焦美国市场和美国实验室,用户建议扩展至欧洲,以应对不同地区的监管差异。
  • 有用户提议与类似 Yuka 的食品评分平台合作,整合更多营养和成分信息。
  • 项目被视为通过市场透明度推动企业改善产品质量的创新模式,而非依赖政府强制监管。
  • 有人认为当前美国食品监管体系存在“裙带资本主义”问题,而此类项目能通过市场机制自然筛选出更安全的产品。
  • 有用户建议采用订阅制 + 用户投票的模式,类似“Examined”平台,以提升参与度和检测效率。
  • 项目方表示曾考虑过投票机制,但因美国市场上有数百万种可购买的消费品,实施难度较大。

Imgur pulls out of UK as data watchdog threatens fine #

https://www.express.co.uk/news/uk/2115228/image-site-imgur-pulls-out

图片分享平台 Imgur 已停止向英国用户提供服务,原因是英国信息专员办公室(ICO)对其母公司 MediaLab 展开调查,并发出拟罚款通知。该调查源于 ICO 的“儿童数据保护计划”,重点关注在线服务对未成年人个人信息的处理是否合规。

ICO 表示,已对 MediaLab 作出初步调查结论,并于 2025 年 9 月 10 日发出拟处罚通知。尽管 Imgur 已退出英国市场,ICO 强调,企业不能通过撤出英国来逃避法律责任。调查仍在进行中,最终决定将基于公司提交的反馈意见作出。

ICO interim 执行总监 Tim Capel 强调,保护儿童在线数据安全是监管重点,平台必须对其服务中涉及的未成年人信息承担法律责任。目前,ICO 未披露拟罚款的具体金额。

该事件反映出英国对数字平台数据合规性的严格监管趋势,尤其在涉及青少年用户方面。


HN 热度 276 points | 评论 294 comments | 作者:ANewbury | 10 hours ago #

https://news.ycombinator.com/item?id=45424888

  • 有必要创建类似 CloudFlare 的服务,帮助网站管理者根据各国法律自动管理地理访问限制,避免因无意中访问某些国家而承担法律责任。
  • 将责任推给网站或中间商来应对各国法律风险,会加剧互联网的碎片化,应由各国政府通过本国网络运营商实施内容屏蔽。
  • 希望 Wikipedia 能在英国采取“停机”行动以示抗议,借此对英国施加舆论压力。
  • CloudFlare 已具备根据国家实施封锁的能力,但目前未使用,因为担心客户流失。
  • CloudFlare 作为跨国网络 gatekeeper,拥有过大的控制权,可能滥用权力关闭网站,形成新的网络审查机制。
  • 英国长期通过版权法对境外网站施加影响,例如通过 PIPCU 威胁境外网站,迫使非本国注册商配合。
  • 美国也长期主张对境外可访问内容的管辖权,如 Megaupload 案例所示,但其刑事指控与 DMCA 安全港条款无直接关联。
  • 有观点认为,即使遵守 DMCA,也不能免除刑事侵权责任,因为刑事侵权不适用安全港保护。
  • 一些人认为,国家有权通过国际条约在境外执行版权法,包括民事和刑事措施。
  • 17 岁未成年人无法对数据追踪给予有效同意的说法是荒谬的,但更荒谬的是企业大规模追踪并贩卖用户数据,包括未成年人。
  • 企业即使拒绝追踪,也仍可能通过其他方式收集用户数据,因此完全拒绝追踪并不能完全避免数据被收集。
  • 未成年人的数据保护应由法律明确界定父母权利,政府应制定相关规则,这并非争议性议题。

iRobot Founder: Don’t Believe the AI and Robotics Hype #

https://crazystupidtech.com/2025/09/29/irobot-founder-dont-believe-the-ai-robotics-hype/

文章讲述了 iRobot 创始人罗德尼·布鲁克斯(Rodney Brooks)对当前人工智能与机器人技术热潮的理性反思。他指出,尽管 AI 和机器人领域吸引了大量资本与媒体关注,但实际进展远未达到公众预期,尤其对人形机器人的 hype 存在严重误判。

布鲁克斯强调,真正的技术进步并非来自炫目的演示,而是扎根于解决现实问题的实用创新。他目前领导的公司 Robust.AI 专注于为仓储物流打造智能移动 carts(如 Carta),帮助工人减少每日高达 3 万步的行走负担。这些机器人不直接抓取物品,而是通过视觉导航、环境感知和简单智能,协助人类高效完成拣货任务。

他特别指出,当前机器人技术的核心优势在于“增强人类能力”而非替代人类。例如,Carta 能识别障碍物、避开工作人员和梯子,还能在通道被堵时自动上报系统,实现可靠协作。这种“非人形、非炫技”的设计,虽然缺乏吸引力,却更符合现实需求。

布鲁克斯回顾自己创办的 iRobot、Rethink Robotics 等公司,始终秉持“让人类保持控制权”的理念。无论是 Roomba 的可手动移动设计,还是 Carta 的“魔法手柄”让工人轻松操控,都体现了技术服务于人的本质。

他批评将机器人等同于人形的误解,认为这种形象承载了“无所不能”的虚假承诺,反而阻碍了真正落地的应用。真正的机器人可以是无形的,比如广告投放系统,它们同样具备“机器人”的功能。

最后,布鲁克斯坦言,这类务实项目在融资上面临挑战——VC 更青睐“性感”概念,而忽视了万亿级的实体产业市场。但他坚信,真正可持续的创新,恰恰来自这些看似平凡、却能切实提升效率与工人福祉的技术。


HN 热度 246 points | 评论 177 comments | 作者:herbertl | 1 day ago #

https://news.ycombinator.com/item?id=45418261

  • 机器人和语言模型都通过外观或形式向用户承诺具备超出实际能力的功能,这种承诺极具吸引力但并不真实。
  • 语言模型的错误往往隐藏在看似合理的表达中,只有具备专业知识的人才能察觉,而机器人在物理世界中的失败则显而易见。
  • 人类对机器人能力的判断受限于自身知识水平,可能误以为机器人表现良好,实则存在安全隐患或操作缺陷。
  • 语言模型与人形机器人结合的趋势,可能使用户更难以分辨其真实能力,从而加剧对技术能力的误判。
  • 语言模型的“承诺”与现实之间的差距,比人形机器人更大,因为语言模型的错误更隐蔽且难以察觉。
  • 人形机器人在物理世界中的失败会立即暴露,而语言模型的错误则依赖于用户是否具备验证能力。
  • 语言模型的输出看似专业,但其本质是基于模式生成,不具备真正的计算或推理能力。
  • 尽管语言模型无法独立计算,但通过调用工具(如 Python)可以实现计算功能,这使得其能力被误解为更强大。
  • 语言模型的“幻觉”与人形机器人在现实中的物理限制相比,前者更难被察觉,也更危险。
  • 语言模型的“能力”被过度宣传,导致用户误以为其具备实际执行复杂任务的能力,如财务分析或科学计算。
  • 人形机器人在家庭场景中可能因用户缺乏专业知识而被误认为表现良好,实则存在严重隐患。
  • 语言模型的“说服力”类似于一个看似博学却毫无真才实学的人,能用华丽语言掩盖无知。
  • 语言模型与机器人结合的前景令人担忧,可能产生“既会说又会做”的假象,实则两者都能力不足。
  • 语言模型的“能力”依赖于外部工具,其本身不具备物理世界交互能力,与人形机器人面临的问题本质不同。
  • 语言模型的“承诺”与现实之间的差距,本质上是“语言”与“现实”之间的鸿沟,而机器人则面临“物理”与“现实”的挑战。
  • 人形机器人在真实物理环境中的失败是直观的,而语言模型的错误则需要专业知识才能识别,因此前者更容易被察觉。

Instant Checkout and the Agentic Commerce Protocol #

https://openai.com/index/buy-it-in-chatgpt/

OpenAI 推出 ChatGPT 新功能“即时购买”(Instant Checkout),标志着 agentic commerce(代理式电商)的初步实现。该功能允许美国地区的 ChatGPT Plus、Pro 和免费用户直接在聊天中购买商品,目前支持来自 Etsy 的美国卖家,未来将扩展至超过百万家 Shopify 商家,如 Glossier、SKIMS、Spanx 和 Vuori。

即时购买基于“代理电商协议”(Agentic Commerce Protocol),由 OpenAI 与 Stripe 及多家领先商家共同开发。该协议是一个开放标准,旨在让 AI 代理、用户和商家协同完成购买流程,同时确保安全与信任。

用户在聊天中提出购物需求后,ChatGPT 会展示相关商品,结果基于相关性排序,不涉及广告推广。若商品支持即时购买,用户可一键“购买”,确认订单、配送和支付信息后完成交易,全程无需离开聊天界面。支付信息由用户已有卡信息或 Express 支付方式完成,订单、支付和履约均由商家通过现有系统处理,ChatGPT 仅作为用户代理,安全传递信息。

商家无需改变后台系统,即可接入该功能。若使用 Stripe 支付,仅需一行代码即可启用。其他支付方式的商家也可通过 Stripe 的共享支付令牌 API 或协议中的委托支付规范参与,保持对客户关系的完全掌控。

该功能强调用户控制、支付安全和最小数据共享:用户需主动确认每一步操作,支付令牌仅限特定金额和商家使用,且仅共享完成订单所必需的信息。

OpenAI 已开源代理电商协议及相关文档,鼓励更多商家和开发者接入。有兴趣的商家可申请加入。

此功能仅为起点,未来将支持多商品购物车、更多地区和更广泛的应用场景,推动 AI 成为人们发现、决策与购买商品的核心入口。


HN 热度 244 points | 评论 355 comments | 作者:meetpateltech | 1 day ago #

https://news.ycombinator.com/item?id=45416080

  • 亚马逊的成功在于便捷的物流和退货政策,以及用户无需重复填写个人信息的便利性,这使得消费者更倾向于在亚马逊购买商品。
  • 一些用户更倾向于直接从品牌官网购买,因为避免了在亚马逊上面对大量商品和不可靠卖家的困扰,且能减少买到假货的风险。
  • 对于普通消费品,用户难以找到可靠的替代零售商,担心买到劣质产品,因此仍依赖亚马逊等大型平台。
  • 亚马逊的评价系统存在被操纵的问题,包括删除负面评价、卖家复制产品信息并转移评价,以及通过赠送商品换取好评等行为。
  • 有用户建议通过剔除所有五星评价、检查评论数量并重新计算评分,再阅读中低分评价来更客观地判断商品质量。
  • 一些用户选择在专业零售商如 B&H、Sweetwater 或本地 Microcenter 购买电子产品或专业设备,以避免亚马逊上的问题。
  • 亚马逊的快速配送是吸引用户的重要因素,其高效的物流体系与商品选择相结合,极大地提升了购物体验。
  • 有人认为 ChatGPT 未来可能成为互联网的入口,通过集成推荐和购买功能,取代搜索引擎或电商平台,但存在潜在的偏见和商业化风险。
  • OpenAI 若保持非营利初心,可能无法支撑 AGI 研发所需的巨额投入,因此商业化是必然选择,而 Google 等公司也难以真正投入 AGI 研发。
  • 电商平台的评价系统被广泛认为存在严重漏洞,用户对平台评价的信任度正在下降,这促使部分用户转向更可靠的替代渠道。
  • 为提升用户体验,应在用户明确购买意图的前提下,将智能推荐与一键购买功能结合,但需防止误操作破坏用户信任。

Hacker News 精彩评论及翻译 #

Boeing has started working on a 737 MAX replacemen… #

https://news.ycombinator.com/item?id=45429423

To add to this & the Jobs interview - an oil industry proverb: a healthy oil company has a geologist in charge, a mature one has an engineer in charge, a declining one has an accountant in charge, and a dying one has a lawyer in charge.

scrlk

此外,还要补充一点关于乔布斯面试的评论——石油行业有一句谚语:健康的石油公司由地质学家掌管;成熟的石油公司由工程师掌管;衰退的石油公司由会计师掌管;而濒临倒闭的石油公司则由律师掌管。


Comprehension debt: A ticking time bomb of LLM-gen… #

https://news.ycombinator.com/item?id=45424366

This was a pre-existing problem, even if reliance on LLMs is making it worse.

Naur ( https://gwern.net/doc/cs/algorithm/1985-naur.pdf ) called it “theory building”:

The death of a program happens when the programmer team possessing its theory is dissolved. A dead program may continue to be used for execution in a computer and to produce useful results. The actual state of death becomes visible when demands for modifications of the program cannot be intelligently answered. Revival of a program is the rebuilding of its theory by a new programmer team.

Lamport calls it “programming ≠ coding”, where programming is “what you want to achieve and how” and coding is telling the computer how to do it.

I strongly agree with all of this. Even if your dev team skipped any kind of theory-building or modelling phase, they’d still passively absorb some of the model while typing the code into the computer. I think that it’s this last resort of incidental model building that the LLM replaces.

I suspect that there is a strong correlation between programmers who don’t think that there needs to be a model/theory, and those who are reporting that LLMs are speeding them up.

mrkeen

这是一个由来已久的问题,即便是对大语言模型的依赖正使其雪上加霜。

纳尔(Naur,https://gwern.net/doc/cs/algorithm/1985-naur.pdf)将其称为“理论构建”(theory building):

一个程序的死亡,在于掌握其理论的程序员团队解散之时。一个已死的程序,或许仍可在计算机上运行并产生有用的结果。但当对程序修改的需求无法得到智能解答时,其死亡的实质状态便显现无遗。程序的复活,则在于新的程序员团队对其理论的重建。

拉姆波特(Lamport)称之为“编程 ≠ 编码”,其中,编程是“你想要实现的目标以及实现路径”,而编码则是告知计算机如何执行。

我对此深表认同。即便你们的开发团队跳过了任何理论构建或建模的阶段,他们在将代码输入计算机时,也依然会被动地吸收某种模型。我认为,LLM所取代的,正是这种最后的、附带性的模型构建。

我怀疑,那些不认为需要模型或理论的程序员,与那些报告说LLM提升了他们速度的程序员之间,存在着强烈的关联性。