本文字数:约 3300 字,预计阅读时间:10 分钟AI denial is becoming an enterprise risk: Why dismissing “slop” obscures real capability gains三年前,ChatGPT诞生,震惊世界,引发前所未有的投资和对AI的狂热。然而,今天,ChatGPT仍然处于初期阶段,但公众对AI热潮的态度却急剧转为负面。这种转变始于今年夏天OpenAI发布GPT-5,尽管受到了一些用户的好评,但也有很多负面评价,主要集中在系统的表面缺陷上,而不是其底层能力。自此之后,评论家和意见领袖纷纷宣称AI的进步正在放缓,认为规模扩展已经“撞墙”,整个领域只是由吹嘘的炒作所驱动的又一个科技泡沫。许多意见领袖甚至使用了“AI slop”这一贬义词来贬低AI生成的令人惊叹的图像、文档、视频和代码。这种观点不仅是错误的,而且是危险的。它使我们质疑,当电动滑板车初创公司被吹捧为交通革命,卡通NFT被拍卖出数百万美元时,这些“专家”在哪里?他们可能忙于购买虚拟世界中的无价值土地或增加GameStop的头寸。然而,当涉及到AI热潮时,这是
本文字数:约 4500 字,预计阅读时间:15 分钟The 'truth serum' for AI: OpenAI’s new method for training models to confess their mistakesOpenAI 研究人员提出了一种新颖的方法,可以作为大型语言模型(LLM)的“催吐剂”,迫使它们自我报告自身错误、幻觉和政策违规行为。这种方法称为“忏悔”,解决了企业AI中的一个日益增长的问题:模型可能不诚实,夸大其信心或掩盖它们得出答案所采用的捷径。对于实际应用,这项技术将促进更透明和可控的AI系统的创建。通过将奖励分离,即在训练过程中,忏悔的奖励仅基于其诚实性,而非其主要任务的奖励,这种方法创建了一个“安全空间”,使模型能够坦白错误而不会受到惩罚。这种方法在实际应用中,可以提供一种实用的监控机制,例如,系统可以设计为自动审查任何输出,如果其忏悔表明存在政策违规或高度不确定性,就将输出提交给人类审查。从技术角度看,这种方法通过分离奖励,创建了一个“忏悔法官”,这使得模型在忏悔时更难以欺骗,从而提供了一种更准确的自我评估机制。这对于企业AI而言,意味着能够
本文字数:约 3678 字,预计阅读时间:12 分钟腾讯胡文博:引领 3D 视频世界模型新趋势丨GAIR 20252025年 12 月 12-13 日,由 GAIR 研究院与雷峰网联合主办的「第八届 GAIR 全球人工智能与机器人大会」将在深圳南山·博林天瑞喜来登酒店举办。今年大会将聚焦大模型、算力变革、世界模型等多个议题,描绘 AI 最前沿的探索群像。腾讯 ARC 实验室高级研究员胡文博将在《世界模型》论坛上带来《迈向三维感知的视频世界模型》的主题分享。过去一年多,视频生成模型如Sora成为新的学术热点。这些模型本质上是一种世界模型,核心目的是生成一段逼真、连贯的视频。要达到这一目标,模型必须理解世界的运作方式,例如水往低处流、物体碰撞后的运动、人的合理动作等。胡文博正是世界模型研究领域的佼佼者,已发表20余篇论文。在世界模型领域,胡文博的研究成果《Tri-MipRF》受到极大关注,该论文提出了一种新颖的Tri-Mip编码,实现神经辐射场的即时重建和抗锯齿高保真渲染。这项技术将预滤波后的3D特征空间分解为三个正交的mipmap,从而在不牺牲效率的前提下显著提升渲染质量。实验表明,与I
本文字数:约 7300 字,预计阅读时间:25 分钟Amazon's new AI can code for days without human help. What does that mean for software engineers?Amazon Web Services (AWS) recently announced the release of a new class of artificial intelligence systems called "frontier agents." These AI systems are designed to operate autonomously for extended periods without human intervention, marking a significant advancement in the automation of the software development lifecycle. During the annual re:Invent conference, AWS CEO Ma
本文字数:约 7200 字,预计阅读时间:15 分钟MIT offshoot Liquid AI releases blueprint for enterprise-grade small-model trainingLiquid AI, a startup founded by MIT computer scientists, introduced its Liquid Foundation Models series 2 (LFM2) in July 2025. The initial release included models with 350M, 700M, and 1.2B parameters, showcasing a hybrid architecture heavily reliant on gated short convolutions. The key highlight was the company's focus on training and inference efficiency, positioning small models as a se
康叔的AI全栈工坊
Code for Life, AI for Future