Code for Life, AI for Future
本文字数:约 4400 字,预计阅读时间:22 分钟GPT 5.1 发布了,但西方媒体准备「讲好中国故事」GPT 5.1 的发布伴随着市场对 AI 芯片和数据中心投资的质疑。OpenAI 首席财务官 Sarah Friar 的一席话,引发了美国科技股集体重挫,总市值一夜蒸发近 5000 亿美元。在这一背景下,中国 AI 模型 MiniMax M2 逐渐崭露头角,其高性能和高性价比吸引了全球开发者的关注。美国创业公司更多转向中国开源模型,如 Qwen、MiniMax、智谱等,反映出全球资本对美国 AI 价值体系的质疑,以及对中国 AI 模型的重新审视。AI、游戏双驱动,腾讯「赚麻了」腾讯2025年第三季度财报显示,其AI战略已经深入到各个业务板块,成为贯穿性角色。AI不仅提升了游戏研发效率和用户参与度,还优化了广告的精准度,提升了微信生态的智能化水平。财报显示,增值服务收入同比增长16%,其中游戏业务收入增速为22.8%。腾讯的研发投入达到228.2亿元,创下历史新高,主要用于AI技术的研发和应用。此外,腾讯资本开支同比下降24%,表明其更加专注于AI技术的内部应用而非硬件采购。AI正在
本文字数:约 3964 字,预计阅读时间:13 分钟Baidu unveils proprietary ERNIE 5 beating GPT-5 performance on charts, document understanding and more中国搜索巨头百度在Baidu World 2025活动上发布了其下一代基础模型ERNIE 5.0,该模型在多种任务中表现出色,尤其是在图表理解和文档理解方面。ERNIE 5.0是一个专有的、原生的多模态模型,旨在同时处理和生成文本、图像、音频和视频内容。与其他开源模型相比,ERNIE 5.0仅通过百度的ERNIE Bot网站和Qianfan云平台API提供。该模型的性能表明,百度在多模态基础模型领域中具有竞争力,尤其是在处理复杂文档和图像理解方面。ERNIE 5.0的发布标志着百度在AI领域的战略升级,旨在成为全球领先的AI基础设施提供商。尽管在某些任务中仍需进一步优化,但ERNIE 5.0的发布为百度在全球AI市场中的竞争地位提供了有力支持。Upwork study shows AI agents excel with human
本文字数:约 4253 字,预计阅读时间:14 分钟Weibo's new open source AI model VibeThinker-1.5B outperforms DeepSeek-R1 on $7,800 post-training budget在2025年晚些时候,中国社交网络公司微博发布了其开源人工智能模型VibeThinker-1.5B,这是一个基于阿里巴巴Qwen2.5-Math-1.5B的15亿参数大语言模型(LLM)。该模型免费下载并可供研究人员和企业开发者使用,包括商业用途,使用MIT许可发布在Hugging Face、GitHub和ModelScope上,并在arxiv.org上提供技术报告。尽管其参数规模较小,VibeThinker-1.5B在数学和代码任务的推理性能方面超越了其他模型,甚至超过了拥有671亿参数的DeepSeek R1。此外,VibeThinker-1.5B在推理方面也超越了Mistral AI的Magistral Medium,并与Anthropic的Claude Opus 4和OpenAI的gpt-oss-20B Medium相匹敌
本文字数:约 4864 字,预计阅读时间:10 分钟Only 9% of developers think AI code can be used without human oversight, BairesDev survey revealsBairesDev 最近发布的 Dev Barometer 报告揭示了开发者对 AI 代码的看法。调查结果显示,9% 的开发者认为 AI 生成的代码可以无须人工监督直接投入使用,而大部分开发者仍然对 AI 生成代码的可靠性持谨慎态度。该报告调查了来自 92 个软件项目中的 501 名开发者和 19 名项目经理。数据表明,AI 正在改变软件开发流程,减少例行编码任务,更加强调设计和战略,并提高了对 AI 能力的需求。74% 的开发者预期将从手动编码转向设计解决方案,而 61% 的开发者计划将 AI 生成的代码整合到工作流程中。尽管有这种乐观情绪,但开发者仍然认为 AI 代码需要人工验证,以确保准确性和安全性。BairesDev 的首席技术官 Justice Erolin 指出,AI 目前在生成代码框架和单元测试方面表现出色,节省了开发者每周大约
本文字数:约 17,650 字,预计阅读时间:35 分钟重点新闻上交博士最新思考:仅用两个问题讲清强化学习强化学习(RL)作为人工智能领域的重要研究方向之一,其复杂性常常令人望而却步。上海交通大学与上海期智研究院的博士生 Kun Lei 近期发表了一篇博客,提出了一种全新的框架来理解强化学习:所有强化学习算法,都可以通过两个问题来理解,即“数据从哪里来”和“策略更新有多频繁”。数据从哪里来 强化学习的过程可以理解为智能体不断收集经验、并用这些经验改进策略的循环。不同算法的差异很大程度上取决于它们依赖什么样的数据。在线学习算法(如 PPO 和 SAC)在交互过程中不断学习新数据,而离线学习算法(如 CQL 和 IQL)则完全依赖于固定的数据集进行训练。这些方式反映了任务的现实约束:能否安全地试错?能否持续获得新数据?试错的代价是否可承受?学习更新的节奏 这个维度是智能体多久评估一次策略,又多久调整一次行为。从一步式学习到多步式学习,再到迭代式学习,算法的更新节奏越来越密集,也意味着从静态到动态的转变。不同节奏之间,其实反映的是对稳定性和适应性的权衡。更底层的统一框架 博客还提出了一
康叔的AI全栈工坊