本文字数:约 4150 字,预计阅读时间:14 分钟万字长文总结:DeepSeek 引发的 AI Infra 变革正在「加速」丨GAIR Live2025年3月22日,雷峰网、AI科技评论GAIR Live品牌举办了一场主题为“AI Infra变革进行时”的线上圆桌沙龙。圆桌主持人为3C AGI Partners创始人兼CEO王康曼,她一直专注于投资AI Infra赛道,其创立基金成立后仅一年多就已经成为英伟达全球VC联盟成员。圆桌还邀请了魔形智能创始人CEO徐凌杰、探微芯联CEO刘学和清程极智联合创始人师天麾共同开启了一场深度对话。深度对话中,嘉宾们围绕成本进一步压缩下,MaaS、一体机等AI Infra商业模式的前景、DeepSeek为国产芯片带来的启示、构建开源生态对于Infra的重要意义等多个方面发表了独到见解。目前,国内AI Infra初创的商业模式无非云上和线下两种,而DeepSeek之后有关云上MaaS能否盈利的讨论甚嚣尘上。深度对话中,嘉宾们围绕成本进一步压缩下,MaaS、一体机等AI Infra商业模式的前景、DeepSeek为国产芯片带来的启示、构建开源生态对于In
本文字数:约 4250 字,预计阅读时间:12 分钟防不胜防!成年人更容易「AI 成瘾」,为什么?!人工智能已经无处不在,我们使用 AI 的方式,也逐渐从搜索引擎时期的「提问」,过渡到了 AI 聊天机器人时代的「对话」。这项研究揭示了成年人对 AI 的依赖已经到了病理级别,表现出典型的成瘾症状——沉迷、戒断反应、失控、甚至情绪被 AI 牵着走。研究团队收集了近 4000 万次的交互数据,其中包含 300 万次的对话,3600 万次对话话题的分类,4076 份参与者问卷。结果显示,与 AI 聊天的重度用户在现实生活中与朋友家人的联系越来越少,情感上对 ChatGPT 的依赖也水涨船高。研究发现,AI 成瘾的风险并不是平均分布,大部分人能保持理性,只有少数人会上头甚至成瘾。这种成瘾的苗头,在成年人中悄然滋长,尤其是在那些本就带着社交焦虑、渴望联结却又畏惧现实社交的人群。论文还指出,部分成年人对 AI 的依赖达到了病理层面,表现出了标准的成瘾迹象,比如频繁地、不自觉地打开 AI 进行对话,无法控制自己与 AI 互动的时间和频率。Beyond encryption: Why quantum c
本文字数:约 3200 字,预计阅读时间:12 分钟重点新闻> Google’s Gemini 2.5 Pro is the smartest model you’re not using – and 4 reasons it matters for enterprise AIGoogle 的 Gemini 2.5 Pro 模型标志着其在基础模型竞赛中的重大飞跃,不仅在基准测试中表现出色,而且在易用性方面也有所突破。根据早期实验、基准数据以及开发者的实际反馈,这款模型值得企业技术决策者给予更多关注,特别是那些历史以来默认选择 OpenAI 或 Anthropic 的生产级推理任务的企业。以下是企业团队在评估 Gemini 2.5 Pro 时的四个主要收获:透明、结构化的推理能力:Gemini 2.5 Pro 提供了一种新的链式思考清晰度标准,能够展示其推理过程,使用户更容易理解和验证模型的决策过程。多样化的训练数据:模型在大量多样化的数据集上进行训练,这有助于提高其在各种任务上的泛化能力。性能优化:Gemini 2.5 Pro 在多个基准测试中表现出色,显示出比竞争对手更高的推理
本文字数:约 3980 字,预计阅读时间:16 分钟英伟达团队发布最新具身模型 Cosmos-Reason1,在物理世界推理中碾压 Qwen、GPT-4o 等多个 VLM 模型英伟达在 GTC 大会上发布了名为 Cosmos-Reason1 的最新物理世界大模型。该模型旨在增强人工智能系统在物理世界中的推理能力,这包括感知、理解与执行复杂动作。Cosmos-Reason1 是 Cosmos 系列的一部分,专注于模型的推理能力。它不仅在物理常识基准测试中表现出色,还在具身推理方面取得了显著进展,超越了 Qwen2.5-VL-7B、Gemini 2.0 Flash 和 GPT-4o 等模型。该模型由两个大模组成,分别是 80 亿参数的 Cosmos-Reason1-8B 和 560 亿参数的 Cosmos-Reason1-56B。模型的训练分为四个阶段:视觉预训练、通用 SFT、物理 AI SFT 和物理 AI 强化学习后训练。在评估过程中,研究人员制定了物理常识和具身推理的基准测试,以确保 Cosmos-Reason1 在这两个方向上的表现。模型的训练采用了纯解码的多模态大模型架构,以及
本文字数:约 2300 字,预计阅读时间:10 分钟GRPO在《时空谜题》中击败o1、o3-mini和R1近日,OpenPipe平台发布了一项研究,展示了其如何通过GRPO在推理游戏《时空谜题》中超越R1、o1、o3-mini等模型。研究由Ender Research的强化学习研究员Brad Hilton和OpenPipe创始人Kyle Corbitt共同完成。研究中提到,GRPO不仅将模型与Sonnet 3.7的差距缩小至个位百分比,还实现了超过100倍的推理成本优化。研究详细介绍了任务设计与超参数调整的经验,并公开了基于torchtune框架构建的完整训练方案。该研究强调了强化学习在训练小型开源模型处理复杂演绎任务方面的巨大潜力。实验结果显示,仅需16个训练样本就能实现高达10-15%的性能提升,这意味着无需大量数据即可进行有效推理。ChatGPT gets smarter: OpenAI adds internal data referencingChatGPT Team用户现在可以添加内部数据库作为参考,使ChatGPT能够提供更丰富的上下文回应。这一新功能增强了ChatGPT
康叔的AI全栈工坊
Code for Life, AI for Future