Code for Life, AI for Future
本文字数:约 4000 字,预计阅读时间:15 分钟有道2025Q4,AI订阅销售额突破1亿,付费生态蓄势待发有道在2025年第四季度的财报显示,其AI订阅销售额突破了1亿元人民币,这标志着AI技术在教育领域的商业化取得了重大进展。有道通过持续优化其AI技术,使得模型能力更加稳定和可用,从而提升了用户对AI服务的满意度和信任度。公司表示,将AI技术转化为实际应用并形成稳定的工作流,是获得长期收费资格的关键。有道通过不断迭代和优化其AI服务,确保了服务的可靠性和效率,这不仅提升了用户满意度,也为有道在AI付费生态中打下了坚实的基础。有道的成功表明,AI技术的应用在教育行业具有巨大潜力,未来可能会有更多的公司跟进,推出类似的服务。我们离Coding领域的「AGI时刻」还有多远?字节跳动Seed发布NL2Repo-Bench仓库级长程代码生成基准作为人工智能技术的重要分支,自然语言处理(NLP)近年来在代码生成领域取得了显著进展。字节跳动的Seed团队最近发布了一项名为NL2Repo-Bench的新基准测试,该基准专门用于评估自然语言到代码生成模型在大规模仓库级代码生成任务上的性能。NL2R
本文字数:约 4600 字,预计阅读时间:15 分钟高德发布两款ABot系列基座模型,达成全球首个具身操作和具身导航”双SOTA”高德地图在AI领域取得新突破,发布了两款ABot系列基座模型,分别针对具身操作和具身导航,成为全球首个在这些领域达成SOTA(State-of-the-Art)的模型。具身操作是指机器人或智能系统能够在物理环境中执行任务的能力,而具身导航则是指智能系统在复杂环境中自主导航的能力。高德地图的这两款基座模型在各自领域内展现出了卓越的性能,标志着AI技术在具身智能方面的重大进展。这两款模型不仅能够提升现有应用的性能,还为未来更多的智能场景提供了强有力的技术支撑。通过这些模型,高德能够更好地满足用户对于智能导航和操作的需求,进一步优化用户体验。小米的首代机器人VLA大模型来了!丝滑赛德芙,推理延迟仅80ms丨全面开源小米推出了其首代机器人VLA大模型,该模型具备丝滑的操作体验和超低的推理延迟,仅需80毫秒。这一突破使得小米在机器人领域迈出了重要一步。VLA大模型不仅在性能上表现出色,还全面开源,为开发者和研究者提供了强大的工具。这一开源动作进一步推动了AI技术的普及
本文字数:约 2700 字,预计阅读时间:10 分钟重点新闻网易有道发布中国版“OpenClaw”,推出全场景个人助理Agent“LobsterAI”网易有道宣布推出一款名为“LobsterAI”的全场景个人助理Agent,该产品被视为中国版的“OpenClaw”。LobsterAI旨在通过强大的自然语言处理能力,为用户提供全方位的智能化服务。具体而言,LobsterAI能够处理包括日程管理、电子邮件回复、文件整理以及个性化的学习辅导等任务。有道方面表示,LobsterAI将利用先进的大语言模型技术,能够理解并生成接近人类水平的自然语言,为用户提供更自然的交互体验。该产品不仅支持多种语言,还能够通过学习用户的行为模式,不断优化服务,实现个性化的智能助理功能。该产品的发布标志着网易有道在人工智能领域的进一步布局,尤其是在大语言模型技术的应用上。LobsterAI的出现为用户提供了更加便捷、智能的生活和工作方式,同时也预示着未来人工智能技术在个人助理领域的广泛应用和深入发展。讯飞星火X2硬核亮相,行业深度全面升级科大讯飞近期推出了新一代产品——讯飞星火X2,该产品在多个行业领域展现了其深度
本文字数:约 4638 字,预计阅读时间:15 分钟重点新闻首个测试时共进化合成框架TTCS:在「左右互搏」中突破推理瓶颈近日,研究人员提出了首个测试时共进化合成(Test-Time Co-Evolution Synthesis, TTCS)框架,通过在推理过程中引入共进化机制,解决了传统方法在复杂推理任务中的瓶颈问题。TTCS框架通过将模型的不同部分进行相互对抗和优化,显著提升了模型在处理复杂推理任务时的准确性和鲁棒性。传统的深度学习模型在推理过程中往往依赖于预先训练好的模型权重,而TTCS框架通过在推理过程中动态调整模型参数,使得模型能够更好地适应当前任务需求。具体来说,TTCS框架在推理过程中引入了两个相互对抗的模型,通过不断迭代优化,使得两个模型能够在推理过程中互相促进,从而实现更准确、更鲁棒的推理结果。这一框架的提出,不仅为解决复杂推理任务提供了新的思路,也为人工智能领域的研究和应用带来了新的可能性。未来,TTCS框架有望在自然语言处理、计算机视觉等多个领域发挥重要作用。华为发布业界首个扩散语言模型Agent,部分场景提速8倍!华为近日宣布推出业界首个扩散语言模型Agent,
本文字数:约 3200 字,预计阅读时间:10 分钟清华刘知远团队论文:在严格可控环境下重新回答「强化学习能否教会大模型新能力」丨ICLR 2026清华大学孙茂松、刘知远团队的论文《From f(x) and g(x) to f(g(x)): LLMs Learn New Skills in RL by Composing Old Ones》在ICLR 2026上提出,通过设计严格的实验环境,研究强化学习是否能真正教会大模型新能力。该研究试图解决当前关于强化学习作用的争论,即强化学习是否仅仅是重排已有能力,还是真的能拓展模型的能力边界。在实验中,研究团队采用字符串变换函数作为研究对象,这些函数被随机命名,以彻底排除预训练语料的干扰。实验设计了两个阶段:首先是监督微调(SFT),让模型掌握单个函数的原子能力;其次是在强化学习阶段,考察模型能否将原子能力组合成新的技能。研究发现,当模型在单函数上进行强化学习时,其在复杂组合任务上的表现较差;而一旦引入二层嵌套函数的强化学习,模型在三层及以上的组合任务上表现显著提升,表明模型确实学会了新技能。进一步的跨任务实验表明,强化学习带来的组合能力具有
康叔的AI全栈工坊