Code for Life, AI for Future
本文字数:约 4340 字,预计阅读时间:14 分钟Google releases new AI video model Veo 3.1 in Flow and API: what it means for enterprisesGoogle has unveiled Veo 3.1, its latest AI video generation model, bringing a suite of creative and technical upgrades aimed at improving narrative control, audio integration, and realism in AI-generated video. Veo 3.1 builds on its predecessor, Veo 3, with enhanced support for dialogue, ambient sound, and other audio effects. Native audio generation is now available across several
本文字数:约 5250 字,预计阅读时间:10 分钟EAGLET boosts AI agent performance on longer-horizon tasks by generating custom plans2025 年被许多人工智能领域的专家预测为“AI 代理”的元年,众多领先的 AI 模型提供商如 OpenAI、谷歌以及阿里巴巴等纷纷推出了专注于特定任务的 AI 模型或应用,如网页搜索和报告撰写。然而,一个长期存在的问题阻碍了这些代理的表现:在长时间、多步骤任务中保持高效和准确性。为了解决这一问题,来自清华大学、北京大学、DeepLang AI 和伊利诺伊大学香槟分校的研究人员开发了一种名为 EAGLET 的框架。EAGLET 旨在提高基于大语言模型(LLM)的 AI 代理在长时任务中的性能,无需手动数据标注或重新训练。EAGLET 的核心在于引入了一个“全局规划者”,可以集成到现有的代理工作流程中,减少幻觉现象并提高任务效率。这一框架的规划者能够解释任务指令并生成高层次的计划,而不干预实际执行过程。这样的分离设计有助于形成更连贯、任务级别的策略。EAGLET 采用两
本文字数:约 4800 字,预计阅读时间:16 分钟重点新闻Self-improving language models are becoming reality with MIT's updated SEAL techniqueMIT的研究人员开发了一种称为SEAL(Self-Adapting LLMs)的技术,该技术允许大语言模型(LLMs)生成合成数据来微调自身。这项技术的最新版本扩大了先前框架,展示出随着模型规模的增加,自我适应能力的提升,以及通过强化学习减少灾难性遗忘的能力。在知识整合和少量学习设置下,SEAL显示了显著的性能提升,展示了其在自适应学习中的潜力。这种自我适应能力使模型能够生成“自我编辑”来更新权重,从而在不依赖外部数据和手动微调的情况下,在动态环境中持续学习。SEAL的双循环结构,包括内部监督微调和外部强化优化,为可重复性提供了形式化基础。这项技术为开发持续自我学习的人工智能系统奠定了基础。原文链接Researchers find that retraining only small parts of AI models can cut costs and p
本文字数:约 5500 字,预计阅读时间:15 分钟We keep talking about AI agents, but do we ever know what they are?本文探讨了AI代理的概念及其复杂性,特别指出尽管我们经常谈论AI代理,但对它们的理解却存在许多模糊之处。文章首先定义了AI代理的四个核心组件:感知、推理引擎、行动和目标。感知是代理获取关于其环境信息的方式;推理引擎负责处理这些感知并决定下一步行动;行动是代理通过使用工具来实现其目标;目标是引导所有代理行动的最终任务或目的。接着,文章讨论了不同行业中关于自主性的分类方法,如汽车行业的SAE自动化等级和航空业的10级自动化模型。这些模型强调了定义责任划分、任务复杂性和环境复杂性的重要性。文章还探讨了用于AI代理的不同分类框架,如能力导向、交互导向和治理导向。文章指出,尽管有这些框架,AI代理的真正挑战在于定义和测量其开放世界的操作条件。例如,一个数字代理可能面临不断变化的网络环境、API弃用和社交媒体规范的变化。这些挑战需要定义一个“安全”的操作边界。最后,文章强调了对齐和控制是AI代理面临的最关键挑战之一
本文字数:约 4500 字,预计阅读时间:15 分钟连续发布两款万亿参数模型,蚂蚁 AI 来势汹汹在过去半个月,大模型行业迎来了一波产品发布的高潮,其中,蚂蚁集团的“百灵”团队在10月9日宣布推出了一款拥有1万亿参数的语言大模型Ling-1T,而仅仅十天前,他们刚刚开源了另一款万亿参数模型Ring-1T-preview。这一连串的发布不仅展示了蚂蚁在大模型领域的实力,也让业界对其开源策略产生了浓厚的兴趣。蚂蚁集团的大模型研发始于去年,形成了三条主要的技术探索路线:一是基于MoE架构的非思考模型Ling-Series,二是思考模型Ring-Series,三是原生全模态大模型Ming-Series。Ling-1T和Ring-1T-preview分别是这两条主要路线上的成果,它们的参数量均达到了1万亿,几乎等同于人类大脑神经元的数量。这次发布的Ling-1T在编程与数学推理等多个维度上的表现非常亮眼,甚至在一些基准测试中超过了DeepSeek等知名模型。Ling-1T不仅具备深度思考能力和泛化能力,还在推理和逻辑方面表现出色,适用于代码生成、软件开发、数学竞赛等场景。在训练过程中,Ling-
康叔的AI全栈工坊