本文字数:约 2800 字,预计阅读时间:12 分钟重点新闻New method lets DeepSeek and other models answer ‘sensitive’ questions企业风险公司CTGT提出了一种新方法,旨在减少大型语言模型(如DeepSeek)在回答“敏感”问题时的偏差和审查。CTGT的方法旨在通过引入新的训练数据和调整模型架构来解决这些敏感性问题,从而使模型能够在回答涉及隐私、伦理和社会问题时更为准确和公正。这种方法的提出对于AI模型在实际应用中处理复杂和敏感问题具有重要意义,有助于提升模型的可信度和用户满意度。此外,这种方法还可能为其他AI模型提供借鉴,推动AI技术在伦理和社会责任方面的进步。BigQuery is 5x bigger than Snowflake and Databricks: What Google is doing to make it even betterGoogle宣称其BigQuery在企业数据领域超越了Snowflake和Databricks,其规模是后两者的5倍。Google通过不断进行AI创新,进一步优化Big
本文字数:约 6300 字,预计阅读时间:15 分钟对话猿辅导集团副总裁王向东:DeepSeek 之后,AI 学习机应该怎么做?2024 年,学习平板品类迎来爆发,小猿学练机成为其中的佼佼者。2025 年 4 月,猿辅导集团发布了基于「猿力大模型」和 DeepSeek 的新一代 AI 学习机。该产品不仅能够综合判断孩子的学习情况,还能给出个性化学习建议,逐步实现「1v1 数字老师」的目标。猿辅导集团副总裁王向东在接受极客公园的采访时,详细介绍了猿辅导集团在教育 AI 技术方面的最新进展。他提到,早期的 AI 学习机主要依赖知识图谱和基础 AI 功能,如拍照搜题,但这些功能并未真正实现个性化教育。随着推理模型的引入,尤其是 DeepSeek,AI 学习机能够根据多触点数据进行更准确的学情分析,实现动态调整学习路径和目标。DeepSeek 和「猿力大模型」的深度融合,使得 AI 学习机能够提供更深入的个性化教学服务。DeepSeek 提供先进的推理能力,而「猿力大模型」则专注于教育适配与信息安全。两者的结合使得 AI 学习机能够更好地理解孩子的学习情况,提供更具针对性的教学内容,甚至在孩子
本文字数:约 4228 字,预计阅读时间:12 分钟Sam Altman at TED 2025: Inside the most uncomfortable — and important — AI interview of the year在TED 2025上,OpenAI的CEO Sam Altman面对了由TED主持人Chris Anderson提出的关于AI伦理、艺术家补偿以及自主代理风险的尖锐问题。这次紧张的采访揭示了OpenAI在过去一年的迅速增长和未来计划。Altman回答了有关AI可能带来的潜在风险,以及OpenAI如何应对这些问题。他还讨论了OpenAI在保护艺术家权益方面的努力,强调了AI在创作和艺术领域中的道德责任。此次采访不仅揭示了OpenAI在AI技术领域的最新进展,也引发了关于AI伦理的广泛讨论。Claude just gained superpowers: Anthropic’s AI can now search your entire Google Workspace without youAnthropic公司宣布,其AI系统Claude获得了新的
本文字数:约 4500 字,预计阅读时间:15 分钟OpenAI’s new GPT-4.1 models can process a million tokens and solve coding problems better than everOpenAI 在其最新的 AI 模型发布中展示了显著的技术进步,推出了 GPT-4.1 系列模型,旨在提高编码能力并降低成本。该系列包括 GPT-4.1、GPT-4.1 mini 和 GPT-4.1 nano 三个版本,均通过 API 即刻可用。新模型不仅能够处理多达百万个 token 的文本,还在解决复杂编程问题上表现出色,这标志着 AI 在软件开发领域的应用迈入了新阶段。OpenAI 的这一举措旨在应对日益激烈的市场竞争,同时为开发者提供更强大、更经济的 AI 工具。这些新模型的推出不仅提高了效率,还降低了开发成本,使得 AI 技术能够被更广泛地应用。Amex GBT puts AI at the center of SOC automation, threat modeling, incident response美国运通全球商业旅行
本文字数:约 3200 字,预计阅读时间:10 分钟重点新闻强化学习带来的改进只是「噪音」?最新研究预警:冷静看待推理模型的进展一项最新研究对当前强化学习(RL)的进展提出了警示,指出许多看似显著的改进实际上可能是“噪音”。研究者发现,虽然强化学习模型在某些任务上取得了进步,但这些进步在其他任务上并不稳定,有时甚至出现了退步。这一发现对于当前的AI研究领域具有重要意义,它提醒科研人员和开发者在评估模型性能时需要更加谨慎,避免对短期的、不稳定的改进过于乐观。研究者强调,为了确保AI技术的持续健康发展,需要更加深入地理解模型的稳定性和泛化能力,而不是仅仅追求表面的性能提升。这对未来AI技术的发展方向和研究方法提出了新的挑战。3710亿数学tokens,全面开放!史上最大高质量开源数学预训练数据集MegaMath发布机器之心报道了一则重大消息,史上最大规模的数学预训练数据集MegaMath正式发布。该数据集包含超过3710亿个数学tokens,极大地丰富了数学领域的预训练数据。这一数据集的开放,对推动数学领域的AI研究具有重要意义。研究人员可以利用这些高质量的数据集训练更强大的数学模型,从而
康叔的AI全栈工坊
Code for Life, AI for Future