大语言模型

北京智研院NPR框架:原生并行推理加速大模型复杂任务处理

北京通用人工智能研究院(BIGAI)提出原生并行推理器(NPR)框架,旨在解决大语言模型处理复杂推理任务时的瓶颈。该框架通过“自蒸馏+并行强化学习”三阶段训练范式,使模型获得内在的并行推理能力,能同时探索多条路径并汇总结果。实验表明,NPR在多个高难度数学推理基准上显著提升了准确率与效率(最高加速4.6倍),且并行行为稳健,为下一代AI智能体的发展提供了新思路。

2025推理模型之年:DeepSeek R1引领LLM强化推理新范式

本文基于AI研究员Sebastian Raschka的年度总结,深入解读了2025年大语言模型领域的核心进展。文章指出,2025年是“推理模型之年”,DeepSeek R1的发布及其采用的RLVR与GRPO算法成为技术风向标,推动LLM发展重点从参数堆叠转向推理能力强化。同时,模型架构呈现MoE与高效注意力机制融合的趋势,“推理时扩展”和“工具使用”成为提升性能的关键杠杆。行业也面临“极限刷榜”带来的评估挑战。文章还探讨了AI在编码、写作中的协作角色,并预测未来优势将在于私有数据与领域专业化。最后,对20

Sakana AI联手MIT:大语言模型在Core War中驱动AI对抗进化,揭示数字红皇后算法与趋同演化现象

Sakana AI与麻省理工学院(MIT)合作,利用大语言模型在经典编程游戏《Core War》中驱动了一场AI对抗进化实验,提出了“数字红皇后(DRQ)”算法。该算法通过让AI程序在虚拟战场中持续进行自我博弈和对抗,迭代进化出既稳健又通用的“战士”程序。研究不仅验证了“红皇后动态”(物种必须不断进化以维持相对竞争力),还观察到了有趣的“趋同进化”现象——从不同起点独立演化的程序最终会发展出相似的高效行为策略。这项研究为在安全可控的沙盒环境中探索AI在对抗性场景(如网络安全)中的演化规律提供了新范式,对理