人工智能研究

北京智研院NPR框架:原生并行推理加速大模型复杂任务处理

北京通用人工智能研究院(BIGAI)提出原生并行推理器(NPR)框架,旨在解决大语言模型处理复杂推理任务时的瓶颈。该框架通过“自蒸馏+并行强化学习”三阶段训练范式,使模型获得内在的并行推理能力,能同时探索多条路径并汇总结果。实验表明,NPR在多个高难度数学推理基准上显著提升了准确率与效率(最高加速4.6倍),且并行行为稳健,为下一代AI智能体的发展提供了新思路。

任少卿教授领衔中科大全球招募AI人才,聚焦Faster R-CNN与通用人工智能研究

中国科学技术大学任少卿教授领衔的通用人工智能研究所(筹)面向全球招募人工智能高端人才,涵盖教授、研究员、博士后、工程师及学生等多个岗位。研究所聚焦Faster R-CNN、世界模型、具身智能等前沿方向,提供上海与合肥两地工作选择及顶级科研资源,旨在开展原创性、颠覆性研究,诚邀海内外学者共创顶尖成就。

AGILE自监督强化学习提升视觉语言模型感知推理能力

AGILE创新性地将智能体交互与拼图任务结合,通过自监督强化学习范式显著提升视觉语言模型的感知推理能力。该框架在无需人工标注的情况下,使模型在2×2拼图任务中准确率从9.5%提升至82.8%,并在9项通用视觉任务中平均性能提升3.1%,为解决多模态强化学习数据稀缺问题提供了可持续的解决方案。

Meta强化学习扩展定律研究:40万GPU小时揭示可预测训练与算力效率

Meta等机构通过40万GPU小时的大规模实验,建立了强化学习扩展定律的科学基础,提出了可预测的ScaleRL训练方案。该研究解决了强化学习在算力扩展时的关键问题,使训练效果从随机尝试转变为可预测过程,为大语言模型的强化学习后训练提供了系统化方法论和实用指导。