人工智能

阿里千问新方法:一阶近似优化大语言模型强化学习训练稳定性

阿里千问团队提出了一种创新的大语言模型强化学习理论框架,通过将词元级优化目标构建为序列级期望奖励的一阶近似,从根本上解释了训练不稳定的原因。该研究指出,在训练与推理差异及策略偏差足够小的条件下,此近似成立。针对混合专家模型的特殊挑战,团队提出了路由重放方法。大规模实验证明,结合重要性采样的基础策略梯度方法在同策略训练中最稳定;而在异策略训练中,必须同时使用路由重放和剪切技术。研究最终表明,实现稳定的训练过程比模型初始化方式更为关键。

ICLR 2026审稿危机:AI幻觉冲击学术诚信,同行评审体系受挑战

ICLR 2026大会正面临严重的学术诚信危机。GPTZero检测发现,抽样论文中有超过16%存在AI生成的虚假引用(幻觉),且这些论文大多已通过同行评审。这暴露了在生成式AI和发表压力下,传统学术评审体系已不堪重负。事件引发对AI时代如何维护学术质量的深刻反思,并凸显了开发辅助验证工具的紧迫性。

2025浦东AI人才论坛:青年力量驱动张江AI创新与具身智能发展

2025年12月6日,“青年聚力·智汇浦东”人工智能产业人才论坛在上海张江科学会堂成功举办。论坛汇聚产、学、研各界精英,通过产业推介、项目签约、主旨演讲、圆桌对话及报告发布等形式,深入探讨了以张江AI创新小镇为核心的产业生态建设、具身智能的进化路径与生态构建、AI顶尖人才“引育并举”新范式,以及青年力量如何推动AI理论向产业价值跃迁。会上发布的《2025浦东新区人工智能人才发展趋势报告》揭示了AI人才高学历、高薪酬、青年化的特点及未来巨大需求缺口。本次论坛为上海建设全球人工智能高地注入了新的思想动力与创新

谷歌TPU性能与产能优势挑战英伟达AI芯片市场主导地位

摩根士丹利报告显示,谷歌TPU产能即将爆发式增长,供应链问题解决,将大规模对外销售。TPU作为专为AI推理设计的ASIC芯片,在能效和成本上相较英伟达GPU有数倍优势,正吸引Midjourney、Anthropic、Meta等巨头采用。这标志着AI算力市场正从训练转向推理主导,引发华尔街对英伟达毛利率和市场份额的担忧。未来将形成GPU负责训练与研发、TPU等ASIC芯片主导规模化推理的混合算力新格局。

Light-X:全球首个镜头与光照双控4D视频生成框架,单目视频秒变电影级大片

Light-X是由国际顶尖科研机构联合推出的全球首个镜头与光照双控4D视频生成框架。它能够仅凭一段普通单目视频,让用户自由规划虚拟摄像机轨迹以生成任意新视角,同时灵活调整场景的光照方向、强度与风格,实现电影级视觉效果。该技术通过解耦相机与光照控制、利用动态点云先验和统一的扩散模型,攻克了多因素耦合与数据匮乏的难题,并在实验中显著优于现有方法,为影视、VR/AR等内容创作带来了革命性工具。

OpenAI或提前发布GPT-5.2与图像生成模型,迎战谷歌Gemini 3竞争

OpenAI疑似因谷歌Gemini 3的竞争压力,启动“红色代码”紧急响应,计划提前发布新一代大型语言模型GPT-5.2(内部代号“橄榄油蛋糕”)及下一代图像生成模型Image-2系列(内部代号“栗子和榛子”)。市场预测发布日期可能为本周四(12月11日)。新图像模型据称在色彩还原、细节保真、艺术风格融合及“图生码”能力上均有显著提升,旨在全面对标谷歌产品。此举标志着年末AI巨头竞争进入白热化阶段。

斯坦福研究:协调层激活LLM推理能力,迈向AGI新路径

斯坦福大学Edward Y. Chang教授的最新研究提出,实现通用人工智能(AGI)的关键不在于无限扩大语言模型规模,而在于构建一个“协调层”。该协调层能够智能地引导和绑定大语言模型(LLM)内海量的模式知识,使其从基于统计的“模式匹配”转向目标明确的可靠“推理”。研究提出了“统一认知意识理论”(UCCT),将这一转变描述为一种“相变”,并设计了“多智能体协作智能”(MACI)架构作为协调层的工程实现。这项研究为AGI的发展提供了一条超越“规模扩展”与“模式匹配批判”的第三条道路。

何恺明NeurIPS 2025演讲:从Faster R-CNN获奖回望目标检测三十年演进之路

本文回顾了何恺明在NeurIPS 2025大会上关于目标检测三十年发展的主题演讲。演讲以荣获“时间检验奖”的Faster R-CNN论文为引,系统梳理了从早期手工特征时代(如Viola-Jones、SIFT、DPM),到深度学习破晓时期(AlexNet、R-CNN),再到以Faster R-CNN为代表的端到端检测范式确立,以及后续YOLO、Transformer、SAM等新技术涌现的完整演进历程。文章不仅总结了关键的技术突破点,更提炼出“用可学习模型替代系统瓶颈”的核心方法论,并以“驶向迷雾”的比喻,展

谷歌布林谈AI未来:Transformer革新教育、材料科学与学术产业协同

在斯坦福大学工程学院百年庆典上,谷歌联合创始人谢尔盖·布林与校方领导展开深度对谈。他回顾了谷歌依托学术基因、敢于挑战难题的成功经验,也坦诚反思了在Transformer架构上错失先机的遗憾。布林探讨了AI时代下计算机专业的教育价值、未来大学可能超越地理限制的形态,以及学术界在工业界强势研发下,于超长期基础探索中的不可替代角色。他建议创业者保持耐心、敬畏市场,并指出AI的未来突破将更依赖算法创新而非单纯算力扩展。最后,布林与对话者一致认为,材料科学与合成生物学是当前被严重低估、蕴含巨大潜力的技术前沿。

快手科技熵比裁剪法:解决强化学习全局分布漂移,提升大语言模型训练稳定性

快手科技语言大模型团队提出创新性“熵比裁剪”方法,有效解决大语言模型强化学习训练中的全局分布漂移难题。该方法通过约束策略熵的相对变化,从整体分布层面稳定训练过程,与经典的PPO-Clip形成互补。实验表明,ERC能在多个高难度数学推理基准上显著提升模型性能,并确保训练动态更稳定,同时保持良好的探索能力。这项研究为提升大模型训练稳定性和可靠性提供了重要技术突破。