AI快讯
分割一切、3D重建一切还不够,Meta开源SAM Audio分割一切声音
继 SAM(Segment Anything Model)、SAM 3D 后,Meta 又有了新动作。
腾讯任命姚顺雨为首席AI科学家,升级大模型研发架构迎战AI新赛道
腾讯正式任命前OpenAI研究员姚顺雨为首席AI科学家,并向总裁刘炽平汇报。同时,公司宣布升级大模型研发架构,新成立AI Infra部、AI Data部和数据计算平台部,以全面强化底层技术能力。姚顺雨在AI智能体领域成就卓著,其加入与架构调整彰显了腾讯在AI新赛道发力的决心。
快手科技熵比裁剪法:解决强化学习全局分布漂移,提升大语言模型训练稳定性
快手科技语言大模型团队提出创新性“熵比裁剪”方法,有效解决大语言模型强化学习训练中的全局分布漂移难题。该方法通过约束策略熵的相对变化,从整体分布层面稳定训练过程,与经典的PPO-Clip形成互补。实验表明,ERC能在多个高难度数学推理基准上显著提升模型性能,并确保训练动态更稳定,同时保持良好的探索能力。这项研究为提升大模型训练稳定性和可靠性提供了重要技术突破。
无问芯穹发布企业级智能体服务平台,以AI基础设施加速企业实现智能体自由与生产力跃升
无问芯穹在2025 INFINI DAY上正式发布其战略级企业级智能体服务平台。该平台作为智能体时代的核心AI基础设施,旨在解决企业智能体落地中生产级效果难、运行不稳定、成本高、商业化闭环难四大痛点,提供从定制优化、部署托管到商业化变现的全链路陪伴式服务。平台通过内置行业模板、动态模型适配、强大算力保障、深度推理优化及打通工具链、升级链、推广链,助力企业高效、稳定、低成本地部署和运营智能体,已成功应用于系统开发、求职、旅游、教育等多个行业,旨在将智能体内化为企业原生动能,加速创造力向生产力的转化,定义下一
AAAI 2026 | Trust-videoLLMs:视频大语言模型可信度与多模态安全评测
合肥工业大学与清华大学研究团队在AAAI 2026上提出了首个面向视频大语言模型的综合可信度评测基准Trust-videoLLMs。该基准从真实性、鲁棒性、安全性、公平性、隐私性五个维度,对23款主流模型进行了全面评估。关键发现包括:闭源模型整体领先但开源模型正在追赶;模型规模不等于性能;视频内容会放大安全风险;公平性偏见普遍存在;隐私保护能力存在双重性。团队开源了全套评测框架、数据集与工具箱,旨在推动构建更安全、可靠、负责任的多模态AI系统。
Thinking Machines Lab 全面开放Tinker API,新增微调与视觉模型功能,兼容OpenAI API
由前OpenAI CTO创立的Thinking Machines Lab宣布其Tinker API全面开放,取消内测限制。本次更新带来三大核心功能:支持对万亿参数模型Kimi K2进行微调;提供完全兼容OpenAI API标准的推理接口,实现即插即用;新增两款视觉语言模型(Qwen3-VL),支持图像内容处理与多模态任务微调。Tinker通过将复杂的训练基础设施抽象为API,让开发者无需管理算力资源,仅关注数据与算法,极大降低了大规模模型定制与应用的门槛。
神经网络权重收敛通用子空间:模型架构主导学习结果
约翰斯・霍普金斯大学的最新研究发现,超过1100个在不同数据集、初始化和超参数下训练的神经网络,其最终权重都会收敛到一个共享的低维子空间。这一“通用权重子空间假说”表明,模型架构而非数据,主导了神经网络的学习结果,训练更像是在“发现”一个预先存在的数学结构。该发现解释了过参数化模型泛化、LoRA等技术有效性的原因,并为模型压缩、高效合并及理论理解提供了新视角,同时也引发了关于当前架构是否存在内在天花板的讨论。研究通过分析ResNet、ViT、LLaMA及大量LoRA模型,提供了权重层面通用性的实证证据。
谷歌布林谈AI未来:Transformer革新教育、材料科学与学术产业协同
在斯坦福大学工程学院百年庆典上,谷歌联合创始人谢尔盖·布林与校方领导展开深度对谈。他回顾了谷歌依托学术基因、敢于挑战难题的成功经验,也坦诚反思了在Transformer架构上错失先机的遗憾。布林探讨了AI时代下计算机专业的教育价值、未来大学可能超越地理限制的形态,以及学术界在工业界强势研发下,于超长期基础探索中的不可替代角色。他建议创业者保持耐心、敬畏市场,并指出AI的未来突破将更依赖算法创新而非单纯算力扩展。最后,布林与对话者一致认为,材料科学与合成生物学是当前被严重低估、蕴含巨大潜力的技术前沿。
浙大NeurIPS 2025提出COIDO框架:高效优化多模态数据选择,显著降低计算成本
浙江大学团队在NeurIPS 2025上提出的COIDO框架,通过耦合重要性-多样性优化与轻量级评分器设计,革命性地降低了多模态大模型视觉指令微调的数据筛选成本。该框架仅需20%的数据进行训练,即可达到接近全量数据微调的性能,同时在计算效率与筛选质量上均超越现有方法,并展现出强大的泛化与迁移能力,为高效多模态模型训练提供了突破性解决方案。
ACL 2025年度会士名单公布:季姮、张岳等11位学者入选
国际计算语言学学会(ACL)公布了2025年度会士名单,共有11位全球顶尖学者获此殊荣。其中,伊利诺伊大学厄巴纳-香槟分校的季姮教授和西湖大学的张岳教授作为杰出的华人学者入选,彰显了华人在该领域的卓越贡献。其他入选者包括在TextRank算法、开放AI模型、多模态处理、阿拉伯语/日语NLP、计算情感科学及基础理论等方面有开创性工作的国际领军学者。ACL Fellow是学会最高荣誉,旨在表彰对自然语言处理领域做出卓越技术成就或社区贡献的会员。