人工智能
上海AI实验室诚邀全球英才共聚AAAI 2026北极星交流会
上海人工智能实验室将于2026年AAAI会议期间在新加坡举办“北极星X星启交流会”,诚邀全球AI领域的论文作者、教授、博士后及产学研专家参加。活动提供与实验室专家面对面交流、获取前沿技术洞察、直通核心科研岗位的机会。报名采用邀约制,截止日期为2026年1月19日。
基于棱镜假说的统一自编码:频率谱视角下的视觉模型语义-细节统一表示学习
南洋理工大学与商汤研究院的研究团队提出了“棱镜假说”,从频率谱视角统一解释视觉信息,认为低频对应语义、高频对应细节。基于此,他们开发了统一自编码框架,成功在一个潜在空间内融合了语义理解与细节重建能力,在图像重建、生成和语义理解任务上均取得优异表现,为视觉基础模型的发展提供了新思路。
自变量机器人:自研端到端架构,构建具身智能物理世界基础模型
2026年初,自变量机器人获得字节跳动与红杉资本10亿元融资,引发行业关注。本文深入探讨了该公司对机器人「智能大脑」的前沿思考,指出具身智能的核心在于实现与物理世界的精细交互与自主操作,这需要一种全新的、独立于语言模型和多模态模型的「物理世界基础模型」。自变量认为,构建此类模型需坚持两大原则:统一的端到端架构以实现整体性理解,以及追求模型的通用性以学习物理世界的共性规律。文章详细阐述了其自研的WALL-A模型如何通过「多模态状态预测」等创新方法逼近这一目标,并介绍了其在真实外卖配送场景中的应用。同时,文章
上海复旦联合研发CLEAR-HUG框架,AI心电图分析性能提升6.84%
上海科学智能研究院与复旦大学联合研发了创新的CLEAR-HUG双阶段人工智能框架,用于心电图分析。该框架通过模拟心脏传导机制和临床医生的层级诊断逻辑,在预训练阶段捕捉心搏细微差异,在微调阶段贴合临床思维,显著提升了AI诊断的性能与可解释性。在六大权威公开数据集上的测试表明,其平均性能提升达6.84%,并在数据稀缺和导联不完整等实际场景中表现出强大鲁棒性,为开发高性能、可信赖的AI辅助心电图诊断工具开辟了新路径。
Deep Principle发布全球首个LLMs科学评测体系SDE,揭示大模型科学发现短板
中国AI初创企业深度原理联合全球24所顶尖高校,发布了首个针对大语言模型科学发现能力的评测体系SDE。评估显示,GPT-5等主流模型在真实科研场景中表现远逊于传统问答测试,暴露出多步推理等短板,并出现性能提升的边际效益递减现象。这项与OpenAI同期关注相同议题的研究,标志着全球对AI驱动科学创新的严肃审视,旨在将AI发展引向超越题库竞争、真正助力人类拓展知识边界的星辰大海。
OpenAI在ChatGPT引入广告引争议,商业化转型与马斯克诉讼成焦点
OpenAI宣布将在ChatGPT中测试广告功能,主要影响免费用户及新推出的低价订阅计划ChatGPT Go用户,引发用户对产品初衷的质疑。此举被普遍视为公司面临巨大财务压力的信号,并与CEO奥特曼此前反对广告的言论形成对比。同时,马斯克诉OpenAI案关键文件解封,揭露了公司早期转为营利性结构的内部争议,法律纠纷将于2026年进入审判。这两大事件共同凸显了OpenAI在理想主义与商业化现实之间的艰难平衡。
AAAI 2026新加坡AI周:人类自主权与Agentic AI前沿研讨会聚焦
AAAI 2026新加坡AI周期间将举办两场前沿研讨会:第一场聚焦AI时代如何捍卫人类在工作、学习、拥有与选择方面的自主权,汇聚全球治理与技术专家;第二场深入探讨基于大语言模型的Agentic AI、自主智能体与多智能体系统的技术融合、挑战与未来方向。两场活动均在新加坡国立大学举行,邀请多位国际顶尖学者分享,是了解AI伦理治理与智能体技术最新进展的宝贵平台。
Claude加速科研:AI在生命科学与基因研究的自动化突破
本文介绍了Anthropic公司推出的Claude for Life Sciences如何通过AI技术驱动生命科学研究的自动化突破。文章重点展示了三个前沿实验室的应用案例:斯坦福大学的Biomni平台整合数百种工具,将GWAS分析从数月缩短至20分钟;MIT Cheeseman实验室利用AI自动化解读海量基因敲除数据,解放科学家于繁重的文献分析;斯坦福Lundberg实验室则用AI构建分子关系图谱,实现从“经验猜谜”到理性靶向的假设生成革命。这些案例表明,Claude AI正在超越基础辅助功能,深度重塑科
马斯克开源X平台推荐算法,Transformer架构提升透明度与内容质量
埃隆·马斯克旗下X平台(原Twitter)正式开源其核心“For You”信息流推荐算法,该算法采用与xAI的Grok模型同源的Transformer架构。这一开创性举措旨在提升平台透明度,回应监管压力。开源代码揭示了由Thunder和Phoenix两大组件构成的系统:Thunder负责实时处理关注网络内容,Phoenix则通过双塔模型召回及基于Grok的Transformer模型进行精细排序,预测用户十几种互动行为的概率。分析表明,新算法逻辑正从追求短期热度转向优化长期关系与内容质量,深度互动和用户关系
Transformer架构创新:刘壮团队提出无归一化Derf模型,推动深度学习发展
刘壮研究团队提出了一种名为Derf(Dynamic erf)的新型激活层,成功构建了无需传统层归一化(LayerNorm)的Transformer模型。Derf结构简单,可直接替换归一化层,在ImageNet分类、DiT图像生成、语音识别、DNA序列建模及语言模型等多个任务上,其性能均持平或超越了传统方案,且优势主要源于更好的模型泛化能力。这一突破为开发更高效、性能更强的无归一化深度学习模型提供了关键技术支持。