AIbase基地于2026年1月4日报道,知名人工智能实验室DeepSeek发布了一项极具影响力的研究论文,揭示了大型语言模型(Large Language Models, LLM)的推理性能可以通过优化神经网络架构来显著提升,而并非单纯依赖增加模型规模。这一发现为人工智能行业提供了一条在不依赖“无限参数堆叠”的情况下变得更强大的新路径。
转自|集智俱乐部导语:涌现(Emergence)是复杂科学中的核心概念,用以描述多体系统如何在规模扩展后呈现出全新的宏观属性——这些属性可以由低维的有效变量与理论加以刻画,而无需逐一追踪微观机制,这正是安德森所说的“多者异也(more is ...
近日,谷歌DeepMind的研究人员发布了一项引人注目的预测,指出2026年将是人工智能发展的关键转折点,持续学习技术将全面实现。持续学习(Continuous Learning)指的是人工智能无需中断即可自主吸收新知识并改进自身的能力,这被认为是人工智能自我改进的核心要素。
基于可验证奖励的强化学习(RLVR)在训练工具使用大语言模型(LLMs)方面显示出潜力,然而现有方法大多忽视了显式推理奖励在增强推理和工具利用方面的潜力。此外,简单地结合推理和结果奖励可能导致性能次优,或与主要优化目标冲突。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果