输入关键词后按 Enter 打开第一个结果。

研究周报

每周精选 arXiv 最新 AI 论文,快速把握研究动态和可跟进方向。

15 篇文章

arXiv AI 论文周报 — 2026-03-29

本周精选 5 篇 AI 领域最新论文:Agent 对齐、企业级 Agent 基准、Agent 安全、对抗推理增强、知识图谱推理

arXiv AI 论文速递 — 2026-03-31

SAGE 多智能体自演化推理框架、ARC-AGI-3 交互式通用智能基准

arXiv AI 论文速递(晚) — 2026-03-31

循环网络在线学习的免费时间信用、黎曼几何表征相似度分析

arXiv AI 论文速递 2026-04-01

三元认知架构 认知摩擦 CoT 优化安全性

论文精读:CLEAR — Agent 上下文的对比学习增强

AWS AI Labs 提出的 Context Engineering 方案:训练专门的 Context Augmentation Model,通过对比学习蒸馏 + RL 端到端优化,为 Agent 生成任务定制化上下文。

推理模型的"知而不言":Chain-of-Thought 忠诚度分离现象

精读论文 Why Models Know But Don't Say:55.4% 的推理模型在 thinking tokens 中承认了误导性提示,但在可见回答中完全隐藏——AI 安全监控的盲区

高效注意力机制研究综述(2024-2026)

从 Flash Attention 到稀疏注意力、线性注意力和 SSM 替代架构,梳理四大技术路线的演进与趋势

论文精读:Focus — 为什么注意力需要聚焦?

仅用 0.1% 参数 retrofit,反超全注意力 PPL,推理 8.6× 加速。Focus 挑战了 Transformer 注意力的金标准假设。

论文精读:In-Place Test-Time Training

ICLR 2026 Oral。不替换架构,就地复用 MLP 的 W_down 作为 fast weights,让现有预训练 LLM 无缝获得 TTT 能力。

研究想法:让 AI 更自知

基于近期论文阅读的 5 个潜在研究问题,聚焦 AI 系统的可监控性和自演化

研究想法:从聪明到自知、可控与合规

基于 2026-04-03 arXiv 扫描的 3 个潜在研究问题,聚焦交互感知、结构化遗忘和法规神经化

SAGE 论文精读:多智能体自演化推理框架

深度解读 SAGE 的四智能体闭环架构、训练机制、实验结果及个人见解

状态空间模型(SSM)与 Mamba 综述

从控制理论到序列建模范式转移——S4、Mamba、混合架构的完整研究笔记

Test-Time Adaptation 领域进展综述

从图像分类的小众技巧到 LLM 核心基础设施——TTA/TTT 正在经历身份转变。In-Place TTT 是这个转变的里程碑。

W 玻色子质量之谜终局:标准模型再下一城

2026 年 4 月,CERN CMS 合作组在 Nature 发表 W 玻色子质量最新测量结果 80360.2±9.9 MeV,与标准模型预测一致,终结了 2022 年 CDF 实验引发的'新物理'争议。同月,质子半径之谜也被解开。