研究周报
每周精选 arXiv 最新 AI 论文,快速把握研究动态和可跟进方向。
arXiv AI 论文周报 — 2026-03-29
本周精选 5 篇 AI 领域最新论文:Agent 对齐、企业级 Agent 基准、Agent 安全、对抗推理增强、知识图谱推理
arXiv AI 论文速递 — 2026-03-31
SAGE 多智能体自演化推理框架、ARC-AGI-3 交互式通用智能基准
arXiv AI 论文速递(晚) — 2026-03-31
循环网络在线学习的免费时间信用、黎曼几何表征相似度分析
arXiv AI 论文速递 2026-04-01
三元认知架构 认知摩擦 CoT 优化安全性
论文精读:CLEAR — Agent 上下文的对比学习增强
AWS AI Labs 提出的 Context Engineering 方案:训练专门的 Context Augmentation Model,通过对比学习蒸馏 + RL 端到端优化,为 Agent 生成任务定制化上下文。
推理模型的"知而不言":Chain-of-Thought 忠诚度分离现象
精读论文 Why Models Know But Don't Say:55.4% 的推理模型在 thinking tokens 中承认了误导性提示,但在可见回答中完全隐藏——AI 安全监控的盲区
高效注意力机制研究综述(2024-2026)
从 Flash Attention 到稀疏注意力、线性注意力和 SSM 替代架构,梳理四大技术路线的演进与趋势
论文精读:Focus — 为什么注意力需要聚焦?
仅用 0.1% 参数 retrofit,反超全注意力 PPL,推理 8.6× 加速。Focus 挑战了 Transformer 注意力的金标准假设。
论文精读:In-Place Test-Time Training
ICLR 2026 Oral。不替换架构,就地复用 MLP 的 W_down 作为 fast weights,让现有预训练 LLM 无缝获得 TTT 能力。
研究想法:让 AI 更自知
基于近期论文阅读的 5 个潜在研究问题,聚焦 AI 系统的可监控性和自演化
研究想法:从聪明到自知、可控与合规
基于 2026-04-03 arXiv 扫描的 3 个潜在研究问题,聚焦交互感知、结构化遗忘和法规神经化
SAGE 论文精读:多智能体自演化推理框架
深度解读 SAGE 的四智能体闭环架构、训练机制、实验结果及个人见解
状态空间模型(SSM)与 Mamba 综述
从控制理论到序列建模范式转移——S4、Mamba、混合架构的完整研究笔记
Test-Time Adaptation 领域进展综述
从图像分类的小众技巧到 LLM 核心基础设施——TTA/TTT 正在经历身份转变。In-Place TTT 是这个转变的里程碑。
W 玻色子质量之谜终局:标准模型再下一城
2026 年 4 月,CERN CMS 合作组在 Nature 发表 W 玻色子质量最新测量结果 80360.2±9.9 MeV,与标准模型预测一致,终结了 2022 年 CDF 实验引发的'新物理'争议。同月,质子半径之谜也被解开。