输入关键词后按 Enter 打开第一个结果。

科普教程

用通俗的语言拆解 AI 核心概念、模型机制和实践方法。

25 篇文章

Transformer 注意力机制 三级解读:从入门到精通

一个概念,三种难度。无论你是刚入门还是资深研究者,都能找到适合自己的理解层次

抽象推理(Abstract Reasoning)—— 三级教程

从小学生到 AI 研究者,三级深度理解抽象推理、ARC 基准与泛化难题

AI Agent 记忆架构:从列表到知识图谱

Agent 如何记住经验、积累知识?三种记忆架构的演进与对比

Agent 技能进化:让 AI 自己学会新技能

从 EvoSkills 论文出发,用通俗语言解释 Agent 如何通过协同进化验证自主学会新技能,以及这个方向的潜力和局限。

注意力机制入门

用最通俗的语言理解 Transformer 的核心——注意力机制

注意力机制三级详解

从高中生到研究者,三个层次彻底搞懂 Transformer 的核心机制

Chain-of-Thought:让 AI「把思考过程说出来」

从直觉到机制,深入理解思维链推理为什么有效、什么时候有效、以及它的根本局限

涌现通信:AI 如何自发发明"语言"?

当两个 AI 被放在同一环境中需要协作,它们会发明一套人类看不懂的通信协议——这叫涌现通信

Flash Attention:让大模型推理快 2-4 倍的"魔法"

深入理解 Flash Attention 的核心思想——分块计算、Online Softmax 和 IO 感知优化

大语言模型为什么会产生幻觉?

从入门到高级,三种难度带你理解 LLM 幻觉的根源

大语言模型(LLM)知识体系结构图

从基础理论到前沿研究,系统性梳理 LLM 领域的完整知识体系

LLM 记忆系统知识体系全图

从短期记忆到长期记忆,从 RAG 到知识图谱,一图梳理 LLM 记忆系统的完整知识体系

大模型推理:知识体系图谱

从核心概念到方法分层、局限性与开放问题,系统梳理 LLM Reasoning 领域的完整知识脉络

局部注意力的表达能力:不只是全局注意力的劣化版

基于 ACL 2026 论文,用直觉和类比解释局部注意力为何具有全局注意力无法提供的独特表达能力

Mamba:选择性状态空间模型入门教程

从 SSM 直觉到 Mamba 的选择性机制,理解为什么 Mamba 能挑战 Transformer 的注意力垄断地位

Mamba 与状态空间模型(SSM):三级教程

从日常比喻到数学形式化,全面理解 Mamba 选择性状态空间模型

成员推理攻击:你的数据有没有被偷学过?

从"老师能不能看出这道题讲没讲过"到跨架构迁移的深度学习攻击方法,一文入门成员推理攻击。

Mixture of Experts (MoE) 三级教程

用三种不同难度理解 MoE——从医院的类比到数学公式,从入门到精通。

Multi-Head Attention:为什么需要一个头变多个头?

深入理解 Transformer 的核心设计——多头注意力的直觉、原理和必要性

困惑度差异揭示微调目标:一篇论文的通俗解读

如何发现微调模型中被隐藏的行为目标?一个简洁而优雅的黑盒审计方法——困惑度差异法

RAG 实战入门:从零构建检索增强生成系统

一步步教你构建自己的 RAG 系统,包含完整代码示例和最佳实践

Self-Attention 完全指南:从直觉到数学

用三种难度(入门/中级/高级)深入理解 Transformer 的核心机制

Transformer 自注意力机制:三难度解读

LLM 中的 Temperature

从入门到高级,三个层次彻底理解大语言模型中 Temperature 参数的原理与实践

Test-Time Training 三级教程:从直觉到前沿

用入门、中级、高级三个难度层次理解测试时训练(TTT),包括 In-Place TTT 的最新突破