Appearance
AI Knowledge Base
持续积累的 AI / LLM / Agent 知识库 — 模型、概念、比较、深度分析与实践模式
覆盖 12 个实体(OpenAI、Anthropic、DeepSeek、Google DeepMind、Mistral AI、Nous Research、xAI、Cohere、Microsoft 等核心 AI 公司)、25 个概念(Transformer、Agents、RAG、MCP、Harness Engineering、CoT Reasoning、Embeddings、AI Safety 等核心技术主题)、12 个对比分析,以及从社区实践中提炼的实施模式。内容来源包括原始论文、官方博客、工程实践和社区深度分析。
Entities
- Anthropic — 以模型安全、Claude 系列与 API/Agent 能力著称的核心 AI 公司。
- DeepSeek — 近期开源与推理模型领域最受关注的公司/模型生态之一。
- Google Gemini & DeepMind — Google/DeepMind 的 Gemini 模型家族,原生多模态与超长上下文。
- Llama — 开源/开放权重大模型生态中的代表性模型家族。
- Mistral AI — 法国 AI 公司,以高效 MoE 架构和"开源+商业 API"双轨策略崛起。
- Nous Research — 去中心化 AI 研究组织,Hermes 模型家族以函数调用和 Agent 能力著称。
- OpenAI — 闭源通用大模型与 AI 产品平台的核心公司。
- Qwen — 中文与开源生态中非常关键的模型家族。
- xAI (Grok) — Elon Musk 创立的 xAI,以 Grok 系列模型和实时知识获取能力著称。
- Google DeepMind — Google DeepMind,从 AlphaGo 到 Gemini 的前沿 AI 研究机构。
- Cohere — 企业级 RAG 与多语言 Embeddings API 平台,Transformer 论文合著者创立的 AI 公司。
- Microsoft (Phi) — Microsoft 的 Phi 系列 SLM,以高质量合成数据驱动的小模型革命引领 SLM 赛道。
- Zhipu AI — 智谱 AI,以 GLM 架构和 ChatGLM 开源系列著称的中国大模型公司,中文生态关键玩家。
- ByteDance — 字节跳动以豆包 App 和 Seed 研究团队为核心的 AI 布局,国内日活最高的 AI 应用之一。
- Apple — Apple Intelligence 代表的端侧 AI 战略,以隐私为核心差异化的边缘推理标杆。
Concepts
- AI Agents — 结合推理、工具调用和任务执行的 AI 系统形态。
- Fine-tuning — 在预训练模型基础上用特定数据继续训练以实现定向适配的核心方法。
- Chain-of-Thought & Reasoning — 通过中间推理步骤提升 LLM 复杂问题求解能力的思维链范式。
- DPO & Preference Alignment — 基于二元偏好直接优化的高性价比对齐方法(DPO/IPPO/KTO)。
- AI Hallucination — LLM 生成事实错误或虚构内容的机制、检测与缓解策略。
- Embedding Models / Vector Representations — 文本嵌入与向量表示,语义搜索和 RAG 的基础组件。
- AI Safety & Alignment — AI 安全研究、价值对齐、Constitutional AI 与治理框架。
- Synthetic Data — AI 生成训练数据的范式,自我对弈与数据增强。
- Knowledge Distillation — 知识蒸馏,将大型教师模型能力迁移至小型学生模型。
- Tokenization — 文本与 Token 序列之间的编码策略及其对模型能力的影响。
- Model Quantization — 通过降低模型权重的数值精度来减小模型体积和加速推理的技术。
- Diffusion Models — 去噪扩散概率模型,现代图像/视频/音频生成(Stable Diffusion、Sora)的基础。
- Mixture of Experts — 用稀疏专家激活提升模型容量与效率的架构思路。
- Model Context Protocol (MCP) — AI 应用与外部系统的标准化连接协议(MCP)。
- Model Inference & Deployment — 模型推理优化技术与生产级部署框架。
- Multimodal Models — 跨文本、图像、音频、视频的多模态 AI 架构与能力。
- RLHF — 基于人类偏好对齐模型的训练方法论。
- Retrieval Augmented Generation — 将外部知识检索与生成结合的常见落地方法。
- Scaling Laws — 模型性能随参数、数据和计算量可预测增长的幂律理论。
- Transformer Architecture — 现代大模型的基础架构范式。
- LLM Evaluation — LLM 评测体系与 EleutherAI LM Evaluation Harness 评估框架。
- Harness Engineering — OpenAI 提出的 AI Agent 驱动软件开发方法论(Codex)。
- Harness Engineering — The Evaluation Problem — Harness Engineering 的行为验证挑战("房间里的大象")。
- Harness Engineering — Implementation Patterns — Harness Engineering 在不同规模下的实践模式。
- Harness Engineering — Advanced Topics — Harness Engineering 高级专题:产品验证与 Meta-Harness 张力。
- Vector Databases — 向量数据库是 RAG 系统的核心存储层,专门用于高效存储和检索高维向量。
- Temperature & Sampling Strategies — Temperature 和采样策略是控制 LLM 生成行为的核心参数,决定输出的随机性、多样性和准确性。
Comparisons
- DPO vs RLHF vs PPO — 三种主流人类偏好对齐方法在原理、效率与效果上的系统比较。
- Full FT vs LoRA vs QLoRA — 全量微调与参数高效微调方法在资源、性能与灵活性上的对比。
- DeepSeek-R1 vs o3 vs Claude Thinking — DeepSeek-R1、OpenAI o3、Claude Thinking 的推理范式与能力对比。
- GPT-4o vs Claude vs Gemini 2.5 Pro — 三强闭源 API 模型的能力、定价与场景选型对比。
- Llama vs Qwen vs DeepSeek — 三大开源模型家族在架构、许可、生态与场景选择上的全方位比较。
- Open Source vs Closed Source LLMs — 闭源与开源路线在能力、成本、隐私、治理上的系统对比。
- OpenAI vs Anthropic — OpenAI 产品广度 vs Anthropic 安全深度的多维度对比。
- RAG vs Long Context — 检索增强生成与长上下文模型在成本、准确性、可扩展性上的系统对比。
- Workflow vs Agent — 预定义编排流程与动态 Agent 决策的工程权衡与选型指南。
- Transformer vs SSM (Mamba / RWKV / Jamba) — Transformer 与状态空间模型(Mamba/RWKV/Jamba)的架构流派之争。
- RAG vs Fine-Tuning vs Prompt Engineering — RAG、微调与提示工程三种领域适配策略的系统对比。
- Hosted API vs Self-Hosted (vLLM) — API 服务与自托管推理(vLLM/TGI/llama.cpp)在成本、延迟、控制上的对比。
- Edge vs Cloud Inference — 端侧(本地/边缘)推理与云端推理在隐私、延迟、成本、能力上的系统对比。
Queries
Last updated: 2026-04-26 | Total pages: 55