AI Agent 的记忆机制是开发中的关键分为感知记忆、短期记忆、长期记忆和实体记忆四层。设计时需解决存什么、怎么存、何时取用三大问题结合主动检索和按需检索策略。理解记忆机制对于提升 Agent 性能和用户体验至关重要是程序员进阶大模型开发的重要一步。有在阿里淘天的林友跟我说今年阿里淘天的开发岗实习基本全都是 ai agent 开发了不区分前端和后端了。面试也开始逐步面了 ai agent 的面试题目前我也在持续更新这方面的面试题等后续整理差不多了沉淀到网站分享给大家学习。这次就来看看淘天一面「请你介绍一下 AI Agent 的记忆机制」 简要回答Agent 需要记忆才能在多步任务中保持状态、跨任务积累知识。记忆机制分四层感知记忆当前输入的原始内容、短期记忆context window 里的对话历史、长期记忆存在外部数据库、语义检索召回、实体记忆结构化提取的关键事实。实际设计时要解决三个核心问题存什么、怎么存、什么时候取出来用根据信息类型选合适的存储方式再搭配主动检索和按需检索两种策略使用。 详细解析没有记忆的 Agent 有多不好用要搞清楚记忆机制为什么重要得先感受一下「没有记忆」的 Agent 到底有多难用。你今天告诉 Agent「我喜欢代码风格简洁、变量命名用英文、不要过度注释」它帮你完成了今天的任务。明天你重新打开对话让它帮你写一个新功能它输出的代码风格完全和昨天说好的不一样中文注释一堆变量名也很啰嗦。你很困惑但对 Agent 来说昨天的对话压根不存在每次对话都是全新的开始之前达成的所有约定都消失了。这还只是「偏好记忆」的问题。更严重的是「任务状态」的问题Agent 在执行一个多步任务的过程中如果没有短期记忆来维持状态它就不知道自己上一步做了什么、当前处于哪个阶段、已经收集到了哪些信息。你让它「先查资料再整理成报告」没有记忆的话整理报告这一步根本不知道查到了什么。记忆是 Agent 从「单次问答工具」变成「真正助手」的关键分水岭。有了记忆它才能积累对你的了解才能在多步任务中保持连贯才能跨任务沉淀知识。四种记忆类型从最短暂到最持久记忆机制其实可以对应到人类的记忆系统来理解从最短暂到最持久分四个层次。第一层感知记忆Sensory Memory这是最短暂的一层就是「当前这次调用的原始输入」用户发来的这条消息、上传的截图、传入的文档。它的生命周期只有一次调用处理完就消失不会主动保留。类比到人你刚听到的一句话如果没有主动去记几秒后就忘了。感知记忆就是这个「刚进来还没处理」的原始感知。它存在的意义是模型需要一个「入口」来接收外部信息这就是感知记忆的角色。第二层短期记忆Short-term Memory这是 context window 里的messages列表维持着当前任务执行过程中的完整状态包括用户说了什么、模型输出了什么、工具调用返回了什么。只要任务还在进行这些信息就都在任务结束对话关闭这块记忆就清空了。类比到人这就像你的「工作台」桌上摆着的都是正在处理的东西。工作台有大小token 上限放满了就得清一清。工作台的特点是「随时可见」不需要去「找」直接读就行。第三层长期记忆Long-term Memory这是跨任务保留的信息存在外部数据库里通常是向量数据库、关系数据库或 Key-Value 存储。任务结束了信息不会消失下次需要时去检索拿回来用。类比到人这就是你的「档案室」东西放进去不会丢但要用的时候需要主动去翻。长期记忆的关键技术是向量数据库它支持「语义检索」你不需要知道存的时候用了什么关键词只要意思相近就能检索到相关内容。这比精确匹配灵活得多比如你存的是「用户不喜欢冗长的注释」用「代码风格偏好」去查也能找到它。第四层实体记忆Entity Memory这层比长期记忆更精炼它不是存原文而是把对话中出现的关键实体和事实主动提取出来存成结构化字段。比如「用户偏好 Python」「客户预算是 5 万」「项目截止日是 3 月底」这些是从对话里提炼出来的「结论」而不是原始对话本身。类比到人这就像医生的病历卡不是把问诊录音存起来而是结构化地记录「主诉头痛三天诊断偏头痛用药布洛芬」。信息密度高查询快而且不受原始表述方式影响。四层记忆横向对比类型载体容量生命周期访问方式感知记忆当次输入极小单次调用即时访问短期记忆context window受 token 限制一次任务直接读取长期记忆向量/关系数据库无限持久语义检索实体记忆结构化存储无限持久精确查询实际设计记忆模块的三个核心问题理解了四种记忆类型设计记忆模块时还要解决三个工程问题。第一个存什么不是所有内容都值得写入长期记忆存太多反而会引入噪音让检索的精准度下降。判断标准其实很简单「这条信息下次任务开始时如果知道会让 Agent 做得更好吗」通常值得存的有三类用户偏好和习惯语言风格、技术栈偏好、工作习惯、任务执行中产生的关键结论和决策比如「调研发现竞品 A 的定价策略是按用量收费」、以及外部知识产品文档、FAQ、历史案例。不值得存的中间推理过程、工具返回的原始数据日志太啰嗦、闲聊内容。这些存进去只会稀释有价值的记忆让检索的信噪比下降。第二个怎么存根据信息的类型选合适的存储介质而不是一刀切地全部塞进向量数据库需要语义检索的内容文档知识、对话摘要- 向量数据库用 embedding 存储检索靠相似度结构化的用户偏好、状态字段语言偏好、项目配置- 关系数据库或 Key-Value支持精确查询速度快整段文档或知识库 - 向量数据库配合 RAG 召回混合存储是主流做法结构化的偏好字段用关系数据库精确查非结构化的知识和历史用向量数据库语义检索两者配合使用。第三个什么时候取出来用两种策略实践中结合使用「主动检索」任务开始前用当前任务的描述去检索相关记忆把结果注入 system prompt 作为背景知识。这样 Agent 一开始就带着「历史记忆」进入任务不需要用户每次重新交代背景。「被动触发」Agent 在推理过程中判断当前步骤需要某类特定知识时主动发起检索把「查记忆」封装成一个 Tool让 Agent 自己决定什么时候调。这种方式更灵活但依赖模型判断什么时候该去查。实践上两种结合session 开始时做一次主动检索把关于用户偏好和背景的记忆加载进 system prompt任务执行过程中遇到需要专业知识或历史数据的步骤再让 Agent 按需检索。完整记忆模块的配合方式把四层记忆和三个核心问题放在一起来走一遍一次完整任务里它们是怎么协作的。整个过程可以用「读 - 用 - 写」三个阶段来描述。第一阶段任务开始前先「读」记忆用户发来一个新请求Agent 不是立刻开始干活而是先去「翻档案」从实体记忆里取出用户的结构化偏好语言偏好、风格要求、过往决策再用任务描述作为查询词去长期记忆里做一次语义检索拿回最相关的历史背景。把这两部分信息拼进 system prompt 的开头Agent 进入任务时就已经带着完整的「用户画像」不需要用户重复交代背景。第二阶段任务执行中持续「用」记忆任务开始执行短期记忆messages 列表全程工作用户的每一条消息、模型的每一次输出、工具调用返回的每一个结果都追加进 messages。每次调用 LLM 都把这份完整历史带上Agent 始终知道自己做到哪一步、前面发现了什么。如果某个执行步骤需要特定的专业知识比如查某个 API 的文档、回想某次历史决策Agent 可以临时发起一次长期记忆检索把「查记忆」封装成一个 Tool用当前上下文作为查询词把检索结果注入到这一步的 context 里用完即走不需要永久保留在 messages 中。第三阶段任务结束后主动「写」记忆任务完成进行最后一步把本次任务产生的新知识写回持久化存储。具体来说如果用户在对话中表达了新的偏好「以后写函数都要加类型注解」就更新实体记忆的对应字段如果任务产生了有价值的结论「竞品 A 的定价是按用量收费」就把这条摘要写入长期记忆embedding 后存入向量数据库供下次检索。最后短期记忆messages 列表清空工作台恢复干净等待下一个任务。用流程图来看整条链路是这样的「读 - 用 - 写」三个阶段形成完整闭环每次任务开始时把历史积累读进来执行中靠短期记忆保持连贯结束后把新知识写回去沉淀。Agent 用得越多积累越厚越来越「了解」用户这才是记忆系统真正的价值所在。最后对于正在迷茫择业、想转行提升或是刚入门的程序员、编程小白来说有一个问题几乎人人都在问未来10年什么领域的职业发展潜力最大答案只有一个人工智能尤其是大模型方向当下人工智能行业正处于爆发式增长期其中大模型相关岗位更是供不应求薪资待遇直接拉满——字节跳动作为AI领域的头部玩家给硕士毕业的优质AI人才含大模型相关方向开出的月基础工资高达5万—6万元即便是非“人才计划”的普通应聘者月基础工资也能稳定在4万元左右。再看阿里、腾讯两大互联网大厂非“人才计划”的AI相关岗位应聘者月基础工资也约有3万元远超其他行业同资历岗位的薪资水平对于程序员、小白来说无疑是绝佳的转型和提升赛道。对于想入局大模型、抢占未来10年行业红利的程序员和小白来说现在正是最好的学习时机行业缺口大、大厂需求旺、薪资天花板高只要找准学习方向稳步提升技能就能轻松摆脱“低薪困境”抓住AI时代的职业机遇。如果你还不知道从何开始我自己整理一套全网最全最细的大模型零基础教程我也是一路自学走过来的很清楚小白前期学习的痛楚你要是没有方向还没有好的资源根本学不到东西下面是我整理的大模型学习资源希望能帮到你。扫码免费领取全部内容1、大模型学习路线2、从0到进阶大模型学习视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 入门必看大模型学习书籍文档.pdf书面上的技术书籍确实太多了这些是我精选出来的还有很多不在图里4、AI大模型最新行业报告2026最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、面试试题/经验【大厂 AI 岗位面经分享107 道】【AI 大模型面试真题102 道】【LLMs 面试真题97 道】6、大模型项目实战配套源码适用人群四阶段学习规划共90天可落地执行第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…扫码免费领取全部内容3、这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】