走向天堂
人不能走到天堂,只能走向天堂。走向,意味着彼岸的成立;走到,岂非彼岸的缺失?所以天堂并非一处空间,一处物质性的存在,而是一条道路,一条精神的恒途。物质性天堂注定难为,而精神的天堂恰于走向中成立,永远的限制是其永远成立的依据。形象地说:“设若你果真到了天堂,然后呢?无所眺望或另有眺望都证明所至之地并非圆满。而你若永远地走向它,你便随时都沐浴在它的光照之下。”
  推荐文章

A-Mem:Agentic Memory for LLM Agents:记忆动态更新的 Agent 记忆系统

论文提出了一种名为 A-MEM 的适用于 Agent 的主动式记忆系统,通过构建笔记、链接生成、记忆进化三个环节,来尝试解决现有 LLM 代理记忆系统结构僵化、适应性不足的问题。

阅读更多

2025年(26届)四非CS保研经验帖

一切尘埃落定,三年的生活交上了一个答案。于是简单记了一个经验帖,总结了一下半年来的心路历程。总之,是时候在新的起点向前继续迈进了。

阅读更多

Mem0:Building Production-Ready AI Agents with Scalable Long-Term Memory

Mem0 是 Agent Memory 领域的经典作,针对现有 Agent 系统依赖上下文短期记忆,而对长期记忆优化不足的问题,设计了一种记忆组织与维护架构。同时一并提出基于知识图谱的 Mem0g。

阅读更多

LEGOMem:Modular Procedural Memory for Multi-agent LLM Systems for Workflow Automation

论文提出了LEGOMem,一个用于为Multi-Agent架构设计的模块化记忆系统。通过对多智能体系统中的各类角色设计模块化记忆,提高整个系统的持续协调与规划能力。

阅读更多
LEGOMem:Modular Procedural Memory for Multi-agent LLM Systems for Workflow Automation LEGOMem:Modular Procedural Memory for Multi-agent LLM Systems for Workflow Automation
论文提出了LEGOMem,一个用于为Multi-Agent架构设计的模块化记忆系统。通过对多智能体系统中的各类角色设计模块化记忆,提高整个系统的持续协调与规划能力。
2025-11-22 Cyan.
Mem-α: Learning Memory Construction via Reinforcement Learning Mem-α: Learning Memory Construction via Reinforcement Learning
论文提出了Mem-α,一个用强化学习搭建的智能体记忆框架,用以解决直接使用语言模型处理工具所带来的信息丢失、效率低下等问题。传统方法过于依赖预设指令与工具,Mem-α通过交互与反馈,采用GRPO训练智能体有效管理复杂记忆系统。
2025-11-01 Cyan.
MemoryBench MemoryBench
论文旨在解决现有大模型系统在持续学习、记忆机制评估上的空白。已有bench主要关注模型对长文本的理解能力,缺乏实际反馈,无法衡量系统从长期交互中持续改进的能力。为此,论文通过“LLM-as-user”批量生成反馈日志并检验系统吸收反馈、更新记忆后的持续表现。
2025-10-28 Cyan.
Function Calling and MCP Function Calling and MCP
Function Calling 是让大模型具备工具调用能力的关键。通过 SFT 等 post-train 手段,我们可以让大模型遵循指令生成一个特定格式的 tools 调用文件(xml, json),并通过代码解析该文件来确定当前对话轮次要调用的 function 信息。而 MCP 对这一过程做了标准化,提供了统一的接口与服务。
2025-10-25 Cyan.
Mem0:Building Production-Ready AI Agents with Scalable Long-Term Memory Mem0:Building Production-Ready AI Agents with Scalable Long-Term Memory
Mem0 是 Agent Memory 领域的经典作,针对现有 Agent 系统依赖上下文短期记忆,而对长期记忆优化不足的问题,设计了一种记忆组织与维护架构。同时一并提出基于知识图谱的 Mem0g。
2025-10-20 Cyan.
Build an Agentic RAG System Build an Agentic RAG System
Agentic RAG 相比传统的一步检索式 Native RAG 有了更卓越的表现,通过牺牲了一些推理时间来换取了更令人满意的效果。本质上就是利用 Agent 多步决策的思路,使模型在检索相关文档时能够有思考、回退、改写等等决策,而不是简单地根据相似度直接得到结果。
2025-10-18 Cyan.
2025年(26届)四非CS保研经验帖 2025年(26届)四非CS保研经验帖
一切尘埃落定,三年的生活交上了一个答案。于是简单记了一个经验帖,总结了一下半年来的心路历程。总之,是时候在新的起点向前继续迈进了。
2025-10-16 Cyan.
Build Agent Syetem with Langgraph & DeepSeek Build Agent Syetem with Langgraph & DeepSeek
熟悉了LangChain与LangGraph库的一些基础,并基于两者分别调用DeepSeek API简单搭建了Agent系统。
2025-10-12 Cyan.
A-Mem:Agentic Memory for LLM Agents:记忆动态更新的 Agent 记忆系统 A-Mem:Agentic Memory for LLM Agents:记忆动态更新的 Agent 记忆系统
论文提出了一种名为 A-MEM 的适用于 Agent 的主动式记忆系统,通过构建笔记、链接生成、记忆进化三个环节,来尝试解决现有 LLM 代理记忆系统结构僵化、适应性不足的问题。
2025-10-10 Cyan.
在DeepSeek-R1-1.5b模型上做一个简单的lora微调 在DeepSeek-R1-1.5b模型上做一个简单的lora微调
最近开始上手微调模型做些小项目,所以先简单写了个lora微调DeepSeek-R1-Distill-Qwen-1.5B的脚本,熟悉熟悉一些基本的库和微调操作。记录一下~
2025-02-18 Cyan.
手写一个lora微调算法 手写一个lora微调算法
手写个lora微调算法,熟悉一下手动lora类的实现,以及装载到模型上微调的方法。下一步继续学习一下手写MoELoRA,以及DeepSpeed和Accelerate框架的使用方法。
2025-01-22 Cyan.
DeepSeekMoE:我们需要更多Experts! DeepSeekMoE:我们需要更多Experts!
将MOE的专家数进一步分割细化,增设共享专家,预训练模型的工作。话说今年DeepSeek真火哇
2025-01-05 Cyan.
1 / 2