YC掌门人开源了他的"第二大脑"(图
如果你今天问任何一个 AI Agent:“昨天你帮我做了什么?”不用说,它大概率会“一脸茫然”,然后开始胡言乱语。
这是因为绝大多数基于 LLM 的智能体都受困于“无状态困境”(Stateless Dilemma):会话一旦结束,记忆即刻清零。下一次对话,永远是从零开始的冷启动。你反复解释过的项目背景、合作伙伴的性格偏好、你曾经表达过的观点,对 Agent 而言都是一片虚无。这也是阻挡 Agent 从“好用的工具”进化为“真正的助手”的障碍之一。
近日,Y Combinator(以下简称 YC)总裁兼 CEO Garry Tan 宣布将自己日常使用的个人知识系统 “GBrain” 开源。他在 X 上写道:“我希望所有人都能拥有自己的‘个人迷你AGI’。”截至目前,该项目在 GitHub 上已获得超过 5,000 颗星。
这并非 Garry Tan 近期的唯一动作。一个月前,他发布的基于 Claude Code 的结构化提示词工作流 gstack 曾在一周内斩获超 69,000 颗 Star。尽管有人批评那“本质上只是文件夹里的一堆提示词”,但此次推出的 GBrain 瞄准的是一个更底层、更核心的问题:不仅要让 Agent 更好地执行单次任务,更要赋予其持续积累、不断进化的长效记忆。
按照 GBrain 的 README 文档描述,整个系统的核心思路可以用一句话概括:让 Agent 经历读取—对话—写入的闭环。
每当有新信号进入系统:可能是一封邮件、一段会议录音、一条推文,甚至是日历上的某个行程变动……Agent 会先查询已有知识库(读取),在充分理解上下文之后作出回应(对话),然后将这次交互产生的新知识写回知识库(写入),供下一次查询使用。
Tan 在文档中把这称作“大脑-Agent 循环”,他认为这个循环的意义在于:每走一圈,Agent 就比上一圈更懂你。
这套循环到底解决什么问题?可以设想一个具体场景。作为 YC 的 CEO,Tan 每周可能要与数十位创始人、投资人和合作伙伴打交道。假设他周二下午和某位创始人开了一场产品评审会,会议录音被自动转录后流入 GBrain,Agent 会做几件事:首先识别出会议中提到的所有人名和公司名(实体检测),然后去知识库查找这些人和公司是否已有对应页面。
如果已有,比如这位创始人三个月前在另一场会议上已经见过。Agent 就把新的会议要点追加到那个人的时间线里,同时更新页面顶部的综合判断:这个人目前在做什么、关心什么、上次和你讨论过什么。如果是第一次出现的陌生面孔,Agent 则会创建新页面,并通过 Web 搜索、LinkedIn 数据、甚至 X 上的公开发言来填充背景资料。
这样一来,两周后当 Tan 再次见到这位创始人时,他不需要翻邮件、查日历、回忆上次聊了什么。Agent 已经把所有上下文打包好了。
这种能力在处理复杂检索时尤为显著。例如,当你询问“去年 3 月那次晚宴都有谁参加”时,传统方式需要手动拼凑日历、邮件和聊天记录;而在 GBrain 体系下,由于每次交互都已被结构化并关联至对应人物页面,查询可快速返回完整名单。
简言之,GBrain 解决的核心痛点是:让每一次对话都建立在过往所有积累的基石之上,而非每次都从零开始。


[物价飞涨的时候 这样省钱购物很爽]
无评论不新闻,发表一下您的意见吧
这是因为绝大多数基于 LLM 的智能体都受困于“无状态困境”(Stateless Dilemma):会话一旦结束,记忆即刻清零。下一次对话,永远是从零开始的冷启动。你反复解释过的项目背景、合作伙伴的性格偏好、你曾经表达过的观点,对 Agent 而言都是一片虚无。这也是阻挡 Agent 从“好用的工具”进化为“真正的助手”的障碍之一。
近日,Y Combinator(以下简称 YC)总裁兼 CEO Garry Tan 宣布将自己日常使用的个人知识系统 “GBrain” 开源。他在 X 上写道:“我希望所有人都能拥有自己的‘个人迷你AGI’。”截至目前,该项目在 GitHub 上已获得超过 5,000 颗星。
这并非 Garry Tan 近期的唯一动作。一个月前,他发布的基于 Claude Code 的结构化提示词工作流 gstack 曾在一周内斩获超 69,000 颗 Star。尽管有人批评那“本质上只是文件夹里的一堆提示词”,但此次推出的 GBrain 瞄准的是一个更底层、更核心的问题:不仅要让 Agent 更好地执行单次任务,更要赋予其持续积累、不断进化的长效记忆。
按照 GBrain 的 README 文档描述,整个系统的核心思路可以用一句话概括:让 Agent 经历读取—对话—写入的闭环。
每当有新信号进入系统:可能是一封邮件、一段会议录音、一条推文,甚至是日历上的某个行程变动……Agent 会先查询已有知识库(读取),在充分理解上下文之后作出回应(对话),然后将这次交互产生的新知识写回知识库(写入),供下一次查询使用。
Tan 在文档中把这称作“大脑-Agent 循环”,他认为这个循环的意义在于:每走一圈,Agent 就比上一圈更懂你。
这套循环到底解决什么问题?可以设想一个具体场景。作为 YC 的 CEO,Tan 每周可能要与数十位创始人、投资人和合作伙伴打交道。假设他周二下午和某位创始人开了一场产品评审会,会议录音被自动转录后流入 GBrain,Agent 会做几件事:首先识别出会议中提到的所有人名和公司名(实体检测),然后去知识库查找这些人和公司是否已有对应页面。
如果已有,比如这位创始人三个月前在另一场会议上已经见过。Agent 就把新的会议要点追加到那个人的时间线里,同时更新页面顶部的综合判断:这个人目前在做什么、关心什么、上次和你讨论过什么。如果是第一次出现的陌生面孔,Agent 则会创建新页面,并通过 Web 搜索、LinkedIn 数据、甚至 X 上的公开发言来填充背景资料。
这样一来,两周后当 Tan 再次见到这位创始人时,他不需要翻邮件、查日历、回忆上次聊了什么。Agent 已经把所有上下文打包好了。
这种能力在处理复杂检索时尤为显著。例如,当你询问“去年 3 月那次晚宴都有谁参加”时,传统方式需要手动拼凑日历、邮件和聊天记录;而在 GBrain 体系下,由于每次交互都已被结构化并关联至对应人物页面,查询可快速返回完整名单。
简言之,GBrain 解决的核心痛点是:让每一次对话都建立在过往所有积累的基石之上,而非每次都从零开始。


[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
推荐:



