关于ZAKER Skills 合作
智东西 17小时前

他用 DeepSeek-V4 手搓 Agent,冲上 GitHub 热榜第一!

智东西

作者 | 程茜

编辑 | 李水青

DeepSeek 版 Claude Code 爆了!

智东西 5 月 6 日消息,今日,美国独立开发者 Hunter Bown 的开源项目 DeepSeek-TUI 在 GitHub 上爆了,冲上 GitHub 热榜第一,今天 Star 数上涨 2434,总 Star 数已超 10.2k。

这一项目是基于 DeepSeek-V4 的终端原生编程 Agent,其允许开发人员直接在终端与 DeepSeek 聊天、编辑文件、运行 shell 命令、管理任务,甚至协调代码库中的子 Agent。

今早,DeepSeek-TUI 更新了 0.8.13 新版本,聚焦运行时和 TUI 相关问题修复,提示词规范优化、运行轨迹日志、Anthropic 接口兼容支持以及大规模界面整理优化,均已延后至后续版本发布。

值得一提的是,DeepSeek-TUI 的开发者并不是专业人士,Bown 的本硕专业与编程无关,Bown 2015 年获得北得克萨斯大学音乐教育学士,2019 年在南方卫理公会大学获得音乐教育硕士,目前就读于美国南方卫理公会大学 Dedman 法学院。

该项目 2026 年 1 月发布,伴随今年 4 月底 DeepSeek-V4 升级、Bown 在 X 上发帖想和中国开发者建联而走红,他称中国开发者为 " 鲸鱼兄弟 "。

X 上网友分享,Bown 已经成功拥有微信账号,并和中国开发者交流起来了。

在 DeepSeek-TUI 开源主页的贡献者名单中,还有 Claude、Gemini。

一站式全能调度智能 Agent 终端 Tday 开源项目的作者发帖称,他成功将 DeepSeek-TUI 集成到 Tday 后,其体验表现出极高的稳健性,配合 DeepSeek-v4-flash 时,速度非常接近开源 AI 编程智能体 OpenCode。

Claude Design 的开源替代方案 Nexu 作者称,这是首次在代码智能 Agent 的终端环境中直接运行 DeepSeek-V4,他们测试的效果相当不错。

有网友在下面询问,Bown 称自己是用 DeepSeek 开发的这个项目,Bown 回答是的。

还有网友询问 Bown 帖子里说的 " 鲸鱼兄弟 " 来源,感觉这个称呼很有喜感。

不过,也有网友认为 DeepSeek-TUI 火得莫名其妙:" 为什么要抛弃一个已有成熟方案的产品,转向没有稳定的产品?"

一、基于 DeepSeek-V4 构建,还专门发了中国开发者友好版本

DeepSeek-TUI 是基于 DeepSeek-V4 构建的终端编程智能体,具备 100 万 token 上下文窗口、流式推理块和前缀缓存感知成本报告的能力。

具体而言,其可读取与编辑文件、执行终端命令、联网检索、管理 Git 版本库,并能在键盘交互的终端界面(TUI)中调度多个子智能 Agent 协同工作。

网友评价 DeepSeek-TUI 的界面布局一目了然,但缺点是对话区中 AI 输出和用户输入的分界不明显。

有网友用 DeepSeek 官方 API 进行了对比,相比 Claude Code,DeepSeek-TUI 在跑长时长任务时,缓存命中率会下降。

DeepSeek-TUI 的架构如下:DeepSeek 调度命令行→ DeepSeek-TUI 配套程序→终端图形界面 ↔ 异步引擎 ↔ 兼容 OpenAI 协议的流式客户端。

工具调用通过类型化注册中心流转,包含终端命令、文件操作、Git 版本管理、联网检索、子智能体、MCP 协议、RLM 大模型,执行结果以流式方式回写到对话日志中。

引擎负责管理会话状态、对话轮次、持久化任务队列,还内置 LSP 语言服务子系统;代码编辑完成后,会先把语法诊断信息送入大模型上下文,再进行下一步逻辑推理。

DeepSeek-TUI 的开源主页还有对中国开发者的镜像友好安装版本:

二、共三大运行模式,还能自适应调整推理等级

在开源项目主页,Bown 专门用中文写了 README.zh-CN.md 文件,其中提到 DeepSeek-TUI 的主要特点包括:

自动模式:用户可以通过 model auto 指令启用自动模式,该工具会在每一轮交互中自动适配选择合适大模型,并匹配对应的推理思考等级。

切换推理等级:用户可以通过按下 Shift+Tab 快捷键循环切换推理等级,分别为关闭推理→高推理强度→最高推理强度。

推理流式输出:其会将模型进行思考推理的过程进行实时流式展示,可直观看到 DeepSeek 的完整逻辑推理步骤。

全量工具能力:内置完整工具集,支持文件读写操作、终端命令执行、Git 版本管理、网页搜索与网页浏览、补丁应用、子智能 Agent 调度,以及 MCP 协议服务器连接。

百万 token 上下文:具备上下文内容追踪、手动 / 自动配置内容压缩功能,同时提供前缀缓存监控统计能力。

内置三大运行模式:规划模式(仅只读查阅项目代码与文件)、Agent 模式(交互操作且需手动审批)、极简自动模式(全部操作自动审批执行)。

会话保存与接续:支持为长时间运行的工作会话创建检查点,随时保存进度,后续可一键恢复接续会话继续工作。

工作区版本回滚:项目会内置独立快照 Git 机制,在每轮操作前后自动生成项目快照,通过 /restore 和 revert_turn 命令即可回滚操作,不会改动项目原生的 Git 仓库配置。

持久化任务队列:后台运行的任务支持持久化保存,程序重启后,未完成的后台任务可自动继续执行。

HTTP/SSE 运行接口:支持通过 deepseek serve — http 启动服务,提供 HTTP、SSE 接口,适配无图形界面的无头自动化代理工作流。

MCP 模型上下文协议:可连接 Model Context Protocol 模型上下文协议服务器,扩展更多第三方工具能力。

原生 RLM 批量查询:内置 rlm_query 原生能力,复用同一 API 客户端,调用轻量化低成本的 deepseek-v4-flash 模型,高效完成批量代码与数据分析任务。

LSP 代码诊断:依托 rust-analyzer、pyright、

typescript-language-server、gopls、clangd 等主流语言服务工具,每次编辑代码后,都会在界面内实时展示代码错误与警告信息。

用户个性化记忆:用户可开启持久化备注文件功能,自定义的偏好设置会注入系统提示词,实现跨会话保留个人使用习惯与配置偏好。

多语言界面本地化:支持英文、日文、简体中文、巴西葡萄牙语四种界面语言,可自动识别系统语言适配切换。

实时费用统计:实时统计每一轮交互及整个会话的 token 消耗、预估使用成本,同时细化展示缓存命中与缓存未命中的明细数据。

技能扩展系统:支持从 GitHub 安装、组合自定义指令技能包,可灵活扩展工具能力,全程无需依赖额外后端服务。

今早,DeepSeek-TUI 更新了 0.8.13 新版本,聚焦运行时和 TUI 相关问题修复:

额外更新包括在压缩前对无 LLM 工具结果进行剪枝:在付费摘要处理之前,对旧的详细工具结果进行机械式摘要。重复读取保留最新的完整数据体,并将旧的副本替换为单行摘要;如果这样能使会话大小回到压缩阈值以下,则完全跳过 LLM 摘要调用。

重复工具防环保护装置:每个用户回合都会生成 ( tool_name,args ) 对参数。在第三次相同的调用时,它会插入一个合成的纠错工具结果,而不是再次运行相同的工具而不做任何更改;如果某个工具出现故障,则会在三次调用时发出警告,并在八次调用时停止。

V4 缓存命中遥测兼容兜底适配:用量解析现已支持识别

usage.prompt_tokens_details.cached_tokens 字段,因此底部状态栏现有的缓存命中标识组件,既能适配 DeepSeek-V4 自动前缀缓存的遥测数据,也能兼容旧版明确的缓存命中 / 未命中字段格式。

结语:想打造 Claude Code 平替,但稳定性存疑

Claude Code 这样的专有系统通常需要付费 API 访问,且运行在较为封闭的生态系统中,而 DeepSeek-TUI 的出现或能为打破这种局面提供参考,依托 DeepSeek 的低成本模型堆栈,以更低成本提供类似的工作流程。但开发者仍然不能这类不稳定开源项目背后的风险。

不过,这一开源项目的爆火,无疑也从侧面印证了 DeepSeek-V4 的影响力,其为更多开发者提供了低成本搭建终端智能编程体、自主定制开发工作流的全新可能。

智东西

作者 | 程茜

编辑 | 李水青

DeepSeek 版 Claude Code 爆了!

智东西 5 月 6 日消息,今日,美国独立开发者 Hunter Bown 的开源项目 DeepSeek-TUI 在 GitHub 上爆了,冲上 GitHub 热榜第一,今天 Star 数上涨 2434,总 Star 数已超 10.2k。

这一项目是基于 DeepSeek-V4 的终端原生编程 Agent,其允许开发人员直接在终端与 DeepSeek 聊天、编辑文件、运行 shell 命令、管理任务,甚至协调代码库中的子 Agent。

今早,DeepSeek-TUI 更新了 0.8.13 新版本,聚焦运行时和 TUI 相关问题修复,提示词规范优化、运行轨迹日志、Anthropic 接口兼容支持以及大规模界面整理优化,均已延后至后续版本发布。

值得一提的是,DeepSeek-TUI 的开发者并不是专业人士,Bown 的本硕专业与编程无关,Bown 2015 年获得北得克萨斯大学音乐教育学士,2019 年在南方卫理公会大学获得音乐教育硕士,目前就读于美国南方卫理公会大学 Dedman 法学院。

该项目 2026 年 1 月发布,伴随今年 4 月底 DeepSeek-V4 升级、Bown 在 X 上发帖想和中国开发者建联而走红,他称中国开发者为 " 鲸鱼兄弟 "。

X 上网友分享,Bown 已经成功拥有微信账号,并和中国开发者交流起来了。

在 DeepSeek-TUI 开源主页的贡献者名单中,还有 Claude、Gemini。

一站式全能调度智能 Agent 终端 Tday 开源项目的作者发帖称,他成功将 DeepSeek-TUI 集成到 Tday 后,其体验表现出极高的稳健性,配合 DeepSeek-v4-flash 时,速度非常接近开源 AI 编程智能体 OpenCode。

Claude Design 的开源替代方案 Nexu 作者称,这是首次在代码智能 Agent 的终端环境中直接运行 DeepSeek-V4,他们测试的效果相当不错。

有网友在下面询问,Bown 称自己是用 DeepSeek 开发的这个项目,Bown 回答是的。

还有网友询问 Bown 帖子里说的 " 鲸鱼兄弟 " 来源,感觉这个称呼很有喜感。

不过,也有网友认为 DeepSeek-TUI 火得莫名其妙:" 为什么要抛弃一个已有成熟方案的产品,转向没有稳定的产品?"

一、基于 DeepSeek-V4 构建,还专门发了中国开发者友好版本

DeepSeek-TUI 是基于 DeepSeek-V4 构建的终端编程智能体,具备 100 万 token 上下文窗口、流式推理块和前缀缓存感知成本报告的能力。

具体而言,其可读取与编辑文件、执行终端命令、联网检索、管理 Git 版本库,并能在键盘交互的终端界面(TUI)中调度多个子智能 Agent 协同工作。

网友评价 DeepSeek-TUI 的界面布局一目了然,但缺点是对话区中 AI 输出和用户输入的分界不明显。

有网友用 DeepSeek 官方 API 进行了对比,相比 Claude Code,DeepSeek-TUI 在跑长时长任务时,缓存命中率会下降。

DeepSeek-TUI 的架构如下:DeepSeek 调度命令行→ DeepSeek-TUI 配套程序→终端图形界面 ↔ 异步引擎 ↔ 兼容 OpenAI 协议的流式客户端。

工具调用通过类型化注册中心流转,包含终端命令、文件操作、Git 版本管理、联网检索、子智能体、MCP 协议、RLM 大模型,执行结果以流式方式回写到对话日志中。

引擎负责管理会话状态、对话轮次、持久化任务队列,还内置 LSP 语言服务子系统;代码编辑完成后,会先把语法诊断信息送入大模型上下文,再进行下一步逻辑推理。

DeepSeek-TUI 的开源主页还有对中国开发者的镜像友好安装版本:

二、共三大运行模式,还能自适应调整推理等级

在开源项目主页,Bown 专门用中文写了 README.zh-CN.md 文件,其中提到 DeepSeek-TUI 的主要特点包括:

自动模式:用户可以通过 model auto 指令启用自动模式,该工具会在每一轮交互中自动适配选择合适大模型,并匹配对应的推理思考等级。

切换推理等级:用户可以通过按下 Shift+Tab 快捷键循环切换推理等级,分别为关闭推理→高推理强度→最高推理强度。

推理流式输出:其会将模型进行思考推理的过程进行实时流式展示,可直观看到 DeepSeek 的完整逻辑推理步骤。

全量工具能力:内置完整工具集,支持文件读写操作、终端命令执行、Git 版本管理、网页搜索与网页浏览、补丁应用、子智能 Agent 调度,以及 MCP 协议服务器连接。

百万 token 上下文:具备上下文内容追踪、手动 / 自动配置内容压缩功能,同时提供前缀缓存监控统计能力。

内置三大运行模式:规划模式(仅只读查阅项目代码与文件)、Agent 模式(交互操作且需手动审批)、极简自动模式(全部操作自动审批执行)。

会话保存与接续:支持为长时间运行的工作会话创建检查点,随时保存进度,后续可一键恢复接续会话继续工作。

工作区版本回滚:项目会内置独立快照 Git 机制,在每轮操作前后自动生成项目快照,通过 /restore 和 revert_turn 命令即可回滚操作,不会改动项目原生的 Git 仓库配置。

持久化任务队列:后台运行的任务支持持久化保存,程序重启后,未完成的后台任务可自动继续执行。

HTTP/SSE 运行接口:支持通过 deepseek serve — http 启动服务,提供 HTTP、SSE 接口,适配无图形界面的无头自动化代理工作流。

MCP 模型上下文协议:可连接 Model Context Protocol 模型上下文协议服务器,扩展更多第三方工具能力。

原生 RLM 批量查询:内置 rlm_query 原生能力,复用同一 API 客户端,调用轻量化低成本的 deepseek-v4-flash 模型,高效完成批量代码与数据分析任务。

LSP 代码诊断:依托 rust-analyzer、pyright、

typescript-language-server、gopls、clangd 等主流语言服务工具,每次编辑代码后,都会在界面内实时展示代码错误与警告信息。

用户个性化记忆:用户可开启持久化备注文件功能,自定义的偏好设置会注入系统提示词,实现跨会话保留个人使用习惯与配置偏好。

多语言界面本地化:支持英文、日文、简体中文、巴西葡萄牙语四种界面语言,可自动识别系统语言适配切换。

实时费用统计:实时统计每一轮交互及整个会话的 token 消耗、预估使用成本,同时细化展示缓存命中与缓存未命中的明细数据。

技能扩展系统:支持从 GitHub 安装、组合自定义指令技能包,可灵活扩展工具能力,全程无需依赖额外后端服务。

今早,DeepSeek-TUI 更新了 0.8.13 新版本,聚焦运行时和 TUI 相关问题修复:

额外更新包括在压缩前对无 LLM 工具结果进行剪枝:在付费摘要处理之前,对旧的详细工具结果进行机械式摘要。重复读取保留最新的完整数据体,并将旧的副本替换为单行摘要;如果这样能使会话大小回到压缩阈值以下,则完全跳过 LLM 摘要调用。

重复工具防环保护装置:每个用户回合都会生成 ( tool_name,args ) 对参数。在第三次相同的调用时,它会插入一个合成的纠错工具结果,而不是再次运行相同的工具而不做任何更改;如果某个工具出现故障,则会在三次调用时发出警告,并在八次调用时停止。

V4 缓存命中遥测兼容兜底适配:用量解析现已支持识别

usage.prompt_tokens_details.cached_tokens 字段,因此底部状态栏现有的缓存命中标识组件,既能适配 DeepSeek-V4 自动前缀缓存的遥测数据,也能兼容旧版明确的缓存命中 / 未命中字段格式。

结语:想打造 Claude Code 平替,但稳定性存疑

Claude Code 这样的专有系统通常需要付费 API 访问,且运行在较为封闭的生态系统中,而 DeepSeek-TUI 的出现或能为打破这种局面提供参考,依托 DeepSeek 的低成本模型堆栈,以更低成本提供类似的工作流程。但开发者仍然不能这类不稳定开源项目背后的风险。

不过,这一开源项目的爆火,无疑也从侧面印证了 DeepSeek-V4 的影响力,其为更多开发者提供了低成本搭建终端智能编程体、自主定制开发工作流的全新可能。

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容