
作者 | 程茜
编辑 | 李水青
DeepSeek 版 Claude Code 爆了!
智东西 5 月 6 日消息,今日,美国独立开发者 Hunter Bown 的开源项目 DeepSeek-TUI 在 GitHub 上爆了,冲上 GitHub 热榜第一,今天 Star 数上涨 2434,总 Star 数已超 10.2k。


值得一提的是,DeepSeek-TUI 的开发者并不是专业人士,Bown 的本硕专业与编程无关,Bown 2015 年获得北得克萨斯大学音乐教育学士,2019 年在南方卫理公会大学获得音乐教育硕士,目前就读于美国南方卫理公会大学 Dedman 法学院。
该项目 2026 年 1 月发布,伴随今年 4 月底 DeepSeek-V4 升级、Bown 在 X 上发帖想和中国开发者建联而走红,他称中国开发者为 " 鲸鱼兄弟 "。








DeepSeek-TUI 是基于 DeepSeek-V4 构建的终端编程智能体,具备 100 万 token 上下文窗口、流式推理块和前缀缓存感知成本报告的能力。
具体而言,其可读取与编辑文件、执行终端命令、联网检索、管理 Git 版本库,并能在键盘交互的终端界面(TUI)中调度多个子智能 Agent 协同工作。
网友评价 DeepSeek-TUI 的界面布局一目了然,但缺点是对话区中 AI 输出和用户输入的分界不明显。


工具调用通过类型化注册中心流转,包含终端命令、文件操作、Git 版本管理、联网检索、子智能体、MCP 协议、RLM 大模型,执行结果以流式方式回写到对话日志中。
引擎负责管理会话状态、对话轮次、持久化任务队列,还内置 LSP 语言服务子系统;代码编辑完成后,会先把语法诊断信息送入大模型上下文,再进行下一步逻辑推理。
DeepSeek-TUI 的开源主页还有对中国开发者的镜像友好安装版本:

在开源项目主页,Bown 专门用中文写了 README.zh-CN.md 文件,其中提到 DeepSeek-TUI 的主要特点包括:

切换推理等级:用户可以通过按下 Shift+Tab 快捷键循环切换推理等级,分别为关闭推理→高推理强度→最高推理强度。
推理流式输出:其会将模型进行思考推理的过程进行实时流式展示,可直观看到 DeepSeek 的完整逻辑推理步骤。
全量工具能力:内置完整工具集,支持文件读写操作、终端命令执行、Git 版本管理、网页搜索与网页浏览、补丁应用、子智能 Agent 调度,以及 MCP 协议服务器连接。
百万 token 上下文:具备上下文内容追踪、手动 / 自动配置内容压缩功能,同时提供前缀缓存监控统计能力。
内置三大运行模式:规划模式(仅只读查阅项目代码与文件)、Agent 模式(交互操作且需手动审批)、极简自动模式(全部操作自动审批执行)。
会话保存与接续:支持为长时间运行的工作会话创建检查点,随时保存进度,后续可一键恢复接续会话继续工作。
工作区版本回滚:项目会内置独立快照 Git 机制,在每轮操作前后自动生成项目快照,通过 /restore 和 revert_turn 命令即可回滚操作,不会改动项目原生的 Git 仓库配置。
持久化任务队列:后台运行的任务支持持久化保存,程序重启后,未完成的后台任务可自动继续执行。
HTTP/SSE 运行接口:支持通过 deepseek serve — http 启动服务,提供 HTTP、SSE 接口,适配无图形界面的无头自动化代理工作流。
MCP 模型上下文协议:可连接 Model Context Protocol 模型上下文协议服务器,扩展更多第三方工具能力。
原生 RLM 批量查询:内置 rlm_query 原生能力,复用同一 API 客户端,调用轻量化低成本的 deepseek-v4-flash 模型,高效完成批量代码与数据分析任务。
LSP 代码诊断:依托 rust-analyzer、pyright、
typescript-language-server、gopls、clangd 等主流语言服务工具,每次编辑代码后,都会在界面内实时展示代码错误与警告信息。
用户个性化记忆:用户可开启持久化备注文件功能,自定义的偏好设置会注入系统提示词,实现跨会话保留个人使用习惯与配置偏好。
多语言界面本地化:支持英文、日文、简体中文、巴西葡萄牙语四种界面语言,可自动识别系统语言适配切换。
实时费用统计:实时统计每一轮交互及整个会话的 token 消耗、预估使用成本,同时细化展示缓存命中与缓存未命中的明细数据。
技能扩展系统:支持从 GitHub 安装、组合自定义指令技能包,可灵活扩展工具能力,全程无需依赖额外后端服务。
今早,DeepSeek-TUI 更新了 0.8.13 新版本,聚焦运行时和 TUI 相关问题修复:
额外更新包括在压缩前对无 LLM 工具结果进行剪枝:在付费摘要处理之前,对旧的详细工具结果进行机械式摘要。重复读取保留最新的完整数据体,并将旧的副本替换为单行摘要;如果这样能使会话大小回到压缩阈值以下,则完全跳过 LLM 摘要调用。
重复工具防环保护装置:每个用户回合都会生成 ( tool_name,args ) 对参数。在第三次相同的调用时,它会插入一个合成的纠错工具结果,而不是再次运行相同的工具而不做任何更改;如果某个工具出现故障,则会在三次调用时发出警告,并在八次调用时停止。
V4 缓存命中遥测兼容兜底适配:用量解析现已支持识别
usage.prompt_tokens_details.cached_tokens 字段,因此底部状态栏现有的缓存命中标识组件,既能适配 DeepSeek-V4 自动前缀缓存的遥测数据,也能兼容旧版明确的缓存命中 / 未命中字段格式。
结语:想打造 Claude Code 平替,但稳定性存疑
Claude Code 这样的专有系统通常需要付费 API 访问,且运行在较为封闭的生态系统中,而 DeepSeek-TUI 的出现或能为打破这种局面提供参考,依托 DeepSeek 的低成本模型堆栈,以更低成本提供类似的工作流程。但开发者仍然不能这类不稳定开源项目背后的风险。
不过,这一开源项目的爆火,无疑也从侧面印证了 DeepSeek-V4 的影响力,其为更多开发者提供了低成本搭建终端智能编程体、自主定制开发工作流的全新可能。

作者 | 程茜
编辑 | 李水青
DeepSeek 版 Claude Code 爆了!
智东西 5 月 6 日消息,今日,美国独立开发者 Hunter Bown 的开源项目 DeepSeek-TUI 在 GitHub 上爆了,冲上 GitHub 热榜第一,今天 Star 数上涨 2434,总 Star 数已超 10.2k。


值得一提的是,DeepSeek-TUI 的开发者并不是专业人士,Bown 的本硕专业与编程无关,Bown 2015 年获得北得克萨斯大学音乐教育学士,2019 年在南方卫理公会大学获得音乐教育硕士,目前就读于美国南方卫理公会大学 Dedman 法学院。
该项目 2026 年 1 月发布,伴随今年 4 月底 DeepSeek-V4 升级、Bown 在 X 上发帖想和中国开发者建联而走红,他称中国开发者为 " 鲸鱼兄弟 "。








DeepSeek-TUI 是基于 DeepSeek-V4 构建的终端编程智能体,具备 100 万 token 上下文窗口、流式推理块和前缀缓存感知成本报告的能力。
具体而言,其可读取与编辑文件、执行终端命令、联网检索、管理 Git 版本库,并能在键盘交互的终端界面(TUI)中调度多个子智能 Agent 协同工作。
网友评价 DeepSeek-TUI 的界面布局一目了然,但缺点是对话区中 AI 输出和用户输入的分界不明显。


工具调用通过类型化注册中心流转,包含终端命令、文件操作、Git 版本管理、联网检索、子智能体、MCP 协议、RLM 大模型,执行结果以流式方式回写到对话日志中。
引擎负责管理会话状态、对话轮次、持久化任务队列,还内置 LSP 语言服务子系统;代码编辑完成后,会先把语法诊断信息送入大模型上下文,再进行下一步逻辑推理。
DeepSeek-TUI 的开源主页还有对中国开发者的镜像友好安装版本:

在开源项目主页,Bown 专门用中文写了 README.zh-CN.md 文件,其中提到 DeepSeek-TUI 的主要特点包括:

切换推理等级:用户可以通过按下 Shift+Tab 快捷键循环切换推理等级,分别为关闭推理→高推理强度→最高推理强度。
推理流式输出:其会将模型进行思考推理的过程进行实时流式展示,可直观看到 DeepSeek 的完整逻辑推理步骤。
全量工具能力:内置完整工具集,支持文件读写操作、终端命令执行、Git 版本管理、网页搜索与网页浏览、补丁应用、子智能 Agent 调度,以及 MCP 协议服务器连接。
百万 token 上下文:具备上下文内容追踪、手动 / 自动配置内容压缩功能,同时提供前缀缓存监控统计能力。
内置三大运行模式:规划模式(仅只读查阅项目代码与文件)、Agent 模式(交互操作且需手动审批)、极简自动模式(全部操作自动审批执行)。
会话保存与接续:支持为长时间运行的工作会话创建检查点,随时保存进度,后续可一键恢复接续会话继续工作。
工作区版本回滚:项目会内置独立快照 Git 机制,在每轮操作前后自动生成项目快照,通过 /restore 和 revert_turn 命令即可回滚操作,不会改动项目原生的 Git 仓库配置。
持久化任务队列:后台运行的任务支持持久化保存,程序重启后,未完成的后台任务可自动继续执行。
HTTP/SSE 运行接口:支持通过 deepseek serve — http 启动服务,提供 HTTP、SSE 接口,适配无图形界面的无头自动化代理工作流。
MCP 模型上下文协议:可连接 Model Context Protocol 模型上下文协议服务器,扩展更多第三方工具能力。
原生 RLM 批量查询:内置 rlm_query 原生能力,复用同一 API 客户端,调用轻量化低成本的 deepseek-v4-flash 模型,高效完成批量代码与数据分析任务。
LSP 代码诊断:依托 rust-analyzer、pyright、
typescript-language-server、gopls、clangd 等主流语言服务工具,每次编辑代码后,都会在界面内实时展示代码错误与警告信息。
用户个性化记忆:用户可开启持久化备注文件功能,自定义的偏好设置会注入系统提示词,实现跨会话保留个人使用习惯与配置偏好。
多语言界面本地化:支持英文、日文、简体中文、巴西葡萄牙语四种界面语言,可自动识别系统语言适配切换。
实时费用统计:实时统计每一轮交互及整个会话的 token 消耗、预估使用成本,同时细化展示缓存命中与缓存未命中的明细数据。
技能扩展系统:支持从 GitHub 安装、组合自定义指令技能包,可灵活扩展工具能力,全程无需依赖额外后端服务。
今早,DeepSeek-TUI 更新了 0.8.13 新版本,聚焦运行时和 TUI 相关问题修复:
额外更新包括在压缩前对无 LLM 工具结果进行剪枝:在付费摘要处理之前,对旧的详细工具结果进行机械式摘要。重复读取保留最新的完整数据体,并将旧的副本替换为单行摘要;如果这样能使会话大小回到压缩阈值以下,则完全跳过 LLM 摘要调用。
重复工具防环保护装置:每个用户回合都会生成 ( tool_name,args ) 对参数。在第三次相同的调用时,它会插入一个合成的纠错工具结果,而不是再次运行相同的工具而不做任何更改;如果某个工具出现故障,则会在三次调用时发出警告,并在八次调用时停止。
V4 缓存命中遥测兼容兜底适配:用量解析现已支持识别
usage.prompt_tokens_details.cached_tokens 字段,因此底部状态栏现有的缓存命中标识组件,既能适配 DeepSeek-V4 自动前缀缓存的遥测数据,也能兼容旧版明确的缓存命中 / 未命中字段格式。
结语:想打造 Claude Code 平替,但稳定性存疑
Claude Code 这样的专有系统通常需要付费 API 访问,且运行在较为封闭的生态系统中,而 DeepSeek-TUI 的出现或能为打破这种局面提供参考,依托 DeepSeek 的低成本模型堆栈,以更低成本提供类似的工作流程。但开发者仍然不能这类不稳定开源项目背后的风险。
不过,这一开源项目的爆火,无疑也从侧面印证了 DeepSeek-V4 的影响力,其为更多开发者提供了低成本搭建终端智能编程体、自主定制开发工作流的全新可能。