关于ZAKER Skills 合作
雷锋网 1小时前

让 AI 接管我家:钢铁侠有的,我也能有

雷峰网讯 2026 年 4 月的一个凌晨,4 点 07 分,一切崩溃了。

前一天晚上,我让家里的 AI 通宵干活——整理 NAS(网络存储服务器,简单说就是 " 家用大型移动硬盘 ")里 20 年攒下的几十 TB 数据,包括照片、文档、视频,AI 要一个个分类,已经跑了整整 6 个小时。

结果,路由器突然重启了。

我的笔记本自动重连 WiFi 时,犯了个致命错误:它没连家里的主路由,反而连上了运营商的光猫网络。就这一个小失误,导致 NAS、AI 服务器全部失联,六个小时的工作功亏一篑,整个家庭 AI 系统像多米诺骨牌一样,彻底崩了。

早上 7 点,我打开电脑,屏幕上全是 " 连接失败 " 的提示——这是我用 AI 重建家庭数字生活的第九天,前八天的惊喜,差点被这一个小 bug 浇灭。

这一切,还要从八天前,一台新电脑的到来说起。

02

为什么非要让 AI 帮我迁移 20 年的 " 数字垃圾 "?

先说说我的 " 执念 ":20 年不重装系统

我是天卓,一个连续创业者,也是一个技术极客。

(编者补:邓天卓更是一个移动互联网时代的超级创业者 + 投资人,与国内各家电商都关系匪浅。)

从最早的 PowerPC 电脑,到后来的 Intel 旗舰机,再到近几年的 M1、M2、M3、M4 Max MacBook Pro,我的主力机换了一代又一代,但有一个习惯从没变——不重装系统。

每次换电脑,我都像 " 倒酒 " 一样,用苹果的迁移助手(Migration Assistant),把旧电脑里的所有东西,原封不动拷贝到新电脑里。

20 年下来,我那台 M4 Max MacBook Pro,已经变成了一个 8TB 的 " 数字迷宫 ":几十万张专业相机照片、无数投资文档、上百个软件的配置、从 2004 年开始的开发环境,还有很多我自己都记不清是什么的海量数据。

以前,我只能靠不断买顶配电脑,才能装下这个 " 迷宫 "。但今年,我不想再这样 " 摆烂 " 了——因为我收到了一台 " 神器 ":M5 Max MacBook Pro(16 英寸顶配,业内叫 " 皇帝版 ")。

M5 Max 的 " 杀手锏 ":让大模型 " 住 " 进家用电脑

这台电脑最牛的地方,是它有 128GB 的统一内存(可以理解为 " 电脑的大脑运行空间 ",越大越流畅)。

放在一年前,只有数据中心的专业 GPU(图形处理器,相当于电脑的 " 算力心脏 "),才能带动 650 亿参数的大模型(参数越多,AI 越聪明);但现在,这台家用笔记本就能轻松做到——比如 Qwen3.5-122B 的 4bit 量化版,只需要 65GB 内存,运行速度完全够用。

更重要的是,模型跑在本地(就是只在我自己的电脑上运行),数据不会传到网上,既不用花钱买使用额度,也不用担心隐私泄露。

于是我萌生了一个大胆的想法:让 AI 帮我,把旧电脑里的 " 数字迷宫 ",彻底迁移到新电脑上,顺便整理干净。

03重头戏:

AI 当 " 系统管理员 ",迁移 20 年数据零翻车

打开 Claude Code,我下达了那个自己期待已久的命令:" 帮我把 M4 上的一切,迁移到 M5 Max 上。"

这和传统的迁移方式,完全不一样。

传统迁移 vs AI 迁移:一个 " 照搬 ",一个 " 懂你 "

苹果的迁移助手(Migration Assistant)就是个 " 黑盒 " ——它只会把旧电脑里的所有东西,原封不动拷贝过去,不管有用没用,也不管兼容不兼容。

但 Claude Code 不一样,它像一个经验丰富的系统管理员,先花 10 分钟给两台电脑 " 看诊 ":

1. 扫描旧电脑上的所有软件、代码环境、配置文件;

2. 读取我的 shell 配置(电脑操作命令的设置)、SSH 密钥(远程登录电脑的 " 钥匙 ")、启动项;

3. 分析每一个应用,判断哪些有用、哪些没用;

4. 检查磁盘健康状态,避免迁移过程中出问题。

最惊喜的时刻:AI 主动帮我 " 断舍离 "

看诊结束后,Claude Code 突然问我:" 你的系统里有 14 个 Intel 时代遗留的 Rosetta 翻译层应用(以前 Intel 芯片电脑的软件,在 Apple 芯片上需要 " 翻译 " 才能用),它们跟着你换了好几台电脑,从来没清理过。其中 8 个有原生 Apple 芯片版本,我建议装原生版;另外 6 个已经停止更新,你确定还要吗?"

那一刻我就知道,它真的把我那 20 年的 " 数字迷宫 " 走通了——它不是在 " 照搬 ",而是在 " 理解 " 我的需求,帮我做取舍。

三层排查清单:连我自己都忘了的东西,AI 都找到了

之后,Claude Code 给我生成了一份三层排查清单,把要迁移的内容分了类,连我自己都忘了的东西,它都找出来了:

1. 基础层:SSH 密钥、桌面文件、常用软件列表,这些最容易想到的东西;

2. 中间层:Git 配置(代码管理工具的设置)、自定义脚本、定时任务,这些手动拷贝很容易遗漏的东西;

3. 深层层:60GB+ 的虚拟机文件、相机色彩配置文件(用专业相机的人都知道,这东西丢了就没法还原照片色调)、散落在电脑里的项目文件夹。

速度翻倍:AI 帮我优化迁移速度,一个周末搞定

一开始,数据传输速度只有 33MB/s,按这个速度,迁移完要花好几天。

Claude Code 分析瓶颈后,主动做了三项优化,瞬间把速度提了上来:

1. 去掉压缩功能:在万千兆局域网上,压缩反而会占用 CPU,拖慢速度;

2. 换轻量级 SSH 加密算法:默认的加密算法太 " 重 ",换个简单的,速度直接翻倍;

3. 大文件直接传输:不用增量算法(本来是用来节省传输流量的),在局域网上反而多余,直接传更快。

最终,传输速度达到了 210MB/s,一个周末,就完成了所有数据的迁移。

04

刷新认知:

AI 不止能迁移数据,还能帮我 " 修电脑、省 money"

这次迁移,彻底改变了我对 AI 能力的认知——它不只是一个 " 工具 ",更像一个 " 全能助手 ",能解决很多我没想到的问题。

惊喜时刻 1:AI 记住了我所有设备的状态

迁移过程中,Claude Code 需要下载一个大型框架包,正要从官方网站下载时,它突然停了下来:" 这个包我们之前在你的另一台机器上下载过,我直接从那台电脑拷过来,不用再从网上下载了。"

它居然记住了我家里所有设备的状态,主动调用其他设备的资源,省了我大量时间。

惊喜时刻 2:AI 破解了主板限制,给我的 Windows 电脑 " 提速 "

我有一台 Windows 台式机,配备了 RTX 5090 显卡,但内存被主板锁在了 4800MHz,比标称的 6000MHz 低了 25%,商业超频软件都没用(戴尔在 BIOS 里做了锁定)。

Claude Code 发现后,远程连接到这台电脑,下载了主板的 BIOS 固件,用十六进制编辑器反编译,找到隐藏的内存频率控制寄存器,还制定了一套完整的破解方案——全程都在我下达命令的终端窗口里完成,我完全没插手。

惊喜时刻 3:AI 发现了硬盘的 " 物理故障 ",还教我怎么修

迁移过程中,Claude Code 突然报告:" 你的第二块 NVMe 硬盘(高速固态硬盘)出现了可修复的 ECC 错误(简单说就是数据传输时出现了小错误)。"

更厉害的是,它还给出了解决方案:" 这种错误通常是因为安装时散热片压得太紧,造成了物理应力。建议关机后,松动散热片右下角的固定螺丝,向上推一下再拧紧。"

这不是软件问题,也不是驱动问题,而是物理安装问题—— AI 居然能通过扫描,发现这个问题,还去硬件论坛找了解决方案,精准定位到具体哪颗螺丝。

意外收获:AI 帮我淘汰了所有付费软件,零成本搞定一切

迁移完成后,我发现一个意外惊喜:很多付费软件,我再也不用买了——因为 AI 能帮我实现所有功能,还更好用。

举几个例子:

1. 文件重命名:以前用付费软件,要么依赖云端,要么功能有限;AI 帮我装了开源工具,调用本地大模型,中英文混合命名都能搞定,零成本;

2. 语音识别 / 合成:以前用云端服务,按时长计费;现在本地跑 Qwen3-ASR(语音识别)和 Qwen3-TTS(语音合成),免费、实时,准确率还更高,还能克隆声音;

3. 知识库管理:以前企业级方案每月要几百美元;现在用本地工具加嵌入模型,拖进文件就能问答,不花一分钱;

4. 代码审查:以前商业工具年费几千美元;Claude Code 不仅能审查代码,还能理解我的整个项目,帮我修 bug、写测试。

其实道理很简单:这些付费软件,都是 AI 不够聪明的时代产物;现在有了本地大模型,一个通用的智能,胜过一百个专用的工具。

05

从控制风扇开始:AI 接管我家的 " 智能设备 "

迁移完成后,一个偶然的发现,让我萌生了让 AI 接管整个家的想法——那就是控制家里的智能风扇。

小尝试:让风扇 " 听 GPU 的话 ",给 AI 降温

RTX 5090 显卡全速运行时,温度会飙升到 85 度,很影响性能。我家里有一台智能风扇,AI 帮我做了一件事:让风扇听 GPU 温度的指挥。

步骤很简单(AI 全程操作):

1. 劫持通信:这台风扇本来要连厂商的云端服务器,AI 在路由器里加了一行设置,把厂商的域名指向我家的 NAS;

2. 协议转换:在 NAS 上用开源工具,把风扇的私有协议(厂商自己的通信方式),转换成标准的 MQTT 协议(智能设备通用的通信方式);

3. 设置规则:写一个简单的温度监控脚本,GPU 温度 75 度开风扇低速,85 度开高速,55 度以下自动关闭。

一个数字大脑,居然能管理自己的散热——技术不难,但我从中看到了 AI 融入生活的诗意。

痛点解决:让 " 各自为政 " 的智能家电,变成 " 一家人 "

现在家里的智能设备越来越多:灯、空调、摄像头、门锁、扫地机器人,每一个都有自己的 APP,注册一堆账号,还不能互通——所谓的 " 智能家电 ",其实就是一堆各自为政的遥控器。

但控制风扇的尝试让我明白:大多数智能设备的 " 云端 ",其实就是个消息中转站。只要把通信劫持到本地,这些设备就能脱离厂商云端,自己联动。

于是我搭建了一套系统:用 NAS 上的 Home Assistant(智能家居中枢)当核心,MQTT broker(消息总线,让设备之间能互相 " 说话 ")当桥梁,再用开源工具把各种设备的私有协议,都转换成标准协议。

这里的 AI,不是简单控制设备,而是 " 理解我的意图 "。

传统智能家居是 "if-then" 规则(比如温度超过 28 度开空调),但 AI 能理解上下文:比如风扇,AI 知道 "GPU 在跑大模型,预计两小时结束,先开低速,跑完再关 ";比如灯,AI 知道 " 周末孩子在家打游戏,客厅灯光调暖一点,晚上 10 点后自动调暗,提醒睡觉 "。

而且 AI 能记住我的偏好,会随着我的习惯慢慢进化——这才是真正的 " 智能 "。

进阶操作:AI 接管我的两辆特斯拉,每月省不少电费

我家里有两辆特斯拉和一个家用充电桩,以前每天都要花几分钟琢磨:谁先充电?充多少?什么时候充最省钱?明天要跑长途,要不要充满电?

现在,这些事全交给 AI 了:

1. 智能排队:AI 从我的日历里读取第二天的行程,根据两辆车的电量,自动规划谁先充——通勤的车充到 80% 就够,要跑长途的充到 100%;

2. 错峰充电:AI 接入电力公司的分时电价 API,白天电价贵的时候不充,凌晨便宜的时候自动开始(加州峰谷电价能差 2-3 倍,一个月能省不少钱);

3. 状态监控:AI 通过 Tesla API,实时读取车辆的电池健康度、胎压、软件版本,有异常就主动提醒;

4. 未来规划:冬天可以让 AI 提前给车预热(用充电桩的电,不耗电池);以后装了太阳能板,AI 还能根据天气预报,优先用太阳能充电。

这些想法,技术上都能实现,只是需要花时间搭建和调试——但 AI 已经帮我完成了大部分工作。

06

额外惊喜:AI 当 " 安全卫士 ",找出电脑里的 4 个木马

我让 AI 远程检查了家里给孩子打游戏的台式机,结果吓出一身冷汗——里面藏着 4 个恶意软件,Windows Defender(电脑自带的杀毒软件)一个都没发现。

其中有混淆过的 PowerShell 木马(注入到系统进程里,很难发现),还有反杀毒软件(专门阻止安全软件运行),以及伪装成 "AI 助手 " 的广告软件和浏览器劫持程序(潜伏了 5 个月)。

AI 不仅找到了它们,还理解了它们的运行机制,把每一层恶意程序都清理干净了。

更厉害的是,这台电脑七天蓝屏六次,AI 分析了系统日志,定位到是 PCIe 电源管理的兼容性问题,修改了注册表和电源方案后,蓝屏再也没出现过。

AI 管家上线:整理 20 年数据,还能记住我的所有事

解决了智能设备的问题后,我又让 AI 帮我整理家里 NAS 里的 160TB 数据——这是 20 年积累的 " 数字财富 ",以前我根本没时间整理。

照片管理:AI" 看 " 懂照片,帮我分类、找照片

我一天能拍几百张照片,以前整理照片要花几个小时。现在,AI 能用多模态能力(既能看图片,又能理解文字),自动完成选片、分类、调色——它还能学习我 20 年的审美偏好,知道我喜欢什么样的构图和色调。

找照片也变得很简单:我只要说 " 帮我找 2015 年全家在日本吃和牛的照片 ",AI 就能通过理解照片内容、时间、地点,精准找到我要的照片——再也不用在海量照片里翻来翻去了。

AI 的 " 超强大脑 ":记住我所有的对话和决定

我每天要用到四款 AI:电脑上用 Claude、ChatGPT 写代码,手机上用 Gemini 处理日常,开特斯拉时用 Grok 聊投资——这些对话散落在不同平台,本来互不相通。

但我让 AI 搭建了一套 " 记忆系统 ":每天定时从这四款 AI 的对话记录里,提取关键信息,汇入 NAS 上的记忆中枢(由向量数据库和知识图谱组成),再同步回所有 AI 节点。

也就是说,无论我在哪台机器上、跟哪个 AI 聊过什么、踩过什么坑,其他 AI 都能记住。

比如,我在 MacBook 上提过一嘴某个 Python 包(代码工具)的版本问题,两天后在服务器上干活时,AI 主动提醒我:" 这个包在你的 MacBook 上有兼容性问题,我用另一个版本。"

07

不完美的 AI:

那些踩过的坑,也是成长的代价

虽然 AI 帮我做了很多事,但它并不是完美的——迁移和使用过程中,它也犯了很多错误,这些错误,恰恰暴露了当前 AI 的弱点。

坑 1:照片静默丢失,AI" 自信犯错 "

迁移数十万张 RAW 照片(专业相机的原始照片)时,AI 报告 " 全部拷贝完成 ",但实际上,有一部分照片在传输过程中悄悄丢失了——因为文件太多,AI 没有做端到端的校验,就信心满满地宣布了错误的结论。

总结:AI 很聪明,但有时 " 经验不足 ",不够严谨。

坑 2:遗漏应用文件,反复检查才找全

MacOS 有两个应用文件夹:系统级的 /Applications(系统自带或从 App Store 下载的应用),和用户级的 ~/Applications(非 App Store 下载的应用)。

AI 只迁移了前者,完全遗漏了后者;每次让它重新检查,都能再翻出点遗漏的东西——这说明,AI 在 " 确认事情做完 " 这件事上,还不够偏执。

坑 3:升级必出问题,我们一起 " 找规律 "

每次升级 OpenClaw 平台(我用来管理 AI 系统的框架),都会出点小问题:端口号被重置、时区变回 UTC、配置文件被覆盖……

我和 AI 一起,记录了 21 种已知的升级故障,然后写了一个自动修复脚本——升级后 30 秒内,就能自动修复所有问题。

其实,这些不是 "bug",而是运营成本——我们不用消灭所有问题,只要有能力自动处理它们就好。

08

钢铁侠的 Jarvis 不是科幻,

是我们亲手打造的日常

把所有场景串起来,你会发现一个激动人心的画面——这不是科幻电影,是我现在的日常:

早上 7 点,AI 看了我的日历,知道我两小时后出门,提前给特斯拉预热,告诉我昨晚充的电够今天往返;咖啡机 15 分钟前自动启动,客厅的灯按日出时间亮起来。

白天工作时,我在 M5 Max 上用 Claude Code 写代码,本地 AI 随时待命;需要跑重型任务时,AI 自动把任务转到 GPU 服务器,我根本不用管它在哪台机器上运行。

下午孩子放学打游戏,AI 发现显卡被占用,自动把 AI 推理任务转到 Spark,还顺便检查电脑安全——还记得之前那四个木马的教训。

傍晚电价高峰,AI 暂停特斯拉充电,把 NAS 备份推迟到凌晨;深夜电价低谷,特斯拉自动充到 80%,NAS 开始跑备份,WiFi 再也不会连错网络。

周末,AI 帮我整理 20 年前的老照片,修复模糊的画质,还自动生成一本电子相册,送给家人。

今天的 AI,还有很多不完美,但每一个环节的技术都已经存在。我们不需要等待 " 未来的 Jarvis",因为它就在我们身边——只要你愿意动手,用一台电脑、一套 AI 工具,就能把科幻变成日常。

09

写在最后:

我的家庭 AI 工作站,是 " 一点点长出来的 "

你可能会好奇,在最初执行迁移任务时,我的 AI 助手是从哪找的。

我没有直接用现成的工具,而是自己搭建了一套家庭 AI 工作站——它不是一开始就设计好的,而是慢慢试错、慢慢完善,像 " 搭积木 " 一样凑起来的。

第一步:从两台电脑开始,解决 " 算力不够 " 的问题

一开始,我用退役的 M4 Max 电脑跑 Claude Code(一款能写代码的 AI 工具),还部署了一些小模型做实验。但很快发现,M4 Max 的算力不够用,于是又加了一台搭载 RTX 5090 显卡(目前最强的消费级显卡,32GB 显存,显存越大,能同时运行的 AI 模型越多)的 YLAI 服务器。

我的目标很简单:同时跑 5 个 AI 模型,分工合作:

1. 聊天模型:帮我回答问题、写代码;

2. 语音识别模型:把语音消息转成文字;

3. 语音合成模型:把文字回复读出来;

4. 文本嵌入模型:帮我整理记忆、建立索引(方便快速找东西);

5.Judge 模型:判断哪些对话、内容值得记住。

但问题来了:一个 26B 参数的模型(比 650 亿参数小一些,但也很吃算力),就要占 21GB 显存,5 个模型挤在 32GB 显存里,根本装不下。

踩坑无数后,我找到一个 " 笨办法 ":给 AI" 分工 "

我先试了用 Ollama(一款常用的本地模型运行工具)管理所有模型,结果发现它会 " 踢人 " ——加载新模型时,会把旧模型从显存里挤出去,导致记忆系统瘫痪。

后来我又尝试把小模型拆成独立服务,和 Ollama 分开,但显存还是不够用。直到我突然想通:不是所有模型都需要 " 占用核心算力 "。

文本嵌入模型和 Judge 模型,都是后台 " 偷偷干活 " 的,哪怕慢一点(从毫秒级变成秒级),也不影响我使用。那干脆把它们放到 CPU(电脑的 " 基础处理器 ",平时处理简单任务)上跑,把 GPU 留给主力模型!

这一改,效果立竿见影:主力模型的运行速度从 37t/s(tokens per second,每秒处理的字符数,越快越好)飙升到 205t/s,快了 5.5 倍,显存也彻底够用了。

避坑提醒:别用 Ollama,Apple 用户直接选 MLX

这是我踩了很多坑才总结的经验:如果你的电脑是 Apple Silicon 芯片(比如 M1、M2、M3、M5 系列),别装 Ollama。

因为 Ollama 底层用的是 llama.cpp,需要一层 " 翻译 " 才能调用 Apple 的 Metal GPU(苹果自研的显卡,专门适配自家芯片),会浪费很多性能。

推荐用 MLX ——苹果专门为自家芯片做的 AI 框架,不用 " 翻译 ",直接调用 Metal GPU,同一个模型,运行速度比 Ollama 快 30%-50%,还更省内存。

至于模型,直接去 HuggingFace(一个 AI 模型共享平台)搜 "mlx-community",里面有所有主流模型的 MLX 版本,直接下载就能用。

最终配置:家用 AI 工作站的 " 最优解 "

经过不断调试,我终于确定了最适合家用的配置,既够用又不浪费:

升级挑战:双机并行,跑全精度大模型

后来我想跑全精度版本的 Qwen3.5-122B-A10B-FP8(参数更多、更聪明,处理任务更精准),单张 RTX 5090 显卡已经装不下了。

我家里有两台 NVIDIA DGX Spark(专业 AI 服务器,每台有 GB10 GPU 和 122GB 统一内存),理论上把它们连起来,就能跑全精度大模型。

但现实全是坑:比如驱动签名不兼容、内存识别错误、推理引擎版本 bug ……光调试这些问题,就花了我好几天。

最终,两台 Spark 连起来,跑 Qwen3.5-122B-A10B-FP8(全精度版本),运行速度 13-15t/s,不算快,但胜在质量高。我朋友说,一年前,这样的配置在数据中心要花几十万。

NAS 的 " 正确用法 ":只做 " 本职工作 ",别让它 " 加班 "

因为数据越来越多,我还加了一台 NAS(8 盘位 RAID,简单说就是 "8 个硬盘组成的超大存储 "),一开始我把它当 " 全能选手 ",让它跑各种 AI 容器(比如推理引擎、数据库)。

结果惨了:NAS 的 32GB 内存被占满,嵌入式 CPU 跑推理慢得离谱,启动一个服务要一分钟(GPU 上只要 3 秒),而且硬盘一直转,嗡嗡响个不停,没法休眠。

后来我醒悟了:NAS 就该干它的本职工作——存储和备份、运行 Qdrant 向量数据库(帮我管理记忆)、做 IoT 中枢(连接智能设备),其他活全交给 YLAI 服务器和 Spark,硬盘终于能正常休眠了。

这套系统一直用到今天,然后我换了 M5 Max,128GB 统一内存让大模型能跑在笔记本上。经过实测,1220 亿参数模型在 M5 Max 上加载 17 秒,推理速度 31t/s,思考链、图片理解、工具调用全能力解锁。

回头看,整个系统不是被设计出来,而是一点点长出来的。

今天每一台设备都找到了最适合自己的位置。

关键不是所有东西一次到位,而是先让核心跑起来,Claude Code、一个本地模型加一个界面就够了,然后你的 AI 工作站就会根据实际需求,慢慢长出自己的架构。就像我现在的 fleet,也是从一台 M4 Max 开始,花了几个月一台一台加上去的。

同样的技术,在不同人的手里,用法也不一样,我的经验不一定适合所有人。但一样的是大家的起点:先用起来,再说别的。

雷峰网文章

相关标签
雷峰网

雷峰网

读懂智能&未来

订阅

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容