关于ZAKER 合作
36氪 2小时前

众筹 300 万美元的 Agent 盒子,想彻底解决你的算力焦虑

作者 | 张子怡

编辑 | 袁斯来

AI 硬件赛道,似乎一夜之间跨入新世界。

上一个月,投资人还在打听硬件大厂高 P 创始人,这一个月,他们已经开始寻觅 " 下一个 Mac mini"。

狂欢的起点,来自开源智能体框架 OpenClaw(圈子里称为:龙虾)。从抢购大内存的 Mac mini 到各类软硬大厂的联名主机,FOMO 恐惧症席卷着所有人。承载 AI 的硬件,如今成了不可错失的入口。

此前更多在极客圈子里风行的 Agent Box 忽然被推到前台。简单说,Agent Box 就是台面向个人用户的 AI 专用设备,其存在的唯目的是在本地运行大模型和自主代理。

市面上已经有数家推出 Agent Box 的公司,包括 Pamir、Violoop、Tiiny 等等。Pamir 估值超过 2500 万美元,而 Tiiny AI 推出的首款产品 Tiiny AI Pocket Lab,在 Kickstarter 上众筹金额已达 280 万美金。有行业人士预计其最终众筹金额可能会超 400 万美金。

Tiiny AI Pocket Lab 重量约 300 克,尺寸约一部手机大小,早鸟众筹价为 1399 美元,支持一键部署大模型(最高支持 120B)不依赖云端、服务器或高端 GPU,也不产生额外的 Token 消耗费用。

Tiiny AI 无疑踩中风口,毕竟用户只需要花单次硬件的钱,便能无限量地使用 " 龙虾 "。

不过,Tiiny AI 副总裁兼商业化负责人 Eco Lee 在采访中曾反复强调:Tiiny AI Pocket Lab 不是专门为 Open claw 设计,它是为个人设计的 AI 基础设施设备。

这听起来很迷人,甚至有些难以置信。人们必须展开新的想象,agent 原生意味着什么,要实现什么?当制约我们使用 AI 的只剩下高昂的 Token 费用,我们又如何冲破这一限制?

Tiiny AI 尝试给出一个答案。

01 何谓 Agent Box

在理解 Tiiny AI 之前,需要厘清一个新的产品概念——到底什么是 Agent Box(智能体盒子)?

在过去一年里,为了在本地运行开源大模型,人们们尝试过各种方案:有人用淘汰的旧电脑,有人抢购顶配的 Mac mini。

这笔硬投入相当高昂。倘若用户想在本地端运行超过 120B 的大模型,购买 PC 电脑要凑近 80GB 的显存,整机成本超过 5 万元;即便选择苹果的 Mac Studio(选配 96GB 统一内存版),也要花费超过 2 万元。

" 你是否愿意买台电脑,只用来跑大模型?现在很多几万元的 AI 电脑,一旦启动本地大模型的时候,内存与算力就被过度占用,你甚至连一个网页都打不开。更别提打游戏或者看视频。"Eco 说到。

除了设备本身开销之外,随着 Token 价格水涨船高,高昂的持续使用成本,也让 " 本地化部署 " 成为行业刚需。

因此,在 Tiiny AI 的产品构想里,其产品必须是台专门的 AI 设备,能够支持本地大模型和智能体 7 × 24 小时后台运行。其设计逻辑并非替代用户的个人电脑,而是作为外接独立设备,供手机、PC、平板或机器人等终端设备接入调用。系统默认将用户数据、凭证和工作流保存在本地,敏感操作无需上传云端,除非明确要求调用更强的云端模型。

在软件生态方面,设备将内置 Agent Store,目前已适配 OpenAI OSS、Qwen、GLM 等 50 余款开源大模型,以及 OpenClaw、n8n 等超百款智能体开发工具。

为构建丰富的端侧生态,Tiiny AI 计划于今年 7 月推出模型格式转换工具,除了 Tiiny 官方支持的 SOTA 开源模型外,用户也可自行从 Hugging Face 等开源社区下载、转换并导入其他开源模型和用户自己的微调模型,并能上传分享给其他 Tiiny 用户。

" 我经常给用户打个比方,云端的大模型就像瓶装矿泉水,好喝也要喝,但普通用户有大量高频、重复、贴近个人习惯、又不需要顶级智力的 AI 需求,就像用矿泉水洗手洗澡就太奢侈了。Tiiny 的存在就像属于用户的‘ AI 水龙头’,你可以随意使用、token 边际成本为 0。"Eco 告诉硬氪。

在 Eco 看来,云端大模型专注处理高智力、高精度、关键性任务,本地大模型则聚焦日常高频、个性化、带用户长期记忆的持续交互场景——这种 " 端云协同 " 模式,正是 Tiiny AI,也是 Agent Box 最核心的价值所在。

在期待、掌声与纷至沓来的投资人邀约中,Tiiny AI 难免要面对质疑。它必须回答的第一个问题,就是以并不昂贵的售价,如何实现前沿的产品理念,以及 120B 的参数模型?

02 是玩具还是工具

在海外 reddit 论坛上,对 Tiiny AI Pocket Lab 的评价两极分化。有人说这只会是玩具,甚至有人通过宣传照逆向工程了 Tiiny AI 的产品,认为其所宣称的功能很难真正实现。

他们质疑的点在于,Tiiny AI 并未公布其所用的 SoC(系统芯片)品牌,也没有使用高端的 GPU,却能在本地运行 120B 的大模型。

这令人觉得不可思议。

" 我们是一家 AI Infra 公司,核心是通过系统性底层优化,把有限硬件的每一分算力与资源,全部聚焦于 LLM 推理与 Agent 运行,这与其他做硬件的思路有本质不同。"Eco 表示。

Tiiny AI Pocket Lab 里使用的芯片是一颗 SoC 外加一颗 dNPU,并通过 Tiiny AI 最核心的技术 PowerInfer 来实现媲美 Nvidia、AMD 等高端 GPU 芯片的本地模型推理能力。

PowerInfer 是用于端侧的异构算力推理加速技术,Tiiny AI 团队通过大量的数据测算和语料训练发现,大模型推理过程中,参数激活模式分为两类:" 热激活参数 "(每次与模型交互都会调用的核心参数,约占 20%)和 " 冷激活参数 "(仅在用户问到医学、法律等特定领域问题时激活,约占 80%)。这种冷热激活的特性,恰好适合在端侧异构算力架构下优化分配。团队开源过 PowerInfer 的示例:用单个 NVIDIA RTX 4090 GPU,运行参数量 175B 的大模型,速度能达到传统方案的 11 倍。

这些都属于 AI Infra 层面的技术积累。从芯片层到 Agent 调度层,再到模型训练层,都需要深厚的 knowhow 支撑。

在具体的落地场景中,Tiinny AI 团队从 Kickstarter 的留言区中发现,其用户主要是使用如 OpenClaw 一类开源应用的普通用户、对数据隐私有刚需的专业人士和 AI 极客。即使在断网的离线环境下,该设备依然可以运行多步推理、Agent 工作流、内容生成以及针对敏感数据的安全计算。" 傻瓜式 " 的开箱即用、0token 费的 24/7 Agent 和完全的自主控制权是这些人选择 Tiiny 的核心理由。

并且,该设备在系统内引入了长期记忆功能。用户的交互偏好、历史文件与对话记录,均能通过加密形式直接存储在本地硬件中。

" 隐私是 Agent Box 的加分项,但核心在于本地模型的部署,它能够结合你的长期记忆主动做事情,这件事最重要。"Eco 告诉硬氪。

Tiiny AI 的产品预计在 2026 年 8 月交付。需要注意,Tiiny 是 AI Agent 出身的团队,其最终产品呈现仍然是硬件。他们有合作供应商,但也需要应对量产中的突发情况。

硬件生产有太多需要趟过的河流,考验团队的并非融资,而是真正兑现诱人的承诺:在一个 300 克的盒子上,实现本地算力自由、不受 Token 价格束缚、完全私密。

相关标签

最新评论

没有更多评论了
36氪

36氪

让创业更简单

订阅

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容