摘要:Tether发布集成BitNet LoRA的QVAC Fabric,实现在旗舰手机与消费级显卡上微调超百亿参数模型。该技术将设备端AI能力推向新高度,标志着其从稳定币发行商向数字基础设施提供商的战略转型。

Tether推出跨平台边缘AI框架,推动手机端大模型训练落地
Tether公司正式发布其QVAC Fabric系统,首次将BitNet LoRA技术整合至主流计算终端,实现数十亿参数级别语言模型在消费级图形处理器及高端移动芯片上的本地微调与推理,显著拓展了边缘智能的应用边界。
多架构兼容性突破:从桌面到移动端全面覆盖
该系统已适配AMD与Intel GPU、苹果Metal图形栈以及主流移动GPU平台,支持在不同硬件生态间统一部署。据官方数据,基于GPU的推理性能相较传统CPU基准提升2至11倍,同时内存占用较全精度模型降低高达90%,有效缓解移动设备在散热与内存容量方面的双重压力。
实测成果亮眼:智能手机完成百亿级模型训练
测试结果显示,Tether团队已在Pixel 9、Galaxy S25及iPhone 16等新一代旗舰设备上成功完成最高达38亿参数模型的本地微调,并在iPhone 16上实现了130亿参数模型的训练。这一表现远超当前行业普遍采用的30亿参数以下轻量级演示模型,预示着本地化个性化AI应用的新可能。
战略跃迁:从稳定币到数字基建的关键布局
此次发布是Tether由单一稳定币发行机构向综合性数字基础设施服务商演进的重要一步。此前推出的包含410亿token的Genesis I数据集与本地AI开发工作台,均服务于同一目标——打破大型科技企业在AI算力与数据生态中的垄断地位。通过开源QVAC系列代码与BitNet LoRA框架,公司正构建一个去中心化的开发者生态,以增强其在关键技术链路中的影响力。
潜在挑战:性能验证与商业部署待考
尽管技术前景广阔,但核心问题仍待解答:其宣称的效率优势在真实场景中是否能超越llama.cpp、MLC或高通自有工具链;实际运行中的功耗与温控表现如何;以及许可条款对商业化应用的支持程度。即便仅实现部分承诺性能,该方案也已实质性推进智能手机作为中型语言模型训练平台的可能性,为未来分布式智能奠定基础。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
