摘要:Tether发布支持多类消费级硬件的BitNet LoRA微调框架,实现手机端大模型训练。该系统突破英伟达依赖,推动边缘智能发展,并已开源。

Tether推出多架构兼容的AI微调工具,赋能移动设备本地化训练
面向微软BitNet大语言模型,Tether于本周二正式发布跨平台LoRA微调框架,标志着非专业级硬件在人工智能训练领域的重大突破。该方案支持智能手机、消费级GPU及笔记本电脑等设备,在无需英伟达专用芯片的前提下完成模型微调任务。
异构硬件原生适配,打破算力垄断格局
作为其QVAC Fabric平台的重要组成部分,该框架是首个实现对非英伟达芯片(涵盖AMD、英特尔、苹果自研芯片及移动GPU)进行原生支持的BitNet微调解决方案。此次更新延续了2025年12月首次推出的框架理念,进一步拓展应用场景。
实测表现:旗舰机完成超十亿参数模型微调
在三星Galaxy S25上,工程师使用约1.8万词元的生物医学数据集,对1.25亿参数的BitNet模型执行微调,耗时约10分钟;针对10亿参数规模模型,相同任务在S25上用时1小时18分钟,iPhone 16则为1小时45分钟。测试还验证了在旗舰机型上成功微调最高达38亿参数的模型,并在iPhone 16上实现130亿参数模型的运行能力。
数据显示,移动GPU上的推理速度相较传统CPU提升2至11倍。同时,10亿参数的BitNet模型在推理与微调过程中,内存占用较同规模16位Gemma-3-1B模型降低77.8%。
技术融合驱动分布式智能新范式
BitNet采用三元权重机制(仅限-1、0、1取值),显著压缩模型体积并大幅削减显存需求。结合LoRA技术仅更新小型适配层而非全模型重训的特性,极大降低微调成本。二者协同使边缘设备本地训练成为现实。
Tether首席执行官指出,该框架兼容联邦学习流程,可在不上传原始数据的前提下实现跨设备模型协同更新。相关代码已按Apache 2.0许可证公开发布。
当前正值加密基础设施与人工智能计算深度融合的关键节点。随着更多数字资产平台集成智能代理以优化链上交易效率,行业正迈向一个由去中心化算力与本地智能共同支撑的新阶段。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
