Tether发布跨平台AI训练系统,支持移动端百亿参数模型微调

全球市值领先的稳定币发行方Tether近日宣布推出全新人工智能训练架构,该系统具备在普通消费级硬件上完成大型语言模型微调的能力,涵盖智能手机及非英伟达显卡设备。

跨设备适配能力打破算力壁垒

据其周二公告披露,该技术集成微软BitNet架构与LoRA高效微调机制,有效压缩内存占用并降低计算资源需求,大幅减少模型开发成本。系统支持多类型处理器协同运行,覆盖AMD、英特尔、苹果M系列芯片以及高通与苹果移动端图形处理单元。

内部测试显示,工程师已成功在移动终端实现两小时内完成10亿参数模型的微调,轻量模型可在数分钟内完成,部分设备甚至可承载高达130亿参数的推理任务。基于1比特量化设计的BitNet框架相较传统16比特模型节省77.8%显存,使有限算力环境得以部署更复杂模型。该方案还首次实现对非英伟达硬件上1比特模型的LoRA微调支持,显著拓宽了训练生态的兼容性边界。

边缘计算性能跃升与分布式学习潜力

在推理效率方面,移动显卡运行该框架的性能可达传统中央处理器的数倍水平。系统同时支持本地训练与联邦学习模式,允许设备间在不上传原始数据的前提下协同更新模型,为隐私敏感场景提供可行路径,有望缓解对集中式云基础设施的过度依赖。

加密行业向智能算力深度转型

随着加密领域持续向高性能计算与机器学习渗透,Tether布局人工智能底层设施的动向正契合行业演进趋势。比特币挖矿与智能代理技术的协同发展,成为推动这一变革的核心驱动力。

数据显示,2026年行业整合加速:二月,HIVE数字科技凭借AI与算力业务实现9310万美元营收新高;三月,Core Scientific获得摩根士丹利5亿美元授信,可扩展至10亿美元规模,彰显资本对算力经济的信心。

自主代理生态开启身份认证新范式

伴随能够在加密网络中执行交易、交互服务与自动化任务的智能代理兴起,挖矿产业正全面转向高性能计算与人工智能融合方向。

周二,由OpenAI联合创始人参与创立的身份验证网络正式发布AgentKit工具包,赋予智能体通过可信身份绑定确认其与特定用户关联的能力,并结合微型支付协议实现安全、高效的去中心化交易闭环。