币圈界报道:

紧凑型医疗语言模型实现性能突破

尽管参数规模仅为同类产品的半数以下,Tether推出的1.7B模型在多项基准测试中仍领先谷歌MedGemma-4B达11分以上,展现出卓越的推理能力。

轻量化架构支撑高精度临床推理

4B版本通过将输出标记数量压缩至原系统的三分之一,显著降低计算资源消耗,并实现设备端响应速度的实质性提升。该系列模型采用GGUF格式实现全链路本地运行,确保患者敏感信息无需上传至远程服务器,从源头保障数据隐私。

双版本模型均通过八项医疗评估验证

QVAC MedPsy提供17亿与40亿参数两个版本,均经由涵盖临床知识、专家推断及真实场景模拟的八套基准测试体系全面验证。结果显示,其综合表现可媲美甚至超越参数量为其数倍的大型模型。

170亿参数模型在七项封闭测试中取得62.62的平均得分,以不足一半的参数量超越谷歌MedGemma-4B逾11分;在HealthBench Hard测试中,更击败参数量接近其十六倍的MedGemma 27B模型。

40亿参数版本在相同测试集上获得70.54分,表现优于参数量约为自身七倍的MedGemma-27B-text及其他主流大模型。其在HealthBench、HealthBench Hard与MedXpertQA等关键指标中持续保持领先优势。

研究团队负责人指出:“我们40亿参数模型仅用不到七分之一的参数即达成超越性表现,且单次响应标记数减少约三分之二。”

极致效率驱动边缘部署可行性

本次发布的最大技术亮点在于输出效率的跃升:40亿参数模型每次响应仅生成约909个标记,相较同类系统平均2953个,缩减至32%左右。17亿参数版本则平均使用1110个标记,低于同类系统的1901个。

更短的输出长度直接转化为更快的响应速度与更低的能耗成本,这对对延迟敏感的临床辅助系统至关重要。

两款模型均支持量化后的GGUF格式部署,其Q4_K_M版本体积分别约为1.2GB和2.6GB,可在智能手机、移动终端及医院本地系统中流畅运行。

这些成果源于分阶段训练后优化流程,整合了大规模医疗监督数据、临床推理案例以及复杂病例强化学习,全程未依赖模型规模扩张。

传统医疗AI长期依赖云端处理敏感数据,而QVAC MedPsy通过全本地高性能运行打破这一惯性模式。对于受严格隐私法规约束的医疗机构而言,这为无法接入外部云服务的环境提供了可行的智能化解决方案。