摘要:泰达人工智能研究团队推出轻量级医疗语言模型MedPsy,以1.7B与4B参数版本在多项临床测试中超越大模型竞品,实现高效本地化推理,破解医疗AI部署中的规模与隐私难题。

币圈界报道:
泰达发布小型化医疗语言模型,挑战算力规模依赖范式
本周三,泰达人工智能研究团队正式发布名为MedPsy的系列医疗语言模型。该模型家族设计紧凑,可在智能手机等终端设备上流畅运行,同时在多项临床评估中表现优于参数量大数倍的同类产品。
小体积模型实现大性能,打破规模决定论
MedPsy提供1.7B与4B两种参数配置,专为通过QVAC生态实现边缘部署而优化。在七项医学基准测试中,1.7B版本以11.42分领先于谷歌的MedGemma-4B;在更严苛的HealthBench Hard评测中,其性能甚至超越了参数量为其16倍的MedGemma-27B。
4B版本在闭卷医学测试中取得70.54分,尽管参数仅为MedGemma-27B的约七分之一,仍实现显著超越。在模拟真实诊疗场景的测试中,优势进一步凸显:HealthBench Hard得分达到58.00对42.00,MedXpertQA则为30.61对25.18。
此外,该模型生成响应时所用标记数减少3.2倍,表明在保持高准确率的同时,计算效率获得实质性提升。
当前医疗大模型普遍面临能力与部署可行性之间的矛盾。例如,谷歌的MedGemma-27B虽性能强劲,但需数十GB显存支持,无法在边缘设备运行。泰达则采用精炼训练策略,强调模型效率而非单纯堆叠参数。
本地化推理重塑医疗AI落地路径
所有模型均以量化格式发布,体积分别为1.2GB与2.6GB,足以在无网络连接的智能手机或医院工作站上独立运行。
医疗信息高度敏感,涉及患者记录、诊断结果及临床笔记,受美国HIPAA和欧洲GDPR等法规严格约束。主流云端模式要求数据上传至远程服务器处理,不仅增加合规风险,也造成用户隐私与智能服务间的根本冲突。本地推理彻底规避这一问题。
公司首席执行官指出,此次发布体现了对效率优先而非规模扩张的战略选择,与QVAC平台整体推动隐私安全与终端智能的理念高度一致。
MedPsy基于Apache 2.0许可开放,适用于科研与教学用途。其架构特别适配带宽受限环境、注重隐私的临床流程,以及数据必须完全驻留设备的资源匮乏场景。
此次发布恰逢行业关键发展期。全球医疗AI市场规模预计从2025年的366.7亿美元增长至2033年的5055.9亿美元,年复合增长率高达38.90%。数据合规性仍是大规模应用的主要障碍,而MedPsy正致力于解决这一核心痛点。
声明:本站所有文章内容,均为采集网络资源,不代表本站观点及立场,不构成任何投资建议!如若内容侵犯了原著者的合法权益,可联系本站删除。
