Baichuan-M2在HealthBench上得到60.1的高分,以32B的较小尺寸不仅反超OpenAI 最新开源模型gpt-oss120b(得分57.6),更是力压Qwen3-235B、Deepseek R1、Kimi K2等当前世界所有开源大模型。
针对医疗领域用户隐私考虑下的模型私有化部署需求,我们对Baichuan-M2进行了极致轻量化,量化后的模型精度接近无损,可以在RTX4090上单卡部署,相比DeepSeek-R1 H20双节点部署的方式,成本降低了57倍。针对国产主流芯片的开发和适配,让多数医疗机构利用现有硬件条件既可实现快速部署。
此外,面向急诊、门诊等对于交互速度要求更高的场景,基于Eagle-3架构优化的Baichuan-M2-Spec版本在单用户场景下实现了74.9%的token速度跃升。