关键词 "影像" 的搜索结果, 共 24 条, 只显示前 480 条
全片病理基础模型
上海交通大学清源研究院的研究人员提出了PathoDuet框架,针对病理切片图像的特点,设计了跨尺度定位和跨染色迁移两个预训练任务,有效利用了图像放大倍数和染色方式之间的关联性。PathoDuet在结直肠癌分型和免疫组化标记物表达预测等任务中优于现有方法。此外,通用病理基础模型UNI[39]在超过100万张诊断切片上进行了大规模无监督学习,并在34个任务中展现了卓越的性能。该模型支持分辨率无关分类、
医学成像分割比赛,用于通用算法的验证和测试,涵盖广泛的挑战,例如:小数据、不平衡标签、大范围对象尺度、多类别标签和多模态成像等。本次挑战赛和数据集旨在通过开源多个高度不同任务的大型医学成像数据集,并标准化分析和验证流程,提供此类资源。
MedSAM医学图像分割基础模型,能够在广泛的任务范围内对多种模态的医学图像进行高性能分割。MedSAM在SAM模型的基础上,使用超过150万的图片和分割掩码进行训练,包含了10种图像模态以及30种癌症类别。
香港中文大学的生物医学团队为8个特定的眼科图像模态设计编码器,并为不同任务设计解码器,整合超过50万名患者的340万张图像,训练了眼科疾病基础模型VisionFM。该模型在多个眼科疾病诊断任务上超过基线方法,准确率接近中级眼科医师。该模型还具备强大的数据泛化能力,能够扩展到新的图像模态和设备,甚至能从眼底图像预测青光眼进展和颅内肿瘤。
中国科学院深圳先进技术研究院的团队提出了MaCo,通过引入掩蔽对比学习,同时实现了胸部X光图像的细粒度理解和零样本学习。MaCo在6个公开的胸部X光数据集上验证了其效果,在分类、分割、检测等多个任务中超越了10种现有的最先进方法
PathChat,一个专为人类病理学设计的视觉-语言通用AI助手。PathChat结合了专门适应病理学的视觉编码器与预训练的大语言模型,在超过456,000个多样化的视觉-语言指令上进行微调,展现出卓越的性能。
EchoCLIP是一个创新的人工智能模型。它能够分析心脏超声图像并理解专家的诊断解读。该模型即使在没有针对具体任务进行专门训练的情况下,也展现出了优秀的表现。模型在评估心功能和识别心内植入设备上达到良好性能,同时其长上下文变体EchoCLIP-R 在患者识别和跨模态检索等任务中展现了优异能力。这一研究推动了基础模型在心血管影像初步解读中的应用潜力。
中国科学院深圳先进技术研究院提出的Swin-UMamba进一步推动了图像分割任务中的模型架构优化。与TransUNet不同,Swin-UMamba基于Swin Transformer的层次化特性,通过局部自注意力机制有效捕捉多尺度特征,同时充分利用了在ImageNet上预训练的优势,结合基础模型在自然图像上学到的知识,大幅提升了模型在医疗影像任务中的数据效率和性能,展现了出色的迁移能力。Swin-
Aignostics公司发布了目前最大规模的腹部CT数据集AbdomenAtlas。该数据集涵盖了广泛的人群特征及多种设备类型,共收录了来自112家医疗机构的20,460例三维CT影像。研究团队由10名放射科医生组成,采用人工智能辅助标注方法,完成了67.3万个高质量解剖结构掩码的标注工作。他们首先对5,246例影像中的22种解剖结构进行人工标注,随后利用半自动化流程,由放射科医生优化模型预测的标
复旦大学的研究者们提出了面向超声图像的通用基础模型USFM。该模型基于超过200万张多器官超声图像进行训练,采用空间-频率双重掩码建模方法处理低质量图像,在分割、分类和图像增强等多个任务中表现出色。
通用病理基础模型UNI在超过100万张诊断切片上进行了大规模无监督学习,并在34个任务中展现了卓越的性能。该模型支持分辨率无关分类、少样本学习等,并具备对108种癌症类型的泛化分类能力。
Tools for whole slide image processing and classification
我们见证了许多新型特征提取器的出现,它们使用自监督学习在大型病理数据集上进行训练。本存储库旨在提供这些模型的完整列表以及它们的关键信息。
计算病理学基础模型的标准化基准。
组织病理学图像评估对于癌症诊断和亚型分类至关重要。用于组织病理学图像分析的标准人工智能方法专注于优化针对每个诊断任务的专门模型 。尽管此类方法已取得一些成功,但它们对由不同数字化协议生成的图像或从不同人群采集的样本的普遍性通常有限。在此,为了应对这一挑战,我们设计了临床组织病理学影像评估基础 (CHIEF) 模型,这是一个通用的弱监督机器学习框架,用于提取病理影像特征以进行系统的癌症评估。CHIE
出于基准测试或研究目的,Giga-SSL 嵌入提供了一种在 TCGA 上执行分类任务的极其快速的方法。
医学AI平台
专长:病理学人工智能诊断。PathAI 专注于利用机器学习提高病理诊断的准确性和效率。他们的算法有助于识别生物标志物并指导治疗决策,尤其是在肿瘤学领域。与罗氏和百时美施贵宝的合作凸显了 PathAI 对临床试验和精准诊断的贡献,使其成为病理学人工智能领域的领导者。
普林斯顿与复旦推出HistBench和HistAgent,首个人文AI评测基准 普林斯顿大学AI实验室与复旦大学历史学系联手推出了全球首个聚焦历史研究能力的AI评测基准——HistBench,并同步开发了深度嵌入历史研究场景的AI助手——HistAgent。这一成果不仅填补了人文学科AI测试的空白,更为复杂史料处理与多模态理解建立了系统工具框架。 历史是关于时间中的人的
Lingshu是阿里巴巴达摩院推出的专注于医学领域的多模态大型语言模型。模型支持超过12种医学成像模态,包括X光、CT扫描、MRI等,在多模态问答、文本问答及医学报告生成等任务上展现出卓越的性能。Lingshu基于多阶段训练,逐步嵌入医学专业知识,显著提升在医学领域的推理和问题解决能力。推出7B、32B两个参数版本,其中32B版本在多个医学多模态问答任务中超越GPT-4.1等专有模型。Lingsh
DAMO GRAPE是浙江省肿瘤医院与阿里巴巴达摩院联合推出的全球首个基于平扫CT识别早期胃癌的AI模型。DAMO GRAPE突破传统影像学限制,基于深度学习分析非增强CT影像,实现对胃癌的高效筛查。在大规模临床研究中,DAMO GRAPE展现出85.1%的敏感性和96.8%的特异性,显著优于人类放射科医生。模型能提前6个月发现早期胃癌病灶,为胃癌的早期诊断和治疗提供新的高效手段,有望大幅提高胃癌
雾象Fogsight是大型语言模型(LLM)驱动的动画生成智能体,用户输入抽象概念或词语,能生成高水平的生动动画。核心功能包括“概念即影像”,能将输入的主题转化为叙事完整的动画,包含双语旁白和电影级视觉质感;“智能编排”,利用LLM驱动的编排能力自动完成创作流程;以及“语言用户界面(LUI)”,支持用户通过多轮对话对动画进行精准调优和迭代。 项目地址 Github仓库: https://g
这不仅是一位普通的智能助手,而是一位 融合专家知识库、实时更新医学前沿 的专业健康顾问。无论您关心的是日常保健、饮食运动,还是复杂的疾病预防、诊疗知识,TA都能以精准、科学、易懂的方式为您解答。不同于冰冷的问答系统,这位 AI 在线医生擅长 用人性化的语言与您沟通,耐心倾听,细致分析,并结合权威医学资料,给出最贴心、实用的建议。无论是轻松的健康小疑问,还是反复困扰的慢性问题,您都可以随时向它咨询。
只显示前20页数据,更多请搜索