关键词 "视觉理解" 的搜索结果, 共 3 条, 只显示前 480 条
视觉语言模型(VLM),基于像素空间推理增强模型对视觉信息的理解和推理能力。模型能直接在视觉输入上进行操作,如放大图像区域或选择视频帧,更细致地捕捉视觉细节。Pixel Reasoner用两阶段训练方法,基于指令调优让模型熟悉视觉操作,用好奇心驱动的强化学习激励模型探索像素空间推理。Pixel Reasoner在多个视觉推理基准测试中取得优异的成绩,显著提升视觉密集型任务的性能。 Pixel R
上海交通大学等开源了一款半结构化表格问答工具:ST-Raptor,无需微调,准确率超GPT-4o 做文档智能、财务审核、报表自动化、医疗质控、法律合规的可以看看 它通过视觉理解、结构化解析以及语言推理,来解决复杂、不规则表格的问答问题 也就是说可以用它对Excel报表、网站上的表格以及Markdown、csv文件进行问答,比如学术表、财务报表 ST-Raptor先用VLM识别表格整体和单元格内容,
Qianfan-VL 是百度智能云千帆专为企业级多模态应用场景打造的视觉理解大模型。它提供 3B、8B 和 70B 三种尺寸,不仅具备出色的通用能力,还针对 OCR、教育等垂直领域进行了专项强化。该模型基于开源模型,并在百度自研的昆仑芯 P800 上完成了全流程计算任务,展现出卓越的性能和效率。核心功能多尺寸模型:提供从轻量级到大规模的三种版本,满足不同企业和开发者的需求,适用于各种场景,从端上实
只显示前20页数据,更多请搜索