字节跳动 Seed 团队今天正式发布图像编辑模型 SeedEdit 3.0。
该模型可处理并生成 4K 图像,在精细且自然地处理编辑区域的同时,还能高保真地维持其他信息。尤其针对图像编辑“哪里改与哪里不改”的取舍,该模型表现出更佳的理解力和权衡力,可用率相应提高。
依靠 AI 完成指令式图像编辑的需求,广泛存在于视觉内容创意工作中。但此前,图像编辑模型在主体&背景保持、指令遵循等方面能力相对有限,导致编辑图像可用率不高。
图像编辑模型 SeedEdit 3.0 基于文生图模型 Seedream 3.0,叠加多样化的数据融合方法与特定奖励模型,较好地解决了上述难题。其图像主体、背景和细节保持能力进一步提升,尤其在人像编辑、背景更改、视角与光线转换等场景表现较为突出。
今日起,SeedEdit 3.0 技术报告对外公开,模型同步在即梦网页端开启测试,豆包 App 也即将上线,欢迎体验交流!
-
真人评测结果
为增强评估参考性,团队还引入人工评价,采用 0–5 分制评估模型产出与预期差异,共分为五个维度:
-
指令遵循:评估模型是否准确响应编辑指令;
-
图像保持:评估模型是否修改了不该调整的部分;
-
生成质量:评估生成图像质量、美感高低、有无明显伪影;
-
用户满意度:评估不同方法编辑后图像的精品率;
-
可用率:编辑后生成图像结果被用户判断可用的占比。
在综合测评中,SeedEdit 3.0 的图像保持能力最为突出,保持能力得分达到 4.07 分(满分 5 分),较此前版本 SeedEdit 1.6 得分提升 1.19 分;SeedEdit 3.0 可用率达 56.1%,较 SeedEdit 1.6 绝对值增加 17.46 个百分点。同时,SeedEdit 3.0 的指令遵循、生成质量表现也处于行业前列。