关键词 "Stable Diffusion XL 1.0" 的搜索结果, 共 8 条, 只显示前 480 条
Hailuo 02 是 MiniMax 公司推出的全新AI视频生成模型,是Hailuo 01的升级版本。这个模型目前在图生视频、文生视频的榜单位于第二,超越快手的可灵以及谷歌的Veo3,仅次于字节上周刚刚发布Seedance 1.0 。Hailuo 02在多个方面进行了技术创新,包括底层架构的全面重构,训练和推理效率均提升了2.5倍。Hailuo 02 在复杂指令响应率上达到了85%,显著高于竞品
MiniMax-M1是MiniMax团队最新推出的开源推理模型,基于混合专家架构(MoE)与闪电注意力机制(lightning attention)相结合,总参数量达 4560 亿,每个token激活 459 亿参数。模型超过国内的闭源模型,接近海外的最领先模型,具有业内最高的性价比。MiniMax-M1原生支持 100 万token的上下文长度,提供40 和80K两种推理预算版本,适合处理长输入
文本到图像的扩散模型的最新进展已取得显著成功,但它们往往难以完全捕捉用户的意图。现有的使用文本输入结合边界框或区域蒙版的方法无法提供精确的空间引导,常常导致对象方向错位或意外。为了解决这些限制,我们提出了涂鸦引导扩散(ScribbleDiff),这是一种无需训练的方法,它利用用户提供的简单涂鸦作为视觉提示来引导图像生成。然而,将涂鸦纳入扩散模型存在挑战,因为涂鸦具有稀疏和单薄的特性,很难确保准确的
深度生成序列模型的归因分配使得仅使用正数据进行可解释性分析成为可能 1.本文介绍了 GAMA(生成归因度量分析),这是第一个基于积分梯度的归因方法,适用于仅基于正样本数据训练的自回归生成模型。即使没有负样本,GAMA 也能解释此类生成模型所学习的特征。 2.与大多数为监督学习开发的可解释性工具不同,GAMA 适用于单类生成模型,例如长短期记忆(LSTM),这类模型常用于抗体设计,因为负样本(非
MirageLSD 是 Decart AI 团队推出的全球首个 Live-Stream Diffusion(实时流扩散)AI 视频模型,能实现无限时长的实时视频生成,延迟低至 40 毫秒以内,支持 24 帧/秒的流畅输出。通过 Diffusion Forcing 技术和历史增强训练,解决了传统自回归模型在长时间生成中的误差累积问题,实现了视频的无限生成。基于Hopper 优化的 Mega Kern
LearnCoach 是专为 K12 学生设计的AI学习辅导平台,通过 AI 老师为学生提供个性化学习体验,根据学生的学习情况定制课程,以辅导课和视频播放列表两种模式,帮助学生从基础知识到考试实战全方位提升。平台拥有丰富的视频教程、考试题目等资源,能突出学习重点,让学生高效学习。学生可随时随地通过语音输入等方式与 AI 老师互动,获得即时帮助。LearnCoach 每天提供 20 分钟免费使用时长
Seed Diffusion是字节跳动Seed团队推出的实验性扩散语言模型,专注于代码生成任务。模型通过两阶段扩散训练、约束顺序学习和强化高效并行解码等关键技术,实现显著的推理加速。模型的推理速度达到2146 tokens/s,比同等规模的自回归模型快5.4倍,在多个代码基准测试中表现与自回归模型相当,在代码编辑任务上超越自回归模型。Seed Diffusion展示了离散扩散模型作为下一代生成模型
Waver 1.0 是字节跳动推出的新一代视频生成模型,基于修正流 Transformer 架构,支持文本到视频(T2V)、图像到视频(I2V)和文本到图像(T2I)生成,可在单一框架内完成,无需切换模型。支持高达 1080p 的分辨率和 2-10 秒的灵活视频长度,擅长捕捉复杂运动,生成的视频在运动幅度和时间一致性上表现出色。在 Waver-Bench 1.0 和 Hermes 运动测试集上,W
只显示前20页数据,更多请搜索
Showing 241 to 248 of 248 results