关键词 "视频生成模型" 的搜索结果, 共 14 条, 只显示前 480 条
ClipZap provides the best AI video models and tools for Clipping, Editing and Translating. makes video creation more easier, and Pro-Level. ClipZap AI 是AI视频创作与编辑平台,专为创作者和企业设计,通过强大的 AI 技术简化视频制作流程。支持视频
sand.ai是清华大学曹越教授团队创立的视频生成AI平台,目前刚刚开源了全球首个自回归扩散视频生成模型 Magi-1 ,生成长视频效果在行业领先。 马尔奖、清华特奖得主曹越的创业公司 Sand AI 推出了自己的视频生成大模型 ——MAGI-1,该模型权重和代码完全开源,支持无限生成,能将生成时长精确控制到每一秒,在基准测试中更是吊打 Sora,领先了 5 倍。
Seedance 1.0 lite是火山引擎推出的豆包视频生成模型的小参数量版本,支持文生视频和图生视频两种生成方式,支持生成5秒或10秒、480p或720p分辨率的视频。具备影视级视频生成质量,能精细控制人物外貌、衣着、表情动作等细节,支持360度环绕、航拍、变焦等多种运镜技术,生成的视频画质细腻、美感十足。模型广泛用在电商广告、娱乐特效、影视创作、动态壁纸等领域,能有效降低制作成本和周期。
Seedance 1.0 支持文字与图片输入,可生成多镜头无缝切换的 1080p 高品质视频,且主体运动稳定性与画面自然度较高。 相较 Seed 此前发布的视频生成模型,Seedance 1.0 核心亮点如下: • 原生多镜头叙事能力:支持 2-3 个镜头切换的 10 秒视频生成,可进行远中近景画面切换,叙事能力大幅提升; 在第三方评测榜单 Artificial Analysis 上,See
VBench 双榜第一:在 VBench 1.0 和 2.0 都排第一,画面稳定性连 Sora 都要让一分。 1080 p 直接渲染:默认最高 8 秒 1080 p,不用再去 Upscale。 动漫 / LoRA 一键套用:内置 LoRA 效果库,爆款短视频快速起量。 首尾帧接力:把尾帧再丢进去,一镜到底不是事。 内建 48 kHz AI 音效:画面 + 声音一站式搞定,省去到处找 BGM 的麻烦
Seaweed APT2是字节跳动推出的创新的AI视频生成模型,通过自回归对抗后训练(AAPT)技术,将双向扩散模型转化为单向自回归生成器,实现高效、高质量的视频生成。模型能在单次网络前向评估(1NFE)中生成包含多帧视频的潜空间帧,显著降低了计算复杂性,通过输入回收机制和键值缓存(KV Cache)技术,支持长时间视频生成,解决了传统模型在长视频生成中常见的动作漂移和物体变形问题。能在单块GPU
Hailuo 02 是 MiniMax 公司推出的全新AI视频生成模型,是Hailuo 01的升级版本。这个模型目前在图生视频、文生视频的榜单位于第二,超越快手的可灵以及谷歌的Veo3,仅次于字节上周刚刚发布Seedance 1.0 。Hailuo 02在多个方面进行了技术创新,包括底层架构的全面重构,训练和推理效率均提升了2.5倍。Hailuo 02 在复杂指令响应率上达到了85%,显著高于竞品
VFX8 是一站式 AI 制片工场,基于人工智能技术赋能影视制作全流程。用户只需输入一个创意想法,VFX8 能提供从前期策划、分镜头脚本生成、角色设计到视频生成的全流程服务。具备智能分镜制作功能,能批量生成电影级分镜头脚本,确保角色形象的一致性;支持全风格的影视角色设计,满足不同风格需求。VFX8 配备长篇剧集视觉资产管理系统,帮助创作者高效管理剧集的视觉元素,确保风格统一。 VFX8的主要功能
DreamVVT 是字节跳动和清华大学(深圳)联合推出的视频虚拟试穿(Video Virtual Try-On, VVT)技术,基于扩散 Transformer(DiTs)框架,通过两阶段方法实现高保真且时间连贯的虚拟试穿效果。第一阶段从输入视频中采样关键帧,结合视觉语言模型(VLM)生成语义一致的试穿图像;第二阶段利用骨骼图和运动信息,结合预训练视频生成模型,确保视频的动态连贯性。DreamVV
Waver 1.0 是字节跳动推出的新一代视频生成模型,基于修正流 Transformer 架构,支持文本到视频(T2V)、图像到视频(I2V)和文本到图像(T2I)生成,可在单一框架内完成,无需切换模型。支持高达 1080p 的分辨率和 2-10 秒的灵活视频长度,擅长捕捉复杂运动,生成的视频在运动幅度和时间一致性上表现出色。在 Waver-Bench 1.0 和 Hermes 运动测试集上,W
Ray3是Luma AI推出的新一代视频生成模型,具备强大的推理能力和专业级HDR视频生成技术,为视频创作带来了革命性的变化。Ray3能理解图像和语言指令,执行复杂任务,自动评估和优化输出质量,确保生成的视频达到高标准。支持的10位、12位甚至16位色深以及EXR格式输出,生成的视频在色彩和细节上更加丰富和逼真,完美适配专业影视制作和高端内容创作的需求。Ray3引入了草稿模式,可以在短时间内生成视
# Framepack AI:革命性的AI视频生成模型Framepack AI是一种突破性的神经网络结构,用于AI视频生成。它采用创新的“下一帧预测”技术,并结合独特的固定长度上下文压缩机制,使用户能够生成高质量、高帧率(30fps)的视频,长度可达120秒,且硬件门槛极低(仅需配备6GB VRAM的消费级NVIDIA GPU)。## Framepack AI的独特之处是什么?Framepack
lynx 是由字节跳动研发的高保真个性化视频生成模型,仅需输入一张人像照片,即可生成身份高度一致的动态视频。该模型基于扩散 transformer(dit)架构构建,并创新性地引入了 id-adapter 和 ref-adapter 两个轻量级适配模块,分别用于精准控制人物身份和精细保留面部细节。lynx 配备专用人脸编码器提取面部特征,结合 x-nemo 技术增强表情表现力,通过 lbm 算法模
Veo 3.1 是谷歌推出的最新 AI 视频生成模型,在Veo 3基础上进行了重大升级,带来更丰富的音频支持、更强的叙事控制及更逼真的质感还原。通过原生音频生成和更精细的编辑能力,Veo 3.1 让用户能直接在生成阶段完成视频创作,无需后期处理。模型支持多种输入类型,包括文本提示、图像和视频片段,能生成高质量的 720p 或 1080p 视频。Veo 3.1 的目标是简化创意生产流程,为创作者提供
只显示前20页数据,更多请搜索