关键词 "论文" 的搜索结果, 共 21 条, 只显示前 480 条
MirageLSD 是 Decart AI 团队推出的全球首个 Live-Stream Diffusion(实时流扩散)AI 视频模型,能实现无限时长的实时视频生成,延迟低至 40 毫秒以内,支持 24 帧/秒的流畅输出。通过 Diffusion Forcing 技术和历史增强训练,解决了传统自回归模型在长时间生成中的误差累积问题,实现了视频的无限生成。基于Hopper 优化的 Mega Kern
Seed Diffusion是字节跳动Seed团队推出的实验性扩散语言模型,专注于代码生成任务。模型通过两阶段扩散训练、约束顺序学习和强化高效并行解码等关键技术,实现显著的推理加速。模型的推理速度达到2146 tokens/s,比同等规模的自回归模型快5.4倍,在多个代码基准测试中表现与自回归模型相当,在代码编辑任务上超越自回归模型。Seed Diffusion展示了离散扩散模型作为下一代生成模型
AI-Researcher 是香港大学数据科学实验室推出的开源自动化科学研究工具,基于大型语言模型(LLM)代理实现从研究想法到论文发表的全流程自动化。AI-Researcher 支持用户在两种模式下操作:一是提供详细的研究想法描述,系统据此生成实现策略;二是提供参考文献,系统自主生成创新想法实施。平台集成文献综述、想法生成、算法设计与验证、结果分析和论文撰写等核心功能,支持多领域研究,基于开源的
ImageBind是Meta公司推出的开源多模态AI模型,将文本、音频、视觉、温度和运动数据等六种不同类型的信息整合到一个统一的嵌入空间中。模型通过图像模态作为桥梁,实现其他模态数据的隐式对齐,无需直接的模态间配对数据。ImageBind在跨模态检索、零样本分类等任务中展现出色的性能,为创建沉浸式、多感官的AI体验提供新的可能性。 ImageBind的项目地址 项目官网:imagebind
DreamVVT 是字节跳动和清华大学(深圳)联合推出的视频虚拟试穿(Video Virtual Try-On, VVT)技术,基于扩散 Transformer(DiTs)框架,通过两阶段方法实现高保真且时间连贯的虚拟试穿效果。第一阶段从输入视频中采样关键帧,结合视觉语言模型(VLM)生成语义一致的试穿图像;第二阶段利用骨骼图和运动信息,结合预训练视频生成模型,确保视频的动态连贯性。DreamVV
Klear-Reasoner 是快手推出的基于 Qwen3-8B-Base 的推理模型,专注于提升数学和代码推理能力。模型通过长思维链监督微调(long CoT SFT)和强化学习(RL)训练,核心创新是 GPPO算法,通过保留被裁剪的梯度信息,解决传统方法中探索能力受限和负样本收敛慢的问题,在 AIME 和 LiveCodeBench 等基准测试中达到 8B 模型的顶尖水平。Klear-Reas
ToonComposer 是香港中文大学、腾讯 PCG ARC 实验室和北京大学研究人员共同推出的生成式 AI 工具,几秒能将草图转化成专业级动画。ToonComposer基于生成式后关键帧技术,将传统动画制作中的中间帧生成和上色环节整合为自动化过程,仅需一个草图和一个上色参考帧,能生成高质量的动画视频。工具支持稀疏草图注入和区域控制,让艺术家能准控制动画效果,大幅减少人工工作量,提高创作效率,为
Waver 1.0 是字节跳动推出的新一代视频生成模型,基于修正流 Transformer 架构,支持文本到视频(T2V)、图像到视频(I2V)和文本到图像(T2I)生成,可在单一框架内完成,无需切换模型。支持高达 1080p 的分辨率和 2-10 秒的灵活视频长度,擅长捕捉复杂运动,生成的视频在运动幅度和时间一致性上表现出色。在 Waver-Bench 1.0 和 Hermes 运动测试集上,W
OmniHuman-1.5 字节推出的先进的AI模型,能从单张图片和语音轨道生成富有表现力的数字人动画。模型基于双重系统认知理论,融合多模态大语言模型和扩散变换器,模拟人类的深思熟虑和直觉反应。模型能生成动态的多角色动画,支持通过文本提示进行细化,实现更精准的动画效果。OmniHuman-1.5 的动画具有复杂的角色互动和丰富的情感表现,为动画制作和数字内容创作带来全新的可能性,大大提升创作效率和
Seed GR-3 是字节跳动 Seed 团队推出的通用机器人模型,具备高泛化能力、长程任务处理能力和柔性物体操作能力。Seed GR-3融合视觉 – 语言 – 动作信息的“大脑”、三合一数据训练法(机器人数据、VR 人类轨迹数据、公开图文数据)及定制的灵活“身体”ByteMini,实现对新物体、新环境和复杂指令的理解与执行。GR-3 在长序列任务、双臂协同操作和柔性物体操作中表现出色,是迈向通用
微软研究院的一个研究团队探索了使用主动式强化学习(agentic reinforcement learning)来实现这一目标,也就是说,模型会与专用工具环境中的工具进行交互,并根据收到的反馈调整其推理方式。而他们的探索成果便是 rStar2-Agent,这是一种强大的主动式强化学习方法。使用该方法,这个微软团队训练了一个 14B 的推理模型 rStar2-Agent-14B—— 该模型达到前沿级
ROMA是一个元代理框架,它使用递归分层结构来解决复杂问题。通过将任务分解为可并行执行的组件,ROMA 使代理能够应对复杂的推理挑战,同时保持透明性,从而简化上下文工程和迭代。该框架提供并行问题解决功能,代理可以同时处理复杂任务的不同部分;其开发过程透明,结构清晰,易于调试;此外,我们搜索代理的强大基准测试结果也证明了其卓越的性能。我们已经展示了该框架的有效性,但这仅仅是个开始。作为一个开源且可扩
MedResearcher-R1是蚂蚁集团开源的一款Agentic AI,旨在解决医疗领域的“稀疏知识”难题。它摒弃“数据投喂”模式,转而主动“设计”高质量训练:• 智能数据:通过KISA框架,从3000万+文献中筛选罕见实体,生成高难度多步推理任务。• 精准学习:配备优先考虑“权威性”的专用工具,并采用“蒙版引导”及复合奖励函数,训练AI掌握可泛化的“思考方法”。• 卓越表现:仅用约2100条“
YuLan-OneSim(玉兰-万象)是中国人民大学高瓴 AI 学院RUC-GSAI团队推出的新型社会模拟器。基于大型语言模型(LLM)Agents 模拟人类社会行为,无需编程构建模拟场景,基于自然语言交互生成代码。YuLan-OneSim提供50多个涵盖8个主要社会科学领域的默认场景,支持高达10万Agents的大规模模拟,基于外部反馈自动优化LLM。YuLan-OneSim具备AI社会研究者功
SimpleFold 是苹果公司推出的轻量级蛋白质折叠预测 AI 模型。模型基于流匹配(Flow Matching)技术,跳过多序列比对(MSA)等复杂模块,直接从随机噪声生成蛋白质的三维结构,大幅降低计算成本。在 CAMEO22 和 CASP14 等权威基准测试中,SimpleFold 表现出色,无需昂贵的多序列比对和三角注意机制,能达到与顶尖模型(如 AlphaFold2、RoseTTAFol
CWM(Code World Model)是 Meta 开源的一个拥有 320 亿参数的代码语言模型。它率先将“世界模型”的概念引入代码生成领域,让模型能够通过模拟代码执行过程,更深层次地理解和生成代码,而不仅仅是基于模式匹配。CWM 在多项基准测试中表现出色,例如在 Math-500 数据集上取得了 96.6% 的准确率。该模型的权重已公开,旨在推动代码生成和理解领域的研究,并帮助开发者更高效地
Qianfan-VL 是百度智能云千帆专为企业级多模态应用场景打造的视觉理解大模型。它提供 3B、8B 和 70B 三种尺寸,不仅具备出色的通用能力,还针对 OCR、教育等垂直领域进行了专项强化。该模型基于开源模型,并在百度自研的昆仑芯 P800 上完成了全流程计算任务,展现出卓越的性能和效率。核心功能多尺寸模型:提供从轻量级到大规模的三种版本,满足不同企业和开发者的需求,适用于各种场景,从端上实
LatticeWorld 是一个开创性的多模态 3D 世界生成框架,由网易、香港城市大学、北京航空航天大学、清华大学等机构共同推出。它将大语言模型与工业级 3D 渲染引擎 Unreal Engine 5(UE5)相结合,能通过简单的文本描述和视觉指令,快速生成具备高动态环境、真实物理仿真和实时渲染的大规模交互式 3D 世界。与传统手工创作相比,LatticeWorld 的效率提升超过 90 倍,且
GDPval 是由 OpenAI 推出的一个全新评估框架,旨在衡量 AI 模型在真实经济价值任务上的表现。该框架从对美国 GDP 贡献最大的 9 个行业中,选取了 44 种职业,设计了 1320 个贴近实际工作场景的真实任务(其中 220 个已开源)。这些任务涵盖了软件开发、法律文书、机械工程、护理计划等多个领域。每项任务都由平均拥有 14 年经验的专业人士设计和审核,确保评估结果能真实反映 AI
SOM AI 是一款专为学生设计的 AI 辅助学术写作工具,旨在帮助您更轻松地完成**毕业论文(Skripsi)**和日常学术研究。它基于自然的语言交互,通过提供一系列功能,帮助您应对学术写作中的各种挑战。这款工具能有效缓解写作压力,同时帮助您避免抄袭、快速理解复杂的学术内容。无论您是在进行毕业论文的头脑风暴,还是需要整理日常作业,SOM AI 都是一个实用且高效的学习助手。核心功能研究主题头脑风
WonderPlay:WonderPlay 是由斯坦福大学和犹他大学共同推出的一款创新型框架,它能将一张静态图片和用户自定义的动作,转化为一个动态的 3D 场景。该框架的核心在于其独特的物理模拟与视频生成闭环技术。它首先利用物理求解器模拟粗略的 3D 动态,然后驱动视频生成器合成更逼真的视频,最后用生成的视频来更新 3D 场景。这种“模拟与生成”的循环,确保了最终效果既符合物理规律,又具备极高的视
只显示前20页数据,更多请搜索
Showing 289 to 309 of 309 results