关键词 "fusion cuisine" 的搜索结果, 共 24 条, 只显示前 480 条
组织病理学图像可以使用 CNN 或 GCN 进行处理,以提高参数效率,也可以两者结合使用。该设置适用于将多种组学模式与组织病理学整合,并可用于改进诊断、预后和治疗反应的评估。
简单好用的在线生图工具:操作界面友好且直观,即使是艺术创作的新手也能快速上手,提供经典的输入框提示词生图和基于ComfyUI的工作流两种生图模式。 吐司TusiArt是上海必有回响智能科技推出的一个AI绘画模型分享社区和在线生图平台,吐司TusiArt不仅提供了一个方便用户下载和体验各种AI绘画模型的渠道,还允许用户在不安装任何额外软件或硬件的情况下,免费在线运行这些模型进行图片生成。吐司Tus
skyreels-极速短视频制作软件,智能AI技术,文字转短视频,一键生成小说推文视频,逼真视频.自媒体及个人可以高效快速智能的制作生动有趣的短视频作品,号称能连续生成长视频。 昆仑万维SkyReels团队正式发布并开源SkyReels-V2——全球首个使用扩散强迫(Diffusion-forcing)框架的无限时长电影生成模型,其通过结合多模态大语言模型(MLLM)、多阶段预训练(Multi-
国产 Magi-1,在物理真实性上,断层第一,能够无限制生成长视频。 它采用的是一种叫做 chunk-by-chunk 的自回归生成 方法。视频被划分为一个个时间片段(chunk),每段比如 24 帧,相当于 1 秒的视频。 每生成一段,才会进入下一段。下一段的内容,要基于上一段的内容来生成。Magi-1 的结构不是从 Diffusion Transformer 拿过来直接用,而是在 atten
sand.ai是清华大学曹越教授团队创立的视频生成AI平台,目前刚刚开源了全球首个自回归扩散视频生成模型 Magi-1 ,生成长视频效果在行业领先。 马尔奖、清华特奖得主曹越的创业公司 Sand AI 推出了自己的视频生成大模型 ——MAGI-1,该模型权重和代码完全开源,支持无限生成,能将生成时长精确控制到每一秒,在基准测试中更是吊打 Sora,领先了 5 倍。
潮汐AIGC问答系统,聚合多模态大模型、知识库、插件和工作流等 Agent 构建能力,致力于为用户提供 LLM 大语言模型落地应用的强大在线平台。 新版本采用 Gin + Vite5 TypeScript Vue3 技术栈,拥有极致的响应速度;在更简洁的界面下保留完整功能,拥有更多的细节但是更加轻量化,拥有新的UI及交互方式,内置6组不同风格的显示效果,以及更流畅的使用体验。 AI对话
The awesome MCP servers powered by fusion
This project provides an HTTP server for image generation using Stable Diffusion, along with a Model Context Protocol (MCP) server that enables AI agents to request image generation.
An MCP server to connect Claude Desktop with local Stable Diffusion WebUI
A model context protocol (MCP) server for Autodesk Fusion that provides resources and tools from ADSK to an AI client such as Claude or Cursor.
Remote control solution for Fusion 360 using client-server architecture. Features JSON socket communication, modular design with Python server and client library, plus Fusion 360 add-in. Enables comma
A Model Context Protocol (MCP) server for interacting with DaVinci Resolve and Fusion
Instead of dumping 100+ tools into a model’s prompt and expecting it to choose wisely, the Unified MCP Tool Graph equips your LLM with structure, clarity, and relevance. It fixes tool confusion, preve
DiffuGen is a powerful yet user-friendly interface for local\edge image generation. Built on the Model Control Protocol (MCP), it provides a seamless way to interact with various Stable Diffusion mode
Simple MCP Server to generate iamges using Stable Diffusion
A MCP server that provides text-to-image generation capabilities using Stable Diffusion WebUI API (ForgeUI/AUTOMATIC-1111)
昆仑万维正式开源(17B+)Matrix-Game大模型,即Matrix-Zero世界模型中的可交互视频生成大模型。Matrix-Game是Matrix系列在交互式世界生成方向的正式落地,也是工业界首个开源的10B+空间智能大模型,它是一个面向游戏世界建模的交互式世界基础模型,专为开放式环境中的高质量生成与精确控制而设计。 空间智能作为AI时代的重要前沿技术,正在重塑我们与虚拟世界的
DreamFit是什么 DreamFit是字节跳动团队联合清华大学深圳国际研究生院、中山大学深圳校区推出的虚拟试衣框架,专门用在轻量级服装为中心的人类图像生成。框架能显著减少模型复杂度和训练成本,基于优化文本提示和特征融合,提高生成图像的质量和一致性。DreamFit能泛化到各种服装、风格和提示指令,生成高质量的人物图像。DreamFit支持与社区控制插件的无缝集成,降低使用门槛。 Dre
VACE(Video Creation and Editing)是阿里巴巴通义实验室推出的一站式视频生成与编辑框架。基于整合多种视频任务(如参考视频生成、视频到视频编辑、遮罩编辑等)到一个统一模型中,实现高效的内容创作和编辑功能。VACE的核心在于Video Condition Unit(VCU),将文本、图像、视频和遮罩等多种模态输入整合为统一的条件单元,支持多种任务的灵活组合。开源的 Wan2
WorldMem 是南洋理工大学、北京大学和上海 AI Lab 推出的创新 AI 世界生成模型。模型基于引入记忆机制,解决传统世界生成模型在长时序下缺乏一致性的关键问题。在WorldMem中,智能体在多样化场景中自由探索,生成的世界在视角和位置变化后能保持几何一致性。WorldMem 支持时间一致性建模,模拟动态变化(如物体对环境的影响)。模型在 Minecraft 数据集上进行大规模训练,在真实
Sketch2Anim 是爱丁堡大学联合Snap Research、东北大学推出的自动化框架,能将2D草图故事板直接转换为高质量的3D动画。基于条件运动合成技术,用3D关键姿势、关节轨迹和动作词精确控制动画的生成。框架包含两个核心模块,多条件运动生成器和2D、3D神经映射器。Sketch2Anim能生成自然流畅的3D动画,支持交互式编辑,极大地提高动画制作的效率和灵活性。 Sketch2Anim
BILIVE 是基于 AI 技术的开源工具,专为 B 站直播录制与处理设计。工具支持自动录制直播、渲染弹幕和字幕,支持语音识别、自动切片精彩片段,生成有趣的标题和风格化的视频封面。BILIVE 能自动将处理后的视频投稿至 B 站,综合多种模态模型,兼容超低配置机器,无需 GPU 即可运行,适合个人用户和小型服务器使用。 1. Introduction Have you notice
只显示前20页数据,更多请搜索
Showing 169 to 192 of 201 results