腾讯混元图像2.0模型(Hunyuan Image2.0),AI图像生成进入“毫秒级”时代。
模型主要有两大特点:实时生图、超写实画质。
(👇https://hunyuan.tencent.com/)
速度快
相比前代模型,腾讯混元图像2.0模型参数量提升了一个数量级,得益于超高压缩倍率的图像编解码器以及全新扩散架构,其生图速度显著快于行业领先模型,在同类商业产品每张图推理速度需要5到10秒的情况下,腾讯混元可实现毫秒级响应,支持用户可以一边打字或者一边说话一边出图,改变了传统“抽卡—等待—抽卡”的方式,带来交互体验革新。
超写实画质
除了速度快以外,腾讯混元图像2.0模型图像生成质量提升明显,通过强化学习等算法以及引入大量人类美学知识对齐,生成的图像可有效避免AIGC图像中的“AI味”,真实感强、细节丰富、可用性高。
在图像生成领域专门测试模型复杂文本指令理解与生成能力的评估基准
GenEval(Geneval Bench)上,腾讯混元图像2.0模型准确率超过95%,远超其他同类模型。
一起来看看模型生成的图片:
人像摄影风格
动物特写
复古摄影
动漫风格
真实人物风格
相关推荐

IFAdapter
<p>IFAdapter是一种新型的文本到图像生成模型,由腾讯和新加坡国立大学共同推出。提升生成含有多个实例的图像时的位置和特征准确性。传统模型在处理多实例图像时常常面临定位和特征准确性的挑战,IFAdapter通过引入两个关键组件外观标记(Appearance Tokens)和实例语义图(Instance Semantic Map)解决问题。外观标记用于捕获描述中的详细特征信息,实例语义图则将特征与特定空间位置对齐,增强模型对实例特征的控制能力。IFAdapter的设计支持作为一个即插即用的模块,轻松集成到各种预训练的扩散模型中,无需重新训练,能为不同的社区模型提供灵活的空间控制能力。</p> <p><img src="https://img.medsci.cn/aisite/img//V5UUkzQblCcgZq9cI4SGAO1SI3HUK9wyt4Lgp35v.png"></p> <h2 style="font-size: 20px;">IFAdapter的主要功能</h2> <ul> <li>实例特征生成:确保生成的图像中的每个实例在空间位置上准确无误,并具有高保真的特征细节。</li> <li>即插即用模块:作为一个独立的模块,轻松集成到各种预训练的扩散模型中,无需对主模型进行重新训练。</li> <li>空间控制:提供精确的空间控制信号,改善实例的定位。</li> </ul> <h2 style="font-size: 20px;">IFAdapter的技术原理</h2> <ul> <li>外观标记(Appearance Tokens):基于可学习的外观查询与描述的交叉注意力交互,提取特定于实例的高频特征信息,形成外观标记,标记有助于生成更精细的实例特征。</li> <li>实例语义图(Instance Semantic Map, ISM):构建一个2D语义地图,将实例特征与在图像中的指定位置关联起来,提供更强的空间先验,防止特征混淆和泄漏。</li> <li>门控语义融合:在实例重叠的区域,用特征融合机制解决特征冲突,确保视觉特征由最靠前的实例主导。</li> <li>即插即用设计:IFAdapter作为一个独立的模块,通过交叉注意力层集成到不同的扩散模型中,实现对生成过程的精细控制。</li> <li>训练策略:在训练过程中,IFAdapter的参数被训练适应特定的任务,而基础模型的参数则保持冻结,在不破坏原有模型性能的前提下增强模型的控制能力。</li> </ul> <h2 style="font-size: 20px;">IFAdapter的项目地址</h2> <ul> <li>项目官网:<a class="external" href="https://ifadapter.github.io/?utm_source=ai-bot.cn" target="_blank" rel="noopener nofollow">ifadapter.github.io</a></li> <li>GitHub仓库:<a class="external" href="https://github.com/WUyinwei-hah/IFAdapter" target="_blank" rel="noopener nofollow">https://github.com/WUyinwei-hah/IFAdapter</a>(即将开放)</li> <li>arXiv技术论文:<a class="external" href="https://arxiv.org/pdf/2409.08240v1" target="_blank" rel="noopener nofollow">https://arxiv.org/pdf/2409.08240v1</a></li> </ul> <h2 style="font-size: 20px;">IFAdapter的应用场景</h2> <ul> <li>图形设计:在设计徽标、海报、邀请函等时,设计师用IFAdapter生成具有特定风格和布局要求的图像。</li> <li>时尚设计:设计师用IFAdapter创建服装或配饰的逼真效果图,展示不同的颜色、纹理和样式。</li> <li>游戏开发:在游戏设计中,IFAdapter帮助艺术家生成具有特定特征的游戏元素或背景。</li> <li>虚拟现实和增强现实:在VR/AR环境中,IFAdapter生成符合特定空间布局和风格要求的虚拟场景。</li> </ul>

Nexus-Gen
<div class="markdown-heading" dir="auto"> <p>Nexus-Gen:图像理解、生成和编辑的统一模型,开源届的GPT-4o平替</p> <a id="user-content-nexus-gen-a-unified-model-for-image-understanding-generation-and-editing" class="anchor" href="https://github.com/modelscope/Nexus-Gen#nexus-gen-a-unified-model-for-image-understanding-generation-and-editing" aria-label="永久链接:Nexus-Gen:图像理解、生成和编辑的统一模型"></a></div> <div dir="auto" align="center"> <p> </p> </div> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">待办事项</h2> <a id="user-content-todo" class="anchor" href="https://github.com/modelscope/Nexus-Gen#todo" aria-label="永久链接:TODO"></a></div> <ul class="contains-task-list"> <li class="task-list-item"><input id="" class="task-list-item-checkbox" checked="checked" disabled="disabled" type="checkbox">发布训练和推理代码。</li> <li class="task-list-item"><input id="" class="task-list-item-checkbox" checked="checked" disabled="disabled" type="checkbox">发布模型检查点。</li> <li class="task-list-item"><input id="" class="task-list-item-checkbox" checked="checked" disabled="disabled" type="checkbox">发布技术报告。</li> <li class="task-list-item"><input id="" class="task-list-item-checkbox" disabled="disabled" type="checkbox">发布训练数据集。</li> </ul> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">什么是Nexus-Gen</h2> <a id="user-content-what-is-nexus-gen" class="anchor" href="https://github.com/modelscope/Nexus-Gen#what-is-nexus-gen" aria-label="永久链接:什么是 Nexus-Gen"></a></div> <p>Nexus-Gen 是一个统一模型,它将 LLM 的语言推理能力与扩散模型的图像合成能力协同起来。为了对齐 LLM 和扩散模型的嵌入空间,我们进行了双阶段对齐训练。(1) 自回归 LLM 学习预测基于多模态输入的图像嵌入;(2) 视觉解码器则被训练从这些嵌入中重建高保真图像。在训练 LLM 的过程中,我们发现自回归范式的训练阶段和推理阶段之间存在一个关键差异,即连续嵌入空间中的误差累积严重降低了生成质量。为了避免这个问题,我们引入了一种预填充自回归策略,该策略使用位置嵌入的特殊标记(而非连续嵌入)预填充输入序列。通过双阶段训练,Nexus-Gen 已开发出能够全面解决图像理解、生成和编辑任务的集成能力,具体如下。 <a href="https://github.com/modelscope/Nexus-Gen/blob/main/assets/illustrations/gen_edit.jpg" target="_blank" rel="noopener noreferrer"><img style="display: block; margin-left: auto; margin-right: auto;" src="https://github.com/modelscope/Nexus-Gen/raw/main/assets/illustrations/gen_edit.jpg"></a> <a href="https://github.com/modelscope/Nexus-Gen/blob/main/assets/illustrations/architecture.png" target="_blank" rel="noopener noreferrer"><img style="display: block; margin-left: auto; margin-right: auto;" src="https://github.com/modelscope/Nexus-Gen/raw/main/assets/illustrations/architecture.png"></a></p> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">入门</h2> <a id="user-content-getting-started" class="anchor" href="https://github.com/modelscope/Nexus-Gen#getting-started" aria-label="永久链接:入门"></a></div> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">安装</h3> <a id="user-content-installation" class="anchor" href="https://github.com/modelscope/Nexus-Gen#installation" aria-label="永久链接:安装"></a></div> <ol dir="auto"> <li>从源安装<a href="https://github.com/modelscope/DiffSynth-Studio.git">DiffSynth-Studio</a>:</li> </ol> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>git clone https://github.com/modelscope/DiffSynth-Studio.git cd DiffSynth-Studio pip install -e .</pre> <div class="zeroclipboard-container"> </div> </div> <ol dir="auto" start="2"> <li>安装要求</li> </ol> <div class="snippet-clipboard-content notranslate position-relative overflow-auto"> <pre class="notranslate"><code>pip install -r requirements.txt </code></pre> <div class="zeroclipboard-container"> </div> </div> <ol dir="auto" start="3"> <li>如果您想在 Nexus-Gen 上执行微调,请安装<a href="https://github.com/modelscope/ms-swift.git">ms-swift 。</a></li> </ol> <div class="snippet-clipboard-content notranslate position-relative overflow-auto"> <pre class="notranslate"><code>pip install ms-swift -U </code></pre> <div class="zeroclipboard-container"> </div> </div> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">准备模型</h3> <a id="user-content-prepare-models" class="anchor" href="https://github.com/modelscope/Nexus-Gen#prepare-models" aria-label="永久链接:准备模型"></a></div> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>python download_models.py</pre> <div class="zeroclipboard-container"> </div> </div> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">图像理解</h3> <a id="user-content-image-understanding" class="anchor" href="https://github.com/modelscope/Nexus-Gen#image-understanding" aria-label="永久链接:图像理解"></a></div> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>python image_understanding.py</pre> <div class="zeroclipboard-container"> </div> </div> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">图像生成</h3> <a id="user-content-image-generation" class="anchor" href="https://github.com/modelscope/Nexus-Gen#image-generation" aria-label="永久链接:图像生成"></a></div> <p>生成带有详细提示的图像。(需要至少 37 GB 显存)</p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>python image_generation.py</pre> <div class="zeroclipboard-container"> </div> </div> <p>使用 Nexus-Gen 完善提示并生成图像。</p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>image_generation_with_selfpolish.py</pre> <div class="zeroclipboard-container"> </div> </div> <p>通过 CPU 卸载,使用更少的 VRAM 生成图像。(需要至少 24 GB VRAM)</p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>python image_generation_offload.py</pre> <div class="zeroclipboard-container"> </div> </div> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">图像编辑</h3> <a id="user-content-image-editing" class="anchor" href="https://github.com/modelscope/Nexus-Gen#image-editing" aria-label="永久链接:图像编辑"></a></div> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>python image_editing.py</pre> <div class="zeroclipboard-container"> </div> </div> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">Gradio 演示</h3> <a id="user-content-gradio-demo" class="anchor" href="https://github.com/modelscope/Nexus-Gen#gradio-demo" aria-label="永久链接:Gradio 演示"></a></div> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>python app.py</pre> <div class="zeroclipboard-container"> </div> </div> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">训练代码</h3> <a id="user-content-training-codes" class="anchor" href="https://github.com/modelscope/Nexus-Gen#training-codes" aria-label="永久链接:培训代码"></a></div> <p>Nexus-Gen 基于<a href="https://github.com/modelscope/ms-swift.git">ms-swift</a>和<a href="https://github.com/modelscope/DiffSynth-Studio.git">DiffSynth-Studio</a><code>train/scripts/train_decoder.sh</code>进行训练。您可以在和 中找到训练脚本<code>train_llm.sh</code>。</p> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">引文</h3> <a id="user-content-citation" class="anchor" href="https://github.com/modelscope/Nexus-Gen#citation" aria-label="永久链接:引用"></a></div> <div class="snippet-clipboard-content notranslate position-relative overflow-auto"> <pre class="notranslate"><code>@article{zhang2025nexus-gen, title={Nexus-Gen: A Unified Model for Image Understanding, Generation, and Editing}, author={Hong Zhang and Zhongjie Duan and Xingjun Wang and Yingda Chen and Yuze Zhao and Yu Zhang}, journal={arXiv preprint arXiv:2504.21356}, year={2025} }</code></pre> </div>

Lovart
<h1>Lovart 全球首个设计 Agent 体验</h1> <section><span data-pm-slice="1 1 [&quot;para&quot;,{&quot;tagName&quot;:&quot;p&quot;,&quot;attributes&quot;:{&quot;style&quot;:&quot;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;font-size: 15px;line-height: 2em;font-family: \&quot;PingFang SC\&quot;, system-ui, -apple-system, BlinkMacSystemFont, \&quot;Helvetica Neue\&quot;, \&quot;Hiragino Sans GB\&quot;, \&quot;Microsoft YaHei UI\&quot;, \&quot;Microsoft YaHei\&quot;, Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;&quot;},&quot;namespaceURI&quot;:&quot;http://www.w3.org/1999/xhtml&quot;},&quot;node&quot;,{&quot;tagName&quot;:&quot;span&quot;,&quot;attributes&quot;:{&quot;style&quot;:&quot;color: rgb(31, 35, 41);&quot;},&quot;namespaceURI&quot;:&quot;http://www.w3.org/1999/xhtml&quot;}]">Lovart 的三个特点:</span></section> <h3>一、全链路设计和执行,一句话搞定</h3> <p>以前的文生图工具,它们所提供的任务是&ldquo;生成图片&rdquo;这一环。</p> <p>而设计 Agent,则像一位&ldquo;设计执行官&rdquo;,覆盖从创意拆解到专业交付的整个视觉流程。</p> <p>从意图拆解 &rarr; 任务链 &rarr; 最后成品,一句话全搞定。</p> <p>单次可以执行上百步,最多可以一次产出40张设计成品图。</p> <p>比如,我可以让它根据我家猫的照片做一套银渐层表情包,它会自己设计表情,挨个生图,还可以全部编辑,一键做出所有表情包的黑底渐变色版本。</p> <p>&nbsp;</p> <section><img class="qnt-img-img qnr-img-lazy-load-img" src="https://inews.gtimg.com/om_bt/ORPkpWhOF_KMtPcoydMfk6zoBDmmg3KCqFlEd7j2vFDVIAA/1000" alt="图片" data-src="https://inews.gtimg.com/om_bt/ORPkpWhOF_KMtPcoydMfk6zoBDmmg3KCqFlEd7j2vFDVIAA/1000"></section> <p>Prompt:</p> <p>Use the cat in this picture as a template to design a set of 12 silver gradient emoji packs. Style 3D cartoon, to express the most popular and trendy emoji this year.</p> <p>&nbsp;</p> <p>再比如,为宣传智能家居扬声器的 30 秒视频广告创建一个 6 帧故事板。</p> <p>它会先根据需求,写出故事,然后开始进行角色设计。</p> <p>完成之后,会进行关键场景的设计。</p> <p>在最后把场景填充到故事板里,为每个画面配上光线、摄影机移动等信息。</p> <p><img class="qnt-img-img qnr-img-lazy-load-img" src="https://inews.gtimg.com/om_bt/G2tapNA9henwcYDaY6W7SIIYNY93t5vys-950CiJWwTkcAA/0" alt="图片" data-src="https://inews.gtimg.com/om_bt/G2tapNA9henwcYDaY6W7SIIYNY93t5vys-950CiJWwTkcAA/0"></p> <p data-pm-slice="0 0 []">Prompt:</p> <p>Create a 6-frame storyboard for a 30-second video ad promoting a smart home speaker.</p> <p>Scene progression:</p> <p>Modern living room, family interacting</p> <p>Voice command to the speaker</p> <p>Music starts playing</p> <p>Speaker answers a question</p> <p>Lighting adjusts automatically</p> <p>Close-up of product and brand tagline</p> <p>Style: clean, semi-realistic illustration, soft light.</p> <p>&nbsp;</p> <h3>二、图像视频音乐,自由调度</h3> <p>只有具备了充足的工具箱,<span data-pm-slice="1 1 [&quot;para&quot;,{&quot;tagName&quot;:&quot;p&quot;,&quot;attributes&quot;:{&quot;style&quot;:&quot;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;font-size: 15px;line-height: 2em;font-family: \&quot;PingFang SC\&quot;, system-ui, -apple-system, BlinkMacSystemFont, \&quot;Helvetica Neue\&quot;, \&quot;Hiragino Sans GB\&quot;, \&quot;Microsoft YaHei UI\&quot;, \&quot;Microsoft YaHei\&quot;, Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;&quot;},&quot;namespaceURI&quot;:&quot;http://www.w3.org/1999/xhtml&quot;},&quot;node&quot;,{&quot;tagName&quot;:&quot;span&quot;,&quot;attributes&quot;:{&quot;style&quot;:&quot;color: rgb(31, 35, 41);&quot;},&quot;namespaceURI&quot;:&quot;http://www.w3.org/1999/xhtml&quot;}]">Agent 才能更全面地完成任务。</span></p> <p>Lovart 集成了一系列前沿的 AI 模型,比如 GPT image-1, Flux pro, OpenAI-o3, Gemini Imagen 3, Kling AI, Tripo AI, Suno AI等。</p> <p>设计师可以在一个统一的界面内完成设计、编辑与生成,再也不必在多个软件和模型之间来回切换。</p> <p>我让它设计一个 "VIVIDPIX "的新生活科技品牌,并创建跨媒体发布活动。</p> <p>它不仅设计了logo、海报、周边,还用可灵制作了3D版本的logo动画,用suno制作了bgm。</p> <p>由于所有的模型都拥有相同的 Context 上下文,配合起来丝滑无缝。</p> <section><img class="qnt-img-img qnr-img-lazy-load-img" src="https://inews.gtimg.com/om_bt/GCAo0LAx9FNM5OxMeFJpzbuSnyZ4legCKsC_oEMyW6mHcAA/0" alt="图片" data-src="https://inews.gtimg.com/om_bt/GCAo0LAx9FNM5OxMeFJpzbuSnyZ4legCKsC_oEMyW6mHcAA/0"></section> <p>Prompt:</p> <p data-pm-slice="0 0 []">Prompt:</p> <p>Create a cross-media launch campaign for a new lifestyle tech brand called &ldquo;VIVIDPIX&rdquo;.</p> <p>Visuals: Design two main brand posters in different styles (futuristic minimalism and playful retro), including editable text layers and logo integration.</p> <p>Video/3D: Generate a dynamic 10-second video loop of the brand logo morphing in 3D space, with smooth, modern animation, suitable for website and social sharing. Leverage Kling or equivalent video/animation AI tools.</p> <p>Music: Compose an original 15-second catchy theme music that matches the brand&rsquo;s energetic and optimistic tone. Use Suno or other advanced AI music models.</p> <p>Packaging: Output a box and product mockup, harmonizing visuals across all touchpoints.</p> <p>Canvas: Bring all assets together onto a single editable Lovart canvas, allowing for integrated fine-tuning and end-to-end brand asset delivery.</p> <p>All elements&mdash;visuals, video, music, packaging&mdash;should have a cohesive color palette and brand personality, and be ready to use for a multi-platform product launch.</p> <p>&nbsp;</p> <h3>三、生成结果自动分图层,随心修改</h3> <p>在海报的生成中,最大的痛点是文字后期的编辑,Lovart 很好地解决了这一痛点。</p> <p>举例来说,我这里要为一种新的植物蛋白饮料设计一张宣传海报。</p> <p>一分钟后,它就生成了左侧的标准海报,同时在右侧附上了图文分离的版本。</p> <p>现在我可以自由修改文字的内容、大小、颜色,真的太方便了。</p> <section><img class="qnt-img-img qnr-img-lazy-load-img" src="https://inews.gtimg.com/om_bt/GzxWhUIVamAgAR50Ayk23PIkiTk6CwOeHZ3-GL7UhzA9EAA/0" alt="图片" data-src="https://inews.gtimg.com/om_bt/GzxWhUIVamAgAR50Ayk23PIkiTk6CwOeHZ3-GL7UhzA9EAA/0"></section> <p data-pm-slice="0 0 []">Prompt:</p> <p>Design a promotional poster for a new plant-based protein drink.</p> <p>Style: vibrant and energetic, modern editorial layout.</p> <p>Color palette: green, cream, and orange.</p> <p>Text: &ldquo;Fuel Your Day, Naturally&rdquo;.</p> <p>Aspect ratio: 3:4, for Instagram feed.</p> <p>Include editable text layers.</p> <p>&nbsp;</p> <h2>使用小技巧:</h2> <p>在使用 Lovart 的过程中也发现了一些小心得,在这里分享给大家:</p> <ol class="list-paddingleft-1"> <li> <section>1.&nbsp;Lovart 内置了很多图像、视频、音乐模型,但并不是每个模型都对中文支持够好,所以使用英文进行提示词会获得最佳体验。</section> </li> <li> <section>2.&nbsp;设计的起点是需求,只有把需求描述好,Agent 才能设计好,所以建议在发布任务之前,先和 AI 聊一下需求,让 AI 输出最后的提示词。提示词里可以包含风格、颜色、文字、比例等结构化信息,结构化信息本身是对复杂需求的一种拆解,这样写出来的提示词,Lovart 在执行的时候效果也最好。</section> </li> <li> <section>3.&nbsp;如果需要独立的文字图层,只需要在指令中加上这句话即可: Include editable text layers.</section> </li> </ol> <p>&nbsp;</p> <h2>结语</h2> <p>Lovart 的出现,代表 AI 在设计领域的角色,正在从单纯的&ldquo;图像生成器&rdquo;向更深层次的&ldquo;设计执行官&rdquo;转变。</p> <p>它试图解决的,不仅仅是&ldquo;画出一张图&rdquo;,更是&ldquo;完成一个设计任务&rdquo;的问题。</p> <p>&nbsp;</p> <p>有人曾问我,4o 生图的出现是否会干掉图像的工作流。</p> <section>我所看到的情况,不是干掉,而是解放。</section> <section>这种解放,将图像工作流推向设计 Agent 的新范式。</section> <section></section> <section>技术的发展总是在不断挑战我们的想象边界。</section> <p>当 AI Agent 开始尝试理解并执行更复杂的设计流程时,</p> <p>我们与 AI ,<span data-pm-slice="0 0 []">也将迎来全新的</span>协作方式。</p>

MD2Card
Supporting multiple themes, automatic long text splitting, one-click image export, making your content creation easier and more efficient. Completely free, start using now! MD2Card is a simple and easy-to-use Markdown to knowledge card tool, supporting multiple beautiful styles, helping you quickly create beautiful knowledge cards. Whether it's study notes, knowledge organization, or content sharing, it's easy to handle. MD2Card 是一款简洁易用的 Markdown 转知识卡片工具,支持多种精美样式,帮你快速制作精美的知识卡片。无论是学习笔记、知识整理,还是内容分享,都能轻松搞定。

xstech.one
基于midjourney,GPT-4o等大语言模型为基座,进一步完善应用开发的xstech.one,能生成海报,支持中文。不仅可以打开就用现成的Prompt对话,也提供了绘图类的prompt生成器,可以直接绘图。

HiDream-I1
HiDream-I1是vivago.ai公司最新开源图像生成基础模型,拥有 17B 参数,可在数秒内达到最先进的图像生成质量。

TusiArt
<p>简单好用的在线生图工具:操作界面友好且直观,即使是艺术创作的新手也能快速上手,提供经典的输入框提示词生图和基于ComfyUI的工作流两种生图模式。</p> <p><a href="https://tusiart.com/?utm_source=medsci" target="_blank" rel="noopener">吐司TusiArt</a>是上海必有回响智能科技推出的一个AI绘画模型分享社区和在线生图平台,吐司TusiArt不仅提供了一个方便用户下载和体验各种AI绘画模型的渠道,还允许用户在不安装任何额外软件或硬件的情况下,免费在线运行这些模型进行图片生成。吐司TusiArt为用户提供了丰富的模型选择,无论是专业艺术家还是业余爱好者,都能在这个平台上找到适合自己的创作工具。</p> <p> </p> <h2 style="font-size: 20px;">吐司TusiArt的主要功能</h2> <ul class="text-md"> <li>简单好用的在线生图工具:操作界面友好且直观,即使是艺术创作的新手也能快速上手,提供经典的输入框提示词生图和基于ComfyUI的工作流两种生图模式。</li> <li>开放的模型分享平台:所有模型不仅能下载还能在线运行,无需昂贵的硬件支持就能享受高质量的AI绘画体验,在移动设备上,用户也能轻松运行这些AI模型。</li> <li>海量庞大的模型库:平台支持的AI模型多样化,覆盖了从动漫风格到现实主义的各种绘画风格,让用户能够根据自己的喜好或项目需求选择合适的模型。</li> <li>社区互动分享:用户可以将生成的图片作品一键分享到社区,与其他用户分享艺术灵感和成果。社区内的作品还能一键做同款,制作与他人作品风格相似的图片。</li> <li>在线训练模型:允许用户上传自己的照片或图像,来训练和定制专属于自己的AI艺术模型</li> </ul> <p> </p> <h2 style="font-size: 20px;">如何使用吐司TusiArt</h2> <ol class="text-md"> <li>访问吐司TusiArt的官网(<a href="https://tusiart.com/?utm_source=medsci" target="_blank" rel="noopener">tusiart.com</a>),点击右上角的登录按钮</li> <li>登录成功后返回主页,点击在线生图-经典模式</li> <li>以文生图为例,选择模型、VAE、输入提示词,并设置图片大小、采样算法等参数</li> <li>最后点击在线生成按钮,等待片刻,图片便能生成啦</li> </ol> <h2 style="font-size: 20px;">吐司TusiArt的产品价格</h2> <ul class="text-md"> <li>免费版:每日赠送100算力,可进行和排队生图任务1个、单次最多生成2张图片、高清修复分辨率上限为207万像素(1920 * 1080)、高清/采样步数上线为30步、LoRA+ControlNet上限为3个、历史记录保存14天、模型需公开、每日发帖10个、并行训练任务1个</li> <li>付费会员版:每日可获得300算力,价格为1日体验3元(额外赠送100算力)、30日24.9元(额外赠送1000算力)、90日39.9元(额外赠送5000算力)。可并行生图任务3个、排队生图任务10个、单次最多生成4张图片、高清修复分辨率上限为830万像素(3840 * 2160)、高清/采样步数上线为60步、LoRA+ControlNet上限为6个、历史记录保存60天、模型可仅自己可见、每日发帖20个、并行训练任务2个</li> </ul> <h2 style="font-size: 20px;">常见问题</h2> <div id="accordion"> <div class="card"> <div class="card-header">吐司TusiArt是免费的吗?</div> <div class="card-body text-sm">吐司TusiArt提供免费版本,每日免费赠送100算力。</div> </div> <div class="card"> <div class="card-header">吐司TusiArt支持哪些平台?</div> <div class="card-body text-sm">吐司TusiArt支持通过在线网页版、微信小程序和iOS APP使用。</div> </div> <div class="card"> <div class="card-header">吐司TusiArt基于什么大模型?</div> <div class="card-body text-sm">吐司TusiArt基于Stable Diffusion、FLUX等图片生成模型。</div> </div> </div>

Illustrate AI
Unleash your creativity with Illustrate AI, the innovative tool designed to elevate your design process. This advanced AI-driven platform enables artists and designers of all skill levels to transform their ideas into stunning visual creations effortlessly. 使用 Illustrate AI 释放您的创造力,这是一款旨在提升设计流程的创新工具。这款先进的 AI 驱动平台使各种技能水平的艺术家和设计师都能轻松将他们的想法转化为令人惊叹的视觉作品。

Jimeng AI
AI tool for instant video creation from text and images. 即梦AI是一个AI创作平台,可激发艺术创意、提升绘画和视频创作体验。您可以利用AI智能,将想象变为现实。即梦AI支持文字绘图、文字生成视频和图片生成视频,并提供创作灵感。让即梦AI开启您的AI生成艺术之旅,探索创造的无限可能!

mixart.ai
Instantly Transform and Generate Photos with Mixart.ai Advanced AI Tools

Holara - Anime Image Generation
AI platform for creating anime artwork

Fooocus
Revolutionizing Image Generation with Advanced AI

VE2
AI image generator for hyper-realistic photos

neural frames
AI motion content generator converts text into videos using neural network.

FLUX.1 AI
Top-notch text-to-image generation models

PicSo
PicSo is an app and platform for creating art from text inputs.

Sivi AI
Sivi is an AI that creates graphic designs from text quickly.

Prompt Llama
AI-driven platform for testing image generation models