这项多中心试验显示,序贯使用COX-2抑制剂帕瑞昔布和伊美昔布显著降低了重症急性胰腺炎(SAP)的发生率,缩短了器官功能障碍持续时间,减少了局部并发症,并降低了30天死亡率,且安全性良好。
一项全面的瑞典研究表明,显微镜下结肠炎(MC)患者发展为抑郁症和焦虑症等精神障碍的风险显著增加,强调了综合临床管理的重要性。
心脏磁共振成像(MRI)T1映射和细胞外体积分数(ECV)提供了心肌纤维化的无创标志物,在心力衰竭各亚型和非缺血性扩张型心肌病中对不良心血管结局显示出一致的预后价值。
了解器官钙化的原因,区分无害与危险类型,并学习如何根据专家建议解读您的健康报告。
探索微妙的肝脏症状如何预示严重疾病,从肝炎到肝癌的发展过程,以及有效习惯保护肝脏健康的方法。
PANDA II 研究表明,流感疫苗接种显著降低了急性心力衰竭患者的死亡率和再住院率,支持将其作为全球心力衰竭管理的标准组成部分。
根据最近的科学研究,仅仅将就寝时间提前一小时就可以帮助体重管理、降低抑郁风险并保护心脏。
一支多学科的中国团队开发了一种基于AI的MRI-病理学基础模型,能够准确、无创地诊断和分级前列腺癌,显著改善临床决策并减少不必要的活检。
了解每天仅需10分钟的靠墙坐如何显著降低血压并带来令人惊讶的好处,从心脏健康到关节护理和体重管理。
间歇性禁食因其代谢和减肥益处而受到欢迎,但新的研究表明,缩短进食窗口可能增加心血管风险,提示需要谨慎并采取个性化方法。
微塑料,直径小于5毫米的塑料颗粒,已悄无声息地通过饮用水、空气和食物渗透到我们的身体中。它们在器官中积累,加速细胞老化,并增加炎症。了解隐藏来源并采取实用措施减少暴露。
本分析比较了接受保留生育功能的激素治疗与子宫切除术治疗的年轻早期子宫内膜癌患者的生存情况,指出40岁以下女性的生存率相当,而接受激素治疗的较年长患者死亡风险增加。
一项大型基于人群的遗传学研究阐明了已知癌症易感基因中罕见致病性变异与单发和多发原发性癌症风险之间的关联,支持对受影响个体进行多基因面板检测。
本文探讨了胃肠道疾病与睡眠障碍之间的关联,强调抑郁作为部分中介因素的重要性,并指出改善睡眠质量需要同时关注肠道和心理健康。
最近的一项调查显示,尽管大多数美国心脏病学家支持心血管健康的生活方式建议,但他们在饮食和身体活动指南方面的个人依从性并不一致。
最近的一项研究表明,超过80%的阿莫西林过敏患者能够耐受哌拉西林-他唑巴坦,尽管约有18%的患者出现交叉反应,这突显了在使用前进行仔细的过敏测试的必要性。
用于肥胖和2型糖尿病管理的GLP-1受体激动剂与总体癌症风险降低17%相关,尤其是激素敏感性癌症,但可能增加肾癌风险。需要进一步研究以明确其安全性和机制。
FDA 已授权辉瑞和莫德纳更新的 COVID-19 疫苗,旨在针对 LP.8.1 亚谱系,扩大了 65 岁以上成人和有高风险条件的个体的疫苗接种范围,增强对不断演变的变异株的免疫防御。
一项在缺血性卒中后2个月开始的为期8周的心肺运动计划,在12个月时改善了认知表现,尽管与对照组相比,海马体积没有显著保留。该干预措施安全可行,为卒中后认知护理提供了有希望的途径。
本研究在呼吸健康个体中建立了可靠的 FeNO 参考值,并强调了影响一氧化氮水平的因素,从而提高了哮喘的诊断和管理。
<p style="text-align: left; line-height: 2;">Waver 1.0 是字节跳动推出的新一代<a href="https://ai-bot.cn/ai-video-generation-tools/" target="_blank">视频生成</a>模型,基于修正流 Transformer 架构,支持<a href="https://ai-bot.cn/ai-text-to-video-tools/" target="_blank">文本到视频</a>(T2V)、<a href="https://ai-bot.cn/ai-generated-video-from-images-tools/" target="_blank">图像到视频</a>(I2V)和文本到图像(T2I)生成,可在单一框架内完成,无需切换模型。支持高达 1080p 的分辨率和 2-10 秒的灵活视频长度,擅长捕捉复杂运动,生成的视频在运动幅度和时间一致性上表现出色。在 Waver-Bench 1.0 和 Hermes 运动测试集上,Waver 1.0 的表现优于现有的开源和闭源模型。支持多种艺术风格的视频生成,包括极致现实、动画、粘土、毛绒等。</p><h2 style="text-align: left;">Waver 1.0的项目地址</h2><ul><li style="text-align: left;"><strong>项目官网</strong>:http://www.waver.video/</li><li style="text-align: left;"><strong>Github仓库</strong>:https://github.com/FoundationVision/Waver</li><li style="text-align: left;"><strong>arXiv技术论文</strong>:https://arxiv.org/pdf/2508.15761</li></ul>
<p style="text-align: left; line-height: 2;">ToonComposer 是香港中文大学、腾讯 PCG ARC 实验室和北京大学研究人员共同推出的生成式 AI 工具,几秒能将草图转化成专业级动画。ToonComposer基于生成式后关键帧技术,将传统动画制作中的中间帧生成和上色环节整合为自动化过程,仅需一个草图和一个上色参考帧,能生成高质量的动画视频。工具支持稀疏草图注入和区域控制,让艺术家能准控制动画效果,大幅减少人工工作量,提高创作效率,为动画制作带来革命性变革。</p><h2 style="text-align: left;">ToonComposer的项目地址</h2><ul><li style="text-align: left;"><strong>项目官网</strong>: <a href="https://lg-li.github.io/project/tooncomposer/" target="_blank">https://lg-li.github.io/project/tooncomposer/ </a></li><li style="text-align: left;"><strong>GitHub仓库</strong>:<a href="https://github.com/TencentARC/ToonComposer" target="_blank">https://github.com/TencentARC/ToonComposer</a></li><li style="text-align: left;"><strong>HuggingFace模型库</strong>:<a href="https://huggingface.co/TencentARC/ToonComposer" target="_blank">https://huggingface.co/TencentARC/ToonComposer</a></li><li style="text-align: left;"><strong>arXiv技术论文</strong>:https://arxiv.org/pdf/2508.10881</li><li style="text-align: left;"><strong>在线体验Demo</strong>:https://huggingface.co/spaces/TencentARC/ToonComposer</li></ul>
<p>雾象Fogsight是大型语言模型(LLM)驱动的动画生成智能体,用户输入抽象概念或词语,能生成高水平的生动动画。核心功能包括“概念即影像”,能将输入的主题转化为叙事完整的动画,包含双语旁白和电影级视觉质感;“智能编排”,利用LLM驱动的编排能力自动完成创作流程;以及“语言用户界面(LUI)”,支持用户通过多轮对话对动画进行精准调优和迭代。</p> <h2 style="font-size: 20px;">项目地址</h2> <ul> <li>Github仓库: <a href="https://github.com/fogsightai/fogsight" target="_blank" rel="noopener">https://github.com/fogsightai/fogsight</a> </li> </ul>
<p>FairyGen 是大湾区大学推出的动画故事视频生成框架,支持从单个手绘角色草图出发,生成具有连贯叙事和一致风格的动画故事视频。框架借助多模态大型语言模型(MLLM)进行故事规划,基于风格传播适配器将角色的视觉风格应用到背景中,用 3D Agent重建角色生成真实的运动序列,基于两阶段运动适配器优化视频动画的连贯性与自然度。FairyGen 在风格一致性、叙事连贯性和运动质量方面表现出色,为个性化动画创作开辟新途径。</p> <h2 style="font-size: 20px;">FairyGen的项目地址</h2> <ul> <li>项目官网:https://jayleejia.github.io/FairyGen/</li> <li>GitHub仓库:https://github.com/GVCLab/FairyGen</li> <li>arXiv技术论文:https://arxiv.org/pdf/2506.21272</li> </ul>
<p>VFX8 是一站式 AI 制片工场,基于人工智能技术赋能影视制作全流程。用户只需输入一个创意想法,VFX8 能提供从前期策划、分镜头脚本生成、角色设计到视频生成的全流程服务。具备智能分镜制作功能,能批量生成电影级分镜头脚本,确保角色形象的一致性;支持全风格的影视角色设计,满足不同风格需求。VFX8 配备长篇剧集视觉资产管理系统,帮助创作者高效管理剧集的视觉元素,确保风格统一。</p> <h2 style="font-size: 20px;">VFX8的主要功能</h2> <ul> <li> <div class="paragraph">智能分镜制作:能批量生成电影级分镜头脚本,确保角色在不同镜头中的形象和动作一致性。</div> </li> <li> <div class="paragraph">角色形象设计:提供全风格的影视角色设计,满足从写实到卡通等不同风格的视觉创作需求。</div> </li> <li> <div class="paragraph">剧集管理:具备长篇连载剧集的视觉资产管理系统,方便创作者高效管理剧集的视觉元素,确保风格统一。</div> </li> <li> <div class="paragraph">团队协作:支持多人协作,提升制作团队的沟通和任务分配效率,适合团队项目。</div> </li> <li> <div class="paragraph">智能剧本:基于强大的文字大模型,辅助剧本创作,生成分镜头脚本,帮助创作者快速梳理剧本结构和镜头语言。</div> </li> <li> <div class="paragraph">视频生成:整合多种先进的视频生成模型,支持从脚本到视频的快速生成,满足不同场景的制作需求。</div> </li> </ul> <h2 style="font-size: 20px;">VFX8的官网地址</h2> <ul> <li>官网地址: <a href="http://www.vfx8.com.cn/" target="_blank" rel="noopener">http://www.vfx8.com.cn/</a> </li> </ul>
<p>Seaweed APT2是字节跳动推出的创新的AI视频生成模型,通过自回归对抗后训练(AAPT)技术,将双向扩散模型转化为单向自回归生成器,实现高效、高质量的视频生成。模型能在单次网络前向评估(1NFE)中生成包含多帧视频的潜空间帧,显著降低了计算复杂性,通过输入回收机制和键值缓存(KV Cache)技术,支持长时间视频生成,解决了传统模型在长视频生成中常见的动作漂移和物体变形问题。能在单块GPU上实现24帧/秒的流畅视频流生成,支持实时3D世界探索、互动虚拟人类生成等强大功能,广泛应用于影视特效、游戏开发、虚拟现实和广告创意等领域。</p> <h2 style="font-size: 20px;">Seaweed APT2的项目地址</h2> <ul> <li>项目官网:<a class="external" href="https://seaweed-apt.com/2?utm_source=medsci" target="_blank" rel="noopener">https://seaweed-apt.com/2</a></li> <li>arXiv技术论文:<a class="external" href="https://arxiv.org/pdf/2506.09350" target="_blank" rel="noopener nofollow">https://arxiv.org/pdf/2506.09350</a></li> </ul>
<p>MAGREF(Masked Guidance for Any‑Reference Video Generation)是字节跳动推出的多主体视频生成框架。MAGREF仅需一张参考图像和文本提示,能生成高质量、主体一致的视频,支持单人、多人及人物与物体、背景的复杂交互场景。基于区域感知动态掩码和像素级通道拼接机制,MAGREF能精准复刻身份特征,保持视频中人物、物体和背景的协调性与一致性,适用内容创作、广告制作等多种场景,展现极强的生成能力和可控性。</p> <h2 style="font-size: 20px;">MAGREF的主要功能</h2> <ul> <li>多主体视频生成:支持单人、多人互动以及人物与物体、背景的复杂场景生成,保持身份特征高度一致,多人同框不串脸。</li> <li>高一致性与可控性:基于一张参考图像和文本提示,生成身份稳定、动作自然、背景协调的视频,支持精确控制人物动作、表情、环境和光影效果。</li> <li>复杂场景处理:支持人物与物体交互(如人与宠物互动、人物操作物体)及人物置于复杂背景中(如城市街景、自然环境等),生成语义清晰、风格协调的视频。</li> <li>高效性和通用性:无需为不同任务单独设计模型,基于最小架构改动和统一训练流程,适配多种参考图配置。</li> </ul> <h2 style="font-size: 20px;">MAGREF的项目地址</h2> <ul> <li>项目官网:<a class="external" href="https://magref-video.github.io/magref.github.io/?utm_source=medsci" target="_blank" rel="noopener">https://magref-video.github.io/magref.github.io/</a></li> <li>GitHub仓库:<a class="external" href="https://github.com/MAGREF-Video/MAGREF" target="_blank" rel="noopener nofollow">https://github.com/MAGREF-Video/MAGREF</a></li> <li> </li> </ul>
<p>Seedance 1.0 lite是火山引擎推出的豆包视频生成模型的小参数量版本,支持文生视频和图生视频两种生成方式,支持生成5秒或10秒、480p或720p分辨率的视频。具备影视级视频生成质量,能精细控制人物外貌、衣着、表情动作等细节,支持360度环绕、航拍、变焦等多种运镜技术,生成的视频画质细腻、美感十足。模型广泛用在电商广告、娱乐特效、影视创作、动态壁纸等领域,能有效降低制作成本和周期。</p> <h2 style="font-size: 20px;">Seedance 1.0 lite的主要功能</h2> <ul> <li>视频生成方式多样:支持文生视频和图生视频,根据文本描述或首帧图片生成视频。</li> <li>视频参数灵活:提供480p和720p分辨率,帧率24fps,视频时长可选5秒或10秒。</li> <li>语义理解与运镜控制:具备深度语义理解能力,能精细控制人物外貌、动作等细节,支持多种影视级运镜技术,如环绕、航拍、变焦等。</li> <li>风格与画质出色:生成的视频风格丰富,涵盖国漫、水墨、水彩等,画质细腻,提供超清视觉体验。</li> </ul> <h2 style="font-size: 20px;">Seedance 1.0 lite的技术原理</h2> <ul> <li>生成对抗网络(GAN):生成器(Generator)负责生成视频内容。从随机噪声或输入的文本/图像中提取特征,逐步生成视频帧。生成器通过学习大量的视频数据,生成逼真的视频内容。判别器负责区分生成的视频与真实视频。对比生成的视频和真实视频的特征,提供反馈,帮助生成器不断优化生成的视频质量。</li> <li>Transformer架构:编码器对输入的文本或图像进行编码,提取语义特征。编码器能理解输入内容的语义信息,为生成器提供详细的指导。解码器根据编码器提取的语义特征,逐步生成视频帧。解码器基于自注意力机制(Self-Attention)和多头注意力机制(Multi-Head Attention),更好地处理长序列数据,生成连贯的视频内容。</li> <li>深度语义理解:基于自然语言处理(NLP)技术,模型能理解输入文本的语义,包括人物的外貌气质、衣着风格、表情动作等细节。让生成的视频精准地反映文本描述的内容。对于图生视频,模型基于计算机视觉(CV)技术,理解输入图像的视觉特征,生成与输入图像风格一致的视频内容。</li> </ul> <h2 style="font-size: 20px;">Seedance 1.0 lite的项目地址</h2> <ul> <li>项目官网: <a href="https://www.volcengine.com/docs/82379/1553576" target="_blank" rel="noopener">https://www.volcengine.com/docs/82379/1553576</a> </li> </ul>
这款3D模型生成工具,不仅同样支持文本生成高精度的3D模型,更进一步实现了通过上传图片即可生成3D模型的功能。这一发展与绘画类AI工具的演进路径颇为相似,从最初的文本到图像的转化,到现在的图像到3D模型的转化。
腾讯混元大模型旗下最新发布的Hunyuan3D-2.0系列开源模型,迎来了五款产品(Turbo、Pro、Standard、Lite、Vision)的全系列开源,构建起完整的工具链体系,标志着中国大模型技术首次在多模态领域实现完整开源布局。从30秒生成高精度3D资产的开源框架,到覆盖文本、图像、视频的全模态开源体系,腾讯混元大模型正以开放姿态引领一场全球范围内的数字创作革命。 这一突破得益于腾讯自主研发的3D生成加速框架FlashVDM,它打破了传统3D生成模型的效率瓶颈,将大规模3D模型的生成时间压缩至秒级,为开源社区与工业界的应用部署提供了可能。 Hunyuan3D-2.0推出了多种模型版本,以适应不同应用需求。例如,多视图版本Hunyuan3D-2-MV能够结合2—4张标准视角图片,捕捉丰富的细节,优化3D生成模型产生的效果。与此同时,mini系列模型通过架构优化与算力提升,降低了硬件要求,可在NVIDIA 4080显卡甚至苹果M1 Pro芯片上运行,使3D模型的应用更为广泛。 腾讯自2024年11月发布第一代3D生成大模型以来,持续推动行业创新。如今Hunyuan3D-2.0在文本一致性、几何精度和画面质量等多项评测中超越业内顶级大模型。
Wan2.1,这是一套全面开放的视频基础模型,旨在突破视频生成的界限。Wan2.1提供以下主要功能: 👍 SOTA 性能:Wan2.1在多个基准测试中始终优于现有的开源模型和最先进的商业解决方案。 👍支持消费级 GPU:T2V-1.3B 型号仅需 8.19 GB VRAM,兼容几乎所有消费级 GPU。它可在约 4 分钟内在 RTX 4090 上生成一段 5 秒的 480P 视频(无需量化等优化技术)。其性能甚至可与一些闭源型号相媲美。 👍多任务:Wan2.1在文本转视频、图像转视频、视频编辑、文本转图像和视频转音频方面表现出色,推动了视频生成领域的发展。 👍视觉文本生成:Wan2.1是第一个能够生成中文和英文文本的视频模型,具有强大的文本生成功能,可增强其实际应用。 👍强大的视频 VAE:Wan-VAE提供卓越的效率和性能,可对任意长度的 1080P 视频进行编码和解码,同时保留时间信息,使其成为视频和图像生成的理想基础。
sand.ai是清华大学曹越教授团队创立的视频生成AI平台,目前刚刚开源了全球首个自回归扩散视频生成模型 Magi-1 ,生成长视频效果在行业领先。 马尔奖、清华特奖得主曹越的创业公司 Sand AI 推出了自己的视频生成大模型 ——MAGI-1,该模型权重和代码完全开源,支持无限生成,能将生成时长精确控制到每一秒,在基准测试中更是吊打 Sora,领先了 5 倍。
Convert photos into exaggerated caricatures with Caricaturer.io, an AI-powered online photo maker.
Focal is a platform where you can create your own TV shows and movies with AI.
<p>ClipZap provides the best AI video models and tools for Clipping, Editing and Translating. makes video creation more easier, and Pro-Level.</p> <p>ClipZap AI 是AI视频创作与编辑平台,专为创作者和企业设计,通过强大的 AI 技术简化视频制作流程。支持视频剪辑、翻译、换脸、生成和增强等多种功能,能快速从素材中剪辑出精彩片段,支持多语言翻译,方便制作面向国际观众的内容。ClipZap 提供一键生成视频、自动添加字幕等功能,提升了视频创作的效率。</p> <p><img src="https://img.medsci.cn/aisite/img//SZR7blxZD5rdm2RPcfW2oJLC7gz33NjxHpCp1cqo.png"></p> <h2 style="font-size: 20px;">ClipZap AI的主要功能</h2> <ul> <li>视频剪辑与编辑:ClipZap 能快速从大量素材中剪辑出精彩片段,支持多种视频编辑功能,如裁剪、拼接、添加特效等。</li> <li>视频翻译:支持将视频翻译成多种语言,包括英语、日语、德语、西班牙语、阿拉伯语和中文等,方便制作面向国际观众的内容。</li> <li>AI 换脸:基于 AI 技术实现视频中的人物换脸,为视频创作增添趣味性和独特性。</li> <li>视频生成:用户可以一键使用强大的 AI 视频生成模型,快速生成所需的视频内容。</li> <li>视频增强:通过 AI 技术提升视频质量,优化视觉效果。</li> <li>字幕生成:自动为视频添加字幕,提高视频的可访问性和参与度。</li> </ul> <h2 style="font-size: 20px;">ClipZap AI的官网地址</h2> <ul> <li>官网地址:<a href="https://www.clipzap.ai?utm_source=medsci" target="_blank" rel="noopener">clipzap.ai</a></li> </ul>
Create NSFW fictional chatbot characters with different personalities using Janitor AI.