最新研究揭示,常见的口腔细菌,特别是草绿色链球菌,可以渗透到动脉斑块中,通过引发炎症和斑块破裂增加心脏病发作的风险。
除了胆固醇和血压,同型半胱氨酸在无声中硬化动脉,推动心血管疾病的进展。最新研究揭示了其生物力学影响及预防策略。
等长运动是一种静态肌肉参与的形式,可以像某些药物一样有效地降低血压,提供了一种简单、无药的方法来保护心脏和血管。
治疗开始后一个月内循环肿瘤DNA(ctDNA)的变化可以预测接受免疫检查点抑制剂治疗的dMMR/MSI-H转移性结直肠癌患者的无进展生存期和总生存期,提供了一种潜在的生物标志物,有助于治疗决策。
一项3期随机试验表明,脑转移瘤的术前立体定向放射治疗(SRT)在安全性方面与术后SRT相当,并且显著缩短了治疗时间,可能改善患者的治疗流程。
SCOT-HEART 2 的一个嵌套子研究显示,与传统的冠心病风险评分相比,冠状动脉 CT 血管造影在无症状高危个体中适度改善了健康生活方式的依从性、预防治疗的接受度以及危险因素的修正。
一项由护士主导、多学科合作的家庭支持干预措施在ICU中适度提高了家庭满意度,并显著改善了沟通质量和情感支持,填补了以家庭为中心的重症护理中的关键空白。
Zimislecel是一种同种异体干细胞衍生的胰岛细胞疗法,对1型糖尿病显示出良好的安全性和疗效,能够恢复生理胰岛功能,并使患者实现胰岛素独立,在1-2期试验中取得了显著成果。
3期试验表明,封装细胞疗法NT-501显著减缓了MacTel患者的光感受器损失,标志着一种具有可接受安全性的有希望的疾病修饰方法。
OASIS 2试验显示,50毫克口服司美格鲁肽可显著降低东亚超重或肥胖成人的体重,无论是否伴有2型糖尿病,提供了一种具有可控安全性的有希望的治疗选择。
新的研究表明,每天摄入超过五份水果和蔬菜可以显著降低慢性病风险和死亡率。
新型抑制剂AH001靶向TRPV4-RhoA-RhoGDI1轴以失活RhoA信号传导,有效降低血压并防止高血压模型中的血管重塑,为抗高血压药物开发开辟了新途径。
住院期间开始使用达格列净在两个月内未能显著减少心血管死亡或心力衰竭恶化。然而,荟萃分析支持早期使用 SGLT2 抑制剂可降低住院患者的死亡率和心力衰竭恶化。
中间效应遗传变异显著增加肥厚型心肌病的风险,并影响疾病的严重程度和预后,尤其是在与单基因突变共存时。
DOUBLE-CHOICE随机试验表明,局部麻醉与清醒镇静在经股动脉TAVI中的非劣效性,提示了一种安全的极简麻醉策略,但可能对患者的舒适度有所权衡。
COMPARE-TAVI 1试验显示,在严重主动脉狭窄患者中,Myval经导管心脏瓣膜在TAVI术后1年的复合临床终点上不劣于SAPIEN 3 THVs。
MODICA,一种由线粒体短开放阅读框编码的肽,通过抑制电压依赖性阴离子通道(VDAC)寡聚化、减少细胞凋亡和纤维化,保护心脏功能免受多柔比星毒性的影响,突显了一种新的心脏保护治疗靶点。
这项多中心研究强调了2D斑点追踪超声心动图在MIS-C中早期检测和预后评估左心室功能障碍的实用性,为心血管风险和管理提供了信息。
一项为期20年的前瞻性研究表明,经历过跟踪和获得保护令的女性患心血管事件的风险增加,强调暴力是心血管疾病预防中的关键因素。
高水平的脂蛋白(a)显著预测外周动脉疾病和颈动脉狭窄的发生,以及进展为主要肢体事件,强调其作为非冠状动脉粥样硬化性血管并发症的预后生物标志物的价值。
<p style="text-align: left; line-height: 2;">Waver 1.0 是字节跳动推出的新一代<a href="https://ai-bot.cn/ai-video-generation-tools/" target="_blank">视频生成</a>模型,基于修正流 Transformer 架构,支持<a href="https://ai-bot.cn/ai-text-to-video-tools/" target="_blank">文本到视频</a>(T2V)、<a href="https://ai-bot.cn/ai-generated-video-from-images-tools/" target="_blank">图像到视频</a>(I2V)和文本到图像(T2I)生成,可在单一框架内完成,无需切换模型。支持高达 1080p 的分辨率和 2-10 秒的灵活视频长度,擅长捕捉复杂运动,生成的视频在运动幅度和时间一致性上表现出色。在 Waver-Bench 1.0 和 Hermes 运动测试集上,Waver 1.0 的表现优于现有的开源和闭源模型。支持多种艺术风格的视频生成,包括极致现实、动画、粘土、毛绒等。</p><h2 style="text-align: left;">Waver 1.0的项目地址</h2><ul><li style="text-align: left;"><strong>项目官网</strong>:http://www.waver.video/</li><li style="text-align: left;"><strong>Github仓库</strong>:https://github.com/FoundationVision/Waver</li><li style="text-align: left;"><strong>arXiv技术论文</strong>:https://arxiv.org/pdf/2508.15761</li></ul>
<p style="text-align: left; line-height: 2;">ToonComposer 是香港中文大学、腾讯 PCG ARC 实验室和北京大学研究人员共同推出的生成式 AI 工具,几秒能将草图转化成专业级动画。ToonComposer基于生成式后关键帧技术,将传统动画制作中的中间帧生成和上色环节整合为自动化过程,仅需一个草图和一个上色参考帧,能生成高质量的动画视频。工具支持稀疏草图注入和区域控制,让艺术家能准控制动画效果,大幅减少人工工作量,提高创作效率,为动画制作带来革命性变革。</p><h2 style="text-align: left;">ToonComposer的项目地址</h2><ul><li style="text-align: left;"><strong>项目官网</strong>: <a href="https://lg-li.github.io/project/tooncomposer/" target="_blank">https://lg-li.github.io/project/tooncomposer/ </a></li><li style="text-align: left;"><strong>GitHub仓库</strong>:<a href="https://github.com/TencentARC/ToonComposer" target="_blank">https://github.com/TencentARC/ToonComposer</a></li><li style="text-align: left;"><strong>HuggingFace模型库</strong>:<a href="https://huggingface.co/TencentARC/ToonComposer" target="_blank">https://huggingface.co/TencentARC/ToonComposer</a></li><li style="text-align: left;"><strong>arXiv技术论文</strong>:https://arxiv.org/pdf/2508.10881</li><li style="text-align: left;"><strong>在线体验Demo</strong>:https://huggingface.co/spaces/TencentARC/ToonComposer</li></ul>
<p>雾象Fogsight是大型语言模型(LLM)驱动的动画生成智能体,用户输入抽象概念或词语,能生成高水平的生动动画。核心功能包括“概念即影像”,能将输入的主题转化为叙事完整的动画,包含双语旁白和电影级视觉质感;“智能编排”,利用LLM驱动的编排能力自动完成创作流程;以及“语言用户界面(LUI)”,支持用户通过多轮对话对动画进行精准调优和迭代。</p> <h2 style="font-size: 20px;">项目地址</h2> <ul> <li>Github仓库: <a href="https://github.com/fogsightai/fogsight" target="_blank" rel="noopener">https://github.com/fogsightai/fogsight</a> </li> </ul>
<p>FairyGen 是大湾区大学推出的动画故事视频生成框架,支持从单个手绘角色草图出发,生成具有连贯叙事和一致风格的动画故事视频。框架借助多模态大型语言模型(MLLM)进行故事规划,基于风格传播适配器将角色的视觉风格应用到背景中,用 3D Agent重建角色生成真实的运动序列,基于两阶段运动适配器优化视频动画的连贯性与自然度。FairyGen 在风格一致性、叙事连贯性和运动质量方面表现出色,为个性化动画创作开辟新途径。</p> <h2 style="font-size: 20px;">FairyGen的项目地址</h2> <ul> <li>项目官网:https://jayleejia.github.io/FairyGen/</li> <li>GitHub仓库:https://github.com/GVCLab/FairyGen</li> <li>arXiv技术论文:https://arxiv.org/pdf/2506.21272</li> </ul>
<p>VFX8 是一站式 AI 制片工场,基于人工智能技术赋能影视制作全流程。用户只需输入一个创意想法,VFX8 能提供从前期策划、分镜头脚本生成、角色设计到视频生成的全流程服务。具备智能分镜制作功能,能批量生成电影级分镜头脚本,确保角色形象的一致性;支持全风格的影视角色设计,满足不同风格需求。VFX8 配备长篇剧集视觉资产管理系统,帮助创作者高效管理剧集的视觉元素,确保风格统一。</p> <h2 style="font-size: 20px;">VFX8的主要功能</h2> <ul> <li> <div class="paragraph">智能分镜制作:能批量生成电影级分镜头脚本,确保角色在不同镜头中的形象和动作一致性。</div> </li> <li> <div class="paragraph">角色形象设计:提供全风格的影视角色设计,满足从写实到卡通等不同风格的视觉创作需求。</div> </li> <li> <div class="paragraph">剧集管理:具备长篇连载剧集的视觉资产管理系统,方便创作者高效管理剧集的视觉元素,确保风格统一。</div> </li> <li> <div class="paragraph">团队协作:支持多人协作,提升制作团队的沟通和任务分配效率,适合团队项目。</div> </li> <li> <div class="paragraph">智能剧本:基于强大的文字大模型,辅助剧本创作,生成分镜头脚本,帮助创作者快速梳理剧本结构和镜头语言。</div> </li> <li> <div class="paragraph">视频生成:整合多种先进的视频生成模型,支持从脚本到视频的快速生成,满足不同场景的制作需求。</div> </li> </ul> <h2 style="font-size: 20px;">VFX8的官网地址</h2> <ul> <li>官网地址: <a href="http://www.vfx8.com.cn/" target="_blank" rel="noopener">http://www.vfx8.com.cn/</a> </li> </ul>
<p>Seaweed APT2是字节跳动推出的创新的AI视频生成模型,通过自回归对抗后训练(AAPT)技术,将双向扩散模型转化为单向自回归生成器,实现高效、高质量的视频生成。模型能在单次网络前向评估(1NFE)中生成包含多帧视频的潜空间帧,显著降低了计算复杂性,通过输入回收机制和键值缓存(KV Cache)技术,支持长时间视频生成,解决了传统模型在长视频生成中常见的动作漂移和物体变形问题。能在单块GPU上实现24帧/秒的流畅视频流生成,支持实时3D世界探索、互动虚拟人类生成等强大功能,广泛应用于影视特效、游戏开发、虚拟现实和广告创意等领域。</p> <h2 style="font-size: 20px;">Seaweed APT2的项目地址</h2> <ul> <li>项目官网:<a class="external" href="https://seaweed-apt.com/2?utm_source=medsci" target="_blank" rel="noopener">https://seaweed-apt.com/2</a></li> <li>arXiv技术论文:<a class="external" href="https://arxiv.org/pdf/2506.09350" target="_blank" rel="noopener nofollow">https://arxiv.org/pdf/2506.09350</a></li> </ul>
<p>MAGREF(Masked Guidance for Any‑Reference Video Generation)是字节跳动推出的多主体视频生成框架。MAGREF仅需一张参考图像和文本提示,能生成高质量、主体一致的视频,支持单人、多人及人物与物体、背景的复杂交互场景。基于区域感知动态掩码和像素级通道拼接机制,MAGREF能精准复刻身份特征,保持视频中人物、物体和背景的协调性与一致性,适用内容创作、广告制作等多种场景,展现极强的生成能力和可控性。</p> <h2 style="font-size: 20px;">MAGREF的主要功能</h2> <ul> <li>多主体视频生成:支持单人、多人互动以及人物与物体、背景的复杂场景生成,保持身份特征高度一致,多人同框不串脸。</li> <li>高一致性与可控性:基于一张参考图像和文本提示,生成身份稳定、动作自然、背景协调的视频,支持精确控制人物动作、表情、环境和光影效果。</li> <li>复杂场景处理:支持人物与物体交互(如人与宠物互动、人物操作物体)及人物置于复杂背景中(如城市街景、自然环境等),生成语义清晰、风格协调的视频。</li> <li>高效性和通用性:无需为不同任务单独设计模型,基于最小架构改动和统一训练流程,适配多种参考图配置。</li> </ul> <h2 style="font-size: 20px;">MAGREF的项目地址</h2> <ul> <li>项目官网:<a class="external" href="https://magref-video.github.io/magref.github.io/?utm_source=medsci" target="_blank" rel="noopener">https://magref-video.github.io/magref.github.io/</a></li> <li>GitHub仓库:<a class="external" href="https://github.com/MAGREF-Video/MAGREF" target="_blank" rel="noopener nofollow">https://github.com/MAGREF-Video/MAGREF</a></li> <li> </li> </ul>
<p>Seedance 1.0 lite是火山引擎推出的豆包视频生成模型的小参数量版本,支持文生视频和图生视频两种生成方式,支持生成5秒或10秒、480p或720p分辨率的视频。具备影视级视频生成质量,能精细控制人物外貌、衣着、表情动作等细节,支持360度环绕、航拍、变焦等多种运镜技术,生成的视频画质细腻、美感十足。模型广泛用在电商广告、娱乐特效、影视创作、动态壁纸等领域,能有效降低制作成本和周期。</p> <h2 style="font-size: 20px;">Seedance 1.0 lite的主要功能</h2> <ul> <li>视频生成方式多样:支持文生视频和图生视频,根据文本描述或首帧图片生成视频。</li> <li>视频参数灵活:提供480p和720p分辨率,帧率24fps,视频时长可选5秒或10秒。</li> <li>语义理解与运镜控制:具备深度语义理解能力,能精细控制人物外貌、动作等细节,支持多种影视级运镜技术,如环绕、航拍、变焦等。</li> <li>风格与画质出色:生成的视频风格丰富,涵盖国漫、水墨、水彩等,画质细腻,提供超清视觉体验。</li> </ul> <h2 style="font-size: 20px;">Seedance 1.0 lite的技术原理</h2> <ul> <li>生成对抗网络(GAN):生成器(Generator)负责生成视频内容。从随机噪声或输入的文本/图像中提取特征,逐步生成视频帧。生成器通过学习大量的视频数据,生成逼真的视频内容。判别器负责区分生成的视频与真实视频。对比生成的视频和真实视频的特征,提供反馈,帮助生成器不断优化生成的视频质量。</li> <li>Transformer架构:编码器对输入的文本或图像进行编码,提取语义特征。编码器能理解输入内容的语义信息,为生成器提供详细的指导。解码器根据编码器提取的语义特征,逐步生成视频帧。解码器基于自注意力机制(Self-Attention)和多头注意力机制(Multi-Head Attention),更好地处理长序列数据,生成连贯的视频内容。</li> <li>深度语义理解:基于自然语言处理(NLP)技术,模型能理解输入文本的语义,包括人物的外貌气质、衣着风格、表情动作等细节。让生成的视频精准地反映文本描述的内容。对于图生视频,模型基于计算机视觉(CV)技术,理解输入图像的视觉特征,生成与输入图像风格一致的视频内容。</li> </ul> <h2 style="font-size: 20px;">Seedance 1.0 lite的项目地址</h2> <ul> <li>项目官网: <a href="https://www.volcengine.com/docs/82379/1553576" target="_blank" rel="noopener">https://www.volcengine.com/docs/82379/1553576</a> </li> </ul>
这款3D模型生成工具,不仅同样支持文本生成高精度的3D模型,更进一步实现了通过上传图片即可生成3D模型的功能。这一发展与绘画类AI工具的演进路径颇为相似,从最初的文本到图像的转化,到现在的图像到3D模型的转化。
腾讯混元大模型旗下最新发布的Hunyuan3D-2.0系列开源模型,迎来了五款产品(Turbo、Pro、Standard、Lite、Vision)的全系列开源,构建起完整的工具链体系,标志着中国大模型技术首次在多模态领域实现完整开源布局。从30秒生成高精度3D资产的开源框架,到覆盖文本、图像、视频的全模态开源体系,腾讯混元大模型正以开放姿态引领一场全球范围内的数字创作革命。 这一突破得益于腾讯自主研发的3D生成加速框架FlashVDM,它打破了传统3D生成模型的效率瓶颈,将大规模3D模型的生成时间压缩至秒级,为开源社区与工业界的应用部署提供了可能。 Hunyuan3D-2.0推出了多种模型版本,以适应不同应用需求。例如,多视图版本Hunyuan3D-2-MV能够结合2—4张标准视角图片,捕捉丰富的细节,优化3D生成模型产生的效果。与此同时,mini系列模型通过架构优化与算力提升,降低了硬件要求,可在NVIDIA 4080显卡甚至苹果M1 Pro芯片上运行,使3D模型的应用更为广泛。 腾讯自2024年11月发布第一代3D生成大模型以来,持续推动行业创新。如今Hunyuan3D-2.0在文本一致性、几何精度和画面质量等多项评测中超越业内顶级大模型。
Wan2.1,这是一套全面开放的视频基础模型,旨在突破视频生成的界限。Wan2.1提供以下主要功能: 👍 SOTA 性能:Wan2.1在多个基准测试中始终优于现有的开源模型和最先进的商业解决方案。 👍支持消费级 GPU:T2V-1.3B 型号仅需 8.19 GB VRAM,兼容几乎所有消费级 GPU。它可在约 4 分钟内在 RTX 4090 上生成一段 5 秒的 480P 视频(无需量化等优化技术)。其性能甚至可与一些闭源型号相媲美。 👍多任务:Wan2.1在文本转视频、图像转视频、视频编辑、文本转图像和视频转音频方面表现出色,推动了视频生成领域的发展。 👍视觉文本生成:Wan2.1是第一个能够生成中文和英文文本的视频模型,具有强大的文本生成功能,可增强其实际应用。 👍强大的视频 VAE:Wan-VAE提供卓越的效率和性能,可对任意长度的 1080P 视频进行编码和解码,同时保留时间信息,使其成为视频和图像生成的理想基础。
sand.ai是清华大学曹越教授团队创立的视频生成AI平台,目前刚刚开源了全球首个自回归扩散视频生成模型 Magi-1 ,生成长视频效果在行业领先。 马尔奖、清华特奖得主曹越的创业公司 Sand AI 推出了自己的视频生成大模型 ——MAGI-1,该模型权重和代码完全开源,支持无限生成,能将生成时长精确控制到每一秒,在基准测试中更是吊打 Sora,领先了 5 倍。
Convert photos into exaggerated caricatures with Caricaturer.io, an AI-powered online photo maker.
AI-Powered Art Generator
<p>ClipZap provides the best AI video models and tools for Clipping, Editing and Translating. makes video creation more easier, and Pro-Level.</p> <p>ClipZap AI 是AI视频创作与编辑平台,专为创作者和企业设计,通过强大的 AI 技术简化视频制作流程。支持视频剪辑、翻译、换脸、生成和增强等多种功能,能快速从素材中剪辑出精彩片段,支持多语言翻译,方便制作面向国际观众的内容。ClipZap 提供一键生成视频、自动添加字幕等功能,提升了视频创作的效率。</p> <p><img src="https://img.medsci.cn/aisite/img//SZR7blxZD5rdm2RPcfW2oJLC7gz33NjxHpCp1cqo.png"></p> <h2 style="font-size: 20px;">ClipZap AI的主要功能</h2> <ul> <li>视频剪辑与编辑:ClipZap 能快速从大量素材中剪辑出精彩片段,支持多种视频编辑功能,如裁剪、拼接、添加特效等。</li> <li>视频翻译:支持将视频翻译成多种语言,包括英语、日语、德语、西班牙语、阿拉伯语和中文等,方便制作面向国际观众的内容。</li> <li>AI 换脸:基于 AI 技术实现视频中的人物换脸,为视频创作增添趣味性和独特性。</li> <li>视频生成:用户可以一键使用强大的 AI 视频生成模型,快速生成所需的视频内容。</li> <li>视频增强:通过 AI 技术提升视频质量,优化视觉效果。</li> <li>字幕生成:自动为视频添加字幕,提高视频的可访问性和参与度。</li> </ul> <h2 style="font-size: 20px;">ClipZap AI的官网地址</h2> <ul> <li>官网地址:<a href="https://www.clipzap.ai?utm_source=medsci" target="_blank" rel="noopener">clipzap.ai</a></li> </ul>
Create NSFW fictional chatbot characters with different personalities using Janitor AI.