关键词 "GPU playground" 的搜索结果, 共 13 条, 只显示前 480 条
SignGemma 是谷歌 DeepMind 团队推出的全球最强大的手语翻译AI模型。专注于将美国手语(ASL)翻译成英语文本,通过多模态训练方法,结合视觉数据和文本数据,精准识别手语动作并实时转化为口语文本。模型具备高准确率和上下文理解能力,响应延迟低于0.5秒。SignGemma采用高效架构设计,可在消费级GPU上运行,支持端侧部署,保护用户隐私。
SmolVLA 是 Hugging Face 开源的轻量级视觉-语言-行动(VLA)模型,专为经济高效的机器人设计。拥有4.5亿参数,模型小巧,可在CPU上运行,单个消费级GPU即可训练,能在MacBook上部署。SmolVLA 完全基于开源数据集训练,数据集标签为“lerobot”。 SmolVLA的主要功能 多模态输入处理:SmolVLA 能处理多种输入,包括多幅图像、语言指令以及
MNN轻量级高性能推理引擎 通用性 - 支持TensorFlow、Caffe、ONNX等主流模型格式,支持CNN、RNN、GAN等常用网络。 高性能 - 极致优化算子性能,全面支持CPU、GPU、NPU,充分发挥设备算力。 易用性 - 转换、可视化、调试工具齐全,能方便地部署到移动设备和各种嵌入式设备中。 什么是 TaoAvatar?它是阿里最新研究
LLIA(Low-Latency Interactive Avatars)是美团公司推出的基于扩散模型的实时音频驱动肖像视频生成框架。框架基于音频输入驱动虚拟形象的生成,支持实现低延迟、高保真度的实时交互。LLIA用可变长度视频生成技术,减少初始视频生成的延迟,结合一致性模型训练策略和模型量化技术,显著提升推理速度。LLIA支持用类别标签控制虚拟形象的状态(如说话、倾听、空闲)及面部表情的精细控制
Seaweed APT2是字节跳动推出的创新的AI视频生成模型,通过自回归对抗后训练(AAPT)技术,将双向扩散模型转化为单向自回归生成器,实现高效、高质量的视频生成。模型能在单次网络前向评估(1NFE)中生成包含多帧视频的潜空间帧,显著降低了计算复杂性,通过输入回收机制和键值缓存(KV Cache)技术,支持长时间视频生成,解决了传统模型在长视频生成中常见的动作漂移和物体变形问题。能在单块GPU
MegaFold是一个跨平台系统,用于加速蛋白质结构预测模型(例如 AlphaFold3、AlphaFold2)。 为什么选择 MegaFold? 跨平台支持:通过优化的基于 Triton 的内核,支持在异构设备上执行,包括 NVIDIA GPU 和 AMD GPU。 易于使用:只需更改几行代码即可获得巨大的性能提升 速度提升:每次迭代训练时间加快高达 1.73 倍 减少内存:将
Gradio 是一个开源的 Python 库,简化机器学习模型的演示和共享过程。支持开发者基于简单的代码快速创建出友好的网页界面,任何人、任何地点能轻松使用机器学习模型。Gradio 支持多种输入和输出组件,如文本、图像、音频等,适用于演示、教学和原型开发。Gradio 支持服务器端渲染(SSR),使应用更快地在浏览器中加载。Gradio提供与 Hugging Face Spaces 更紧密的集成
TokenPony 是为个人开发者和小型团队设计的高效 AI 平台,如同一位智能指挥家,将多种主流大模型(如 DeepSeek、Kimi、Qwen、GLM 等)集成在一个统一接口下,极大地简化了模型切换的繁琐流程。用户无需跨平台操作,可一键接入并自由调用不同模型,享受超长 1024K 上下文支持,轻松处理长文档和复杂任务。TokenPony 提供零配置、免部署的一键调用 API,无需自建 GPU
Fish Speech 是一款由 Fish Audio 开源的文本转语音(TTS)工具,支持中、英、日三国语言。它经过 15 万小时的多语种数据训练,能生成接近人类水平的自然语音。其最新版本为 1.2,拥有以下核心优势:核心功能与技术亮点高效且低门槛:只需 4GB 显存即可运行,极大地降低了硬件要求。此外,快速的推理速度能让您在短时间内获得所需的语音输出,提升了整体使用体验。支持多种模型:集成了包
Qianfan-VL 是百度智能云千帆专为企业级多模态应用场景打造的视觉理解大模型。它提供 3B、8B 和 70B 三种尺寸,不仅具备出色的通用能力,还针对 OCR、教育等垂直领域进行了专项强化。该模型基于开源模型,并在百度自研的昆仑芯 P800 上完成了全流程计算任务,展现出卓越的性能和效率。核心功能多尺寸模型:提供从轻量级到大规模的三种版本,满足不同企业和开发者的需求,适用于各种场景,从端上实
# Framepack AI:革命性的AI视频生成模型Framepack AI是一种突破性的神经网络结构,用于AI视频生成。它采用创新的“下一帧预测”技术,并结合独特的固定长度上下文压缩机制,使用户能够生成高质量、高帧率(30fps)的视频,长度可达120秒,且硬件门槛极低(仅需配备6GB VRAM的消费级NVIDIA GPU)。## Framepack AI的独特之处是什么?Framepack
RTFM(Real-Time Frame Model)是李飞飞团队推出的实时生成式世界模型。模型能在单块H100 GPU上运行,实时生成3D场景,支持持久交互。RTFM通过观看大量视频数据学习光影、材质和空间关系,将复杂的物理渲染问题转化为基于数据的感知问题。RTFM为每一帧赋予空间坐标,用“上下文腾挪”技术,只关注附近帧生成新画面,实现高效且持久的世界构建。RTFM展示了未来世界模型的潜力,为实
nanochat是AI领域专家Andrej Karpathy发布的开源项目,以极低成本和高效流程训练小型语言模型,实现类似ChatGPT的对话功能。仅需约100美元(使用8张H100 GPU训练4小时),即可训练出能进行基础对话、创作故事/诗歌、回答简单问题的小型模型。若增加预算至1000美元(训练约41.6小时),模型性能可显著提升,能解决简单数学/代码问题并参与多项选择题测试。项目包含从数据准
只显示前20页数据,更多请搜索
Showing 97 to 109 of 109 results