关键词 "GPU playground" 的搜索结果, 共 8 条, 只显示前 480 条
SignGemma 是谷歌 DeepMind 团队推出的全球最强大的手语翻译AI模型。专注于将美国手语(ASL)翻译成英语文本,通过多模态训练方法,结合视觉数据和文本数据,精准识别手语动作并实时转化为口语文本。模型具备高准确率和上下文理解能力,响应延迟低于0.5秒。SignGemma采用高效架构设计,可在消费级GPU上运行,支持端侧部署,保护用户隐私。
SmolVLA 是 Hugging Face 开源的轻量级视觉-语言-行动(VLA)模型,专为经济高效的机器人设计。拥有4.5亿参数,模型小巧,可在CPU上运行,单个消费级GPU即可训练,能在MacBook上部署。SmolVLA 完全基于开源数据集训练,数据集标签为“lerobot”。 SmolVLA的主要功能 多模态输入处理:SmolVLA 能处理多种输入,包括多幅图像、语言指令以及
MNN轻量级高性能推理引擎 通用性 - 支持TensorFlow、Caffe、ONNX等主流模型格式,支持CNN、RNN、GAN等常用网络。 高性能 - 极致优化算子性能,全面支持CPU、GPU、NPU,充分发挥设备算力。 易用性 - 转换、可视化、调试工具齐全,能方便地部署到移动设备和各种嵌入式设备中。 什么是 TaoAvatar?它是阿里最新研究
LLIA(Low-Latency Interactive Avatars)是美团公司推出的基于扩散模型的实时音频驱动肖像视频生成框架。框架基于音频输入驱动虚拟形象的生成,支持实现低延迟、高保真度的实时交互。LLIA用可变长度视频生成技术,减少初始视频生成的延迟,结合一致性模型训练策略和模型量化技术,显著提升推理速度。LLIA支持用类别标签控制虚拟形象的状态(如说话、倾听、空闲)及面部表情的精细控制
Seaweed APT2是字节跳动推出的创新的AI视频生成模型,通过自回归对抗后训练(AAPT)技术,将双向扩散模型转化为单向自回归生成器,实现高效、高质量的视频生成。模型能在单次网络前向评估(1NFE)中生成包含多帧视频的潜空间帧,显著降低了计算复杂性,通过输入回收机制和键值缓存(KV Cache)技术,支持长时间视频生成,解决了传统模型在长视频生成中常见的动作漂移和物体变形问题。能在单块GPU
MegaFold是一个跨平台系统,用于加速蛋白质结构预测模型(例如 AlphaFold3、AlphaFold2)。 为什么选择 MegaFold? 跨平台支持:通过优化的基于 Triton 的内核,支持在异构设备上执行,包括 NVIDIA GPU 和 AMD GPU。 易于使用:只需更改几行代码即可获得巨大的性能提升 速度提升:每次迭代训练时间加快高达 1.73 倍 减少内存:将
Gradio 是一个开源的 Python 库,简化机器学习模型的演示和共享过程。支持开发者基于简单的代码快速创建出友好的网页界面,任何人、任何地点能轻松使用机器学习模型。Gradio 支持多种输入和输出组件,如文本、图像、音频等,适用于演示、教学和原型开发。Gradio 支持服务器端渲染(SSR),使应用更快地在浏览器中加载。Gradio提供与 Hugging Face Spaces 更紧密的集成
TokenPony 是为个人开发者和小型团队设计的高效 AI 平台,如同一位智能指挥家,将多种主流大模型(如 DeepSeek、Kimi、Qwen、GLM 等)集成在一个统一接口下,极大地简化了模型切换的繁琐流程。用户无需跨平台操作,可一键接入并自由调用不同模型,享受超长 1024K 上下文支持,轻松处理长文档和复杂任务。TokenPony 提供零配置、免部署的一键调用 API,无需自建 GPU
只显示前20页数据,更多请搜索
Showing 97 to 104 of 104 results