关键词 "Dark GPU" 的搜索结果, 共 24 条, 只显示前 480 条
Deploy ML models easily with PoplarML, supporting popular frameworks and real-time inference.
Local browser-based LLM execution
Fast, simple, and powerful MLops platform.
Free online tool for writing with AI grammar correction.
Serverless infrastructure for building and deploying AI applications.
An app for offline AI experimentation without a GPU.
Build next-gen AI products without maintaining GPUs
Translation app for macOS and Windows.
The Leading GPU Cloud for AI & LLM Training.
Summary: Faraday.dev is an offline desktop app for AI chat characters, ensuring data privacy.
Accessible image generation with pre-trained models or your own. No limits, no GPUs needed.
Go from nothing → deployed codebase in ~5 minutes
Access large language and text-to-image models for a wide range of applications.
Turn your photos into cartoons with ease.
ChatHub is a browser extension for using multiple chatbots at once.
此开源项目旨在完全从0开始,仅用3块钱成本 + 2小时!即可训练出仅为25.8M的超小语言模型MiniMind。 MiniMind系列极其轻量,最小版本体积是 GPT-3 的 1/7000,力求做到最普通的个人GPU也可快速训练。 项目同时开源了大模型的极简结构-包含拓展共享混合专家(MoE)、数据集清洗、预训练(Pretrain)、监督微调(SFT)、LoRA微调, 直接偏好强化学习(DPO
Wan2.1,这是一套全面开放的视频基础模型,旨在突破视频生成的界限。Wan2.1提供以下主要功能: 👍 SOTA 性能:Wan2.1在多个基准测试中始终优于现有的开源模型和最先进的商业解决方案。 👍支持消费级 GPU:T2V-1.3B 型号仅需 8.19 GB VRAM,兼容几乎所有消费级 GPU。它可在约 4 分钟内在 RTX 4090 上生成一段 5 秒的 480P 视频(无需量化等
A2A-MCP official website with modern UI and dark mode support
Zonos MCP server modified for Linux and GPU optimizations.
ACE-Step,这是一个用于音乐生成的全新开源基础模型,它克服了现有方法的关键局限性,并通过整体架构设计实现了最佳性能。当前的方法在生成速度、音乐连贯性和可控性之间面临着固有的权衡。例如,基于 LLM 的模型(例如 Yue、SongGen)在歌词对齐方面表现出色,但推理速度慢且存在结构性伪影。另一方面,扩散模型(例如 DiffRhythm)虽然能够实现更快的合成速度,但通常缺乏长距离的结构连贯性
FramePack 是一个渐进式生成视频的下一帧(下一帧部分)预测神经网络结构。 FramePack 将输入上下文压缩为恒定长度,以便生成工作量不受视频长度的影响。 即使在笔记本电脑 GPU 上,FramePack 也可以使用 13B 模型处理大量帧。 FramePack 可以使用更大的批量大小进行训练,类似于图像扩散训练的批量大小。
阿里巴巴昨日在 Github 等平台开源了 ZeroSearch 大模型搜索引擎。这是一种无需与真实搜索引擎交互即可激励大模型搜索能力的强化学习框架。 ZeroSearch 主要利用了大模型在大规模预训练过程中积累的丰富知识,将其转化为一个检索模块,能够根据搜索查询生成相关内容。同时,还可以动态控制生成内容的质量,这是传统搜索引擎所不具备的特殊功能。 研究人员在 NQ、TriviaQA、Pop
RWKV开源发布了 RWKV7-G1 1.5B 推理模型(Reasoning Model)。模型基于 World v3.5 数据集训练,包含更多小说、网页、数学、代码和 reasoning 数据,总数据为 5.16T tokens。其具备其它同尺寸模型不具备的推理能力和任务能力,同时还支持现实世界 100+ 种语言。 在实际测试中,RWKV7-G1 1.5B 模型的推理逻辑性较强,能够完成有难度的
Muyan-TTS,一款低成本、具备良好二次开发支持的模型并完全开源,以方便学术界和小型应用团队的音频技术爱好者。 当前开源的Muyan-TTS版本由于训练数据规模有限,致使其仅对英语语种呈现出良好的支持效果。不过,得益于与之同步开源的详尽训练方法,从事相关行业的开发者能够依据自身实际业务场景,灵活地对Muyan-TTS进行功能升级与定制化改造。 01. H
只显示前20页数据,更多请搜索
Showing 49 to 72 of 86 results