关键词 "Helium 10 alternative" 的搜索结果, 共 24 条, 只显示前 480 条
AI语音生成器是什么 AI语音生成器是一种利用人工智能技术将文本转换为语音的工具Genny是LOVO AI开发的一款先进的AI语音生成器,它具备500+种声音和100种语言的支持,能够为视频、营销、培训、社交媒体等内容创作提供高质量的语音Genny的特点在于其超逼真的声音,几乎无法与真实人类的声音区分开来 AI语音生成器的主要功能和特点 Genny的主要功能和特点包括: 超逼真的AI声音,支持100多种语言 集成的视频编辑功能,方便用户创建和编辑视频 文本到语音同步,确保音视频完美匹配 自动字幕生成,支持20多种语言 AI脚本编写功能,帮助用户快速生成专业脚本 声音克隆技术,只需一分钟音频即可创建自定义声音 AI艺术生成器,快速生成高清免版权图片 团队协作功能,支持云端存储和项目共享 适用于开发者的API,允许在应用程序或服务中使用先进的声音 如何使用AI语音生成器 使用Genny非常简单,用户只需通过网页浏览器登录即可开始使用以下是每个功能的使用方法和应用场景: 文本到语音:用户输入文本,选择合适的声音和语言,Genny将自动生成语音,适用于视频配音、有声读物等 视频编辑:用户可以上传视频,使用Genny的视频编辑工具进行剪辑和增强,然后添加生成的语音 自动字幕:在视频编辑过程中,Genny可以自动生成字幕,支持多种语言,帮助全球观众理解内容 AI脚本编写:当用户遇到创作瓶颈时,Genny的AI脚本编写功能可以提供帮助,快速生成专业脚本 声音克隆:用户可以上传自己的音频样本,Genny将根据样本创建独特的声音,适用于品牌宣传和个性化内容 AI语音生成器的适用人群 Genny适用于广泛的用户群体,包括内容创作者、营销人员、教育工作者、企业培训师以及任何需要为视频或音频添加语音的人 AI语音生成器的价格 根据LOVO AI的官方网站,Genny提供免费的基础服务,用户可以免费开始使用具体的付费计划可能包括更多的功能和高级选项,但具体的价格信息需要直接在官方网站上查询 AI语音生成器产品总结 Genny作为一款AI语音生成器,以其高度逼真的声音和全面的功能,为内容创作者和其他用户提供了强大的工具它不仅能够节省时间和成本,还能提升视频和音频项目的专业度Genny的易用性和灵活性使其成为市场上值得关注的AI语音生成器之一
The best Free OpenAI Sora alternatives for generating AI videos.
Comprehensive directory of 10,000+ AI tools across various categories.
Bring projects, wiki, and teams together with AI.
ChatGPT alternative for powerful AI chat capabilities
Pixlr is a free online tool for photo editing, design, and AI-powered image creation. Pixlr 是一款免费的在线照片编辑、设计和人工智能图像创建工具。
AI data analyst for data visualization and analysis 人工智能数据分析师,负责数据可视化和分析
一款轻量级终端运行编码智能体 —— Codex CLI,该工具现已在 GitHub 完全开源。是OpenAI开发的。 Codex CLI 可以直接在用户的计算机上工作,旨在最大化 o3 和 o4-mini 等模型的推理能力,并即将支持 GPT-4.1 等额外的 API 模型。 Codex CLI 可以在 macOS 12+、Ubuntu 20.04+/Debian 10+、Windows 11 的 WSL2 子系统中使用,要求最少拥有 4GB 内存(建议 8GB)。
TCMLLM由北京交通大学计算机与信息技术学院医学智能团队开发的中医药大语言模型项目,旨在通过大模型方式实现中医临床辅助诊疗(病证诊断、处方推荐等)中医药知识问答等任务,推动中医知识问答、临床辅助诊疗等领域的快速发展。目前针对中医临床智能诊疗问题中的处方推荐任务,发布了中医处方推荐指令微调大模型TCMLLM-PR。研发团队整合了8个数据来源,涵盖4本中医经典教科书《中医内科学》、《中医外科学》、《中医妇科学》和《中医儿科学》、2020版中国药典、中医临床经典医案数据、以及多个三甲医院的涵盖肺病、中风病、糖尿病、肝病、脾胃病等多病种的临床病历数据,构建了包含68k数据条目(共10M token)的处方推荐指令微调数据集,并使用此数据集,在ChatGLM大模型上进行大规模指令微调,最终得到了中医处方推荐大模型TCMLLM-PR。
月之暗面 (Moonshot AI) 创立于2023年3月,致力于寻求将能源转化为智能的最优解,通过产品与用户共创智能,2023年10月推出全球首个支持输入20万汉字的智能助手产品Kimi。
上海交通大学清源研究院的研究人员提出了PathoDuet框架,针对病理切片图像的特点,设计了跨尺度定位和跨染色迁移两个预训练任务,有效利用了图像放大倍数和染色方式之间的关联性。PathoDuet在结直肠癌分型和免疫组化标记物表达预测等任务中优于现有方法。此外,通用病理基础模型UNI[39]在超过100万张诊断切片上进行了大规模无监督学习,并在34个任务中展现了卓越的性能。该模型支持分辨率无关分类、少样本学习等,并具备对108种癌症类型的泛化分类能力。
MedSAM医学图像分割基础模型,能够在广泛的任务范围内对多种模态的医学图像进行高性能分割。MedSAM在SAM模型的基础上,使用超过150万的图片和分割掩码进行训练,包含了10种图像模态以及30种癌症类别。
中国科学院深圳先进技术研究院的团队提出了MaCo,通过引入掩蔽对比学习,同时实现了胸部X光图像的细粒度理解和零样本学习。MaCo在6个公开的胸部X光数据集上验证了其效果,在分类、分割、检测等多个任务中超越了10种现有的最先进方法
Aignostics公司发布了目前最大规模的腹部CT数据集AbdomenAtlas。该数据集涵盖了广泛的人群特征及多种设备类型,共收录了来自112家医疗机构的20,460例三维CT影像。研究团队由10名放射科医生组成,采用人工智能辅助标注方法,完成了67.3万个高质量解剖结构掩码的标注工作。他们首先对5,246例影像中的22种解剖结构进行人工标注,随后利用半自动化流程,由放射科医生优化模型预测的标注结果。
通用病理基础模型UNI在超过100万张诊断切片上进行了大规模无监督学习,并在34个任务中展现了卓越的性能。该模型支持分辨率无关分类、少样本学习等,并具备对108种癌症类型的泛化分类能力。
CZ CELLxGENE Annotate(发音为“cell-by-gene”)是一款用于单细胞数据集(例如来自人类细胞图谱 (Human Cell Atlas)的数据集)的交互式数据探索器。我们利用现代 Web 开发技术,快速可视化至少 100 万个细胞,希望能够帮助生物学家和计算研究人员探索他们的数据。
SPOTlight提供了一个工具,可以从单细胞参考中对细胞混合物进行反卷积。该工具最初是为 10X 的 Visium(空间转录组学)技术开发的,可用于所有输出细胞混合物的技术。它与 Bioconductor 的Single Cell Experiment和Spatial Experiment类以及密集和稀疏矩阵兼容。此外,该软件包还提供可视化工具来评估反卷积的结果。简而言之,SPOTlight它基于通过 NMFreg 模型为每种细胞类型找到主题配置文件签名,然后优化细胞类型比例以拟合我们想要反卷积的混合物。
百川智能核心团队由来自搜狗、百度、华为、微软、字节、腾讯等知名科技公司的AI顶尖人才组成。百川智能成立不到100天,便发布了Baichuan-7B、Baichuan-13B两款开源可免费商用的中文大模型。2025年1月24日,百川智能发布全场景深度思考模型Baichuan-M1-preview,该模型同时具备语言、视觉和搜索三大领域推理能力,现已在百小应中正式上线。
多语言效率工具,支持高精度录音转文本、智能会议总结和自动思维导图生成,覆盖110+语言。办公场景中应用广泛,适合会议和文档处理。
InternVL Family: A Pioneering Open-Source Alternative to GPT-4o. 接近GPT-4o表现的开源多模态对话模型 InternVL 家族:利用开源套件缩小与商业多模态模型的差距——GPT-4o 的先驱开源替代方案 InternVL3,一个性能强大的开源多模态大模型。其中InternVL3-78B同时在感知能力和推理能力上同时达到了开源第一的性能。InternVL3-78B的核心技术包括:可变视觉位置编码,原生多模态预训练,混合偏好优化,以及多模态测试时间缩放。
Wan2.1,这是一套全面开放的视频基础模型,旨在突破视频生成的界限。Wan2.1提供以下主要功能: 👍 SOTA 性能:Wan2.1在多个基准测试中始终优于现有的开源模型和最先进的商业解决方案。 👍支持消费级 GPU:T2V-1.3B 型号仅需 8.19 GB VRAM,兼容几乎所有消费级 GPU。它可在约 4 分钟内在 RTX 4090 上生成一段 5 秒的 480P 视频(无需量化等优化技术)。其性能甚至可与一些闭源型号相媲美。 👍多任务:Wan2.1在文本转视频、图像转视频、视频编辑、文本转图像和视频转音频方面表现出色,推动了视频生成领域的发展。 👍视觉文本生成:Wan2.1是第一个能够生成中文和英文文本的视频模型,具有强大的文本生成功能,可增强其实际应用。 👍强大的视频 VAE:Wan-VAE提供卓越的效率和性能,可对任意长度的 1080P 视频进行编码和解码,同时保留时间信息,使其成为视频和图像生成的理想基础。
针对大型语言模型设计的提示词优化器,将你的 AI 提示词提升至完美。专为大型语言模型 (LLM)、大型模型 (LM) 和 LMOps 设计的尖端提示词优化器。 产品特点: - 支持多目标优化,支持逐步优化结果,支持多个模型的输出; - 支持多种语言的提示词; - 10 秒快速出结果; - 支持部署; - 支持 API, 支持快速处理和集成; 使用评价: 目前,AI 的使用效果,除了 AI 自身的能力以外,用户的提问质量至为关键。高质量的提问才会有高质量的回答。因此,提示词十分重要。如果你感觉自己的提示词比较一般,可以使用 PromptPerfect 进行优化。这个产品的主要缺点是比较贵。
DeepWiki :基于 GitHub Repo 源代码生成最新版可对话式文档,由 Devin驱动。 开源项目免费使用,无需注册。 私有项目中使用需在 http://devin.ai 注册账号。 直接访问 https://deepwiki.com,或将 GitHub 链接中的 github 替换为 deepwiki。 即:GitHub 仓库链接中的 github 替换为 deepwiki,即可直接访问对应的 DeepWiki 页面。如:https://deepwiki.com/<user>/<repo> Devin AI 是由 Cognition Labs开发的自主人工智能助手工具,标榜为 “AI 软件开发者”。曾号称全球首个全自动 AI 程序员,因执行成本高导致订阅价格也极高,后来就淡出人们视野了。目前更主流的开发形式是 IDE + MCP(如 Cursor、VSCode、Windsurf 等),半自动化的工具链调用让控制更精准,结果也变得更加可靠。 Devin 这次带来的 DeepWiki 确实是阅读 GitHub 项目的好帮手,在正式开始介绍 DeepWiki 前,我们先来了解一下目前阅读开源项目的痛点: GitHub 主流开源项目介绍以英文 README.md 为主,支持多语言介绍的并不多,对于非母语的人来说,存在一定阅读障碍。 很多仓库可能连比较像样的 README 介绍都没,更别提专门的文档网站或 Blog 了。于开发者而言是灾难性的,需要自行查看源代码或在 issues 中搜寻一些描述。 如果仓库文件超多,上百个文件,或大几十万行代码,想要通过阅读源码来建立项目宏观认知会变得特别难。 阅读一个仓库的源代码或许不难,但面对 GitHub 这种世界级的开发者聚集地,每天都会诞生大量开源项目,纯靠人力阅读总结会被累死(面对海量代码,人会变得麻木)。 在项目文档中不会有功能与源码之间的映射关系说明,但这又是借鉴参考项目时的一个重点需求。 在源码阅读方面,其实 GitHub 本身就做了许多改进,如树状目录,函数依赖图谱等。 随着 GitHub Copilot 的升级,也被集成进 GitHub,通过交互式对话来进一步辅助源码阅读。点击具体代码行号或顶部固定按钮唤醒 AI 对话,可提问项目相关的任何问题。 但以上这些 GitHub 提供的能力远远不够,并不能帮助我们快速建立项目宏观层面的认知(系统架构图、依赖图等)。 DeepWiki 简介 关于 DeepWiki 的详细信息是由以下推文揭露的,我对其进行了梳理。 Cognition Labs 打造了 DeepWiki,一个免费、可对话的 GitHub 仓库百科全书,致力于让每一个开发者都能轻松访问最新、结构化的项目文档。DeepWiki 由 Devin 技术驱动,专为开源项目免费开放,无需注册即可使用。只需将任何 GitHub 仓库链接中的 github 替换为 deepwiki,即可直接访问对应的 DeepWiki 页面。如:https://deepwiki.com/<user>/<repo> 据 Cognition Labs 成员介绍,DeepWiki 在构建过程中,让大语言模型(LLM)全面扫描了完整的代码库。到目前为止,它已经索引了超过 30,000 个热门 GitHub 仓库,处理了超过 40 亿行代码,处理总量超过 1000 亿 tokens,仅索引过程的计算开销就超过了 30 万美元。索引一个仓库的平均成本大约为 12 美元,但团队还是决定让所有开源项目免费使用,无需任何注册门槛。 从系统设计来看,模型在局部理解代码(如函数、模块)方面表现非常出色,但真正的挑战在于理解整个代码库的全局结构。DeepWiki 针对这一难题,采用了分层方法:先将代码库划分为一套套高层次系统(high-level systems),再为每一个系统生成对应的 Wiki 页面,帮助用户在整体上把握项目架构。 它还利用了一个非常有趣的信号——提交历史(commit history)。通过分析哪些文件经常被一起修改,可以构建出文件之间的关联图(graph),从而揭示项目内部许多潜在且重要的结构模式。这一方法进一步增强了 DeepWiki 对代码库内部逻辑关系的理解与呈现。 如果找不到你需要的仓库,团队也很乐意帮你索引任何公开 GitHub 仓库。对于私有仓库,只需注册 Devin 账号即可使用相同功能。此外,DeepWiki 支持分享 Wiki 页面和智能解答链接,方便团队成员始终保持信息同步。
我们在 Lean 4 中引入了 DeepSeek-Prover-V2,这是一个专为形式化定理证明而设计的开源大型语言模型,其初始化数据通过 DeepSeek-V3 驱动的递归定理证明流程收集。冷启动训练过程首先促使 DeepSeek-V3 将复杂问题分解为一系列子目标。已解决子目标的证明被合成为一个思路链,并结合 DeepSeek-V3 的逐步推理,为强化学习创建初始冷启动。这一过程使我们能够将非形式化和形式化的数学推理整合到一个统一的模型中。 通过递归证明搜索合成冷启动推理数据 为了构建冷启动数据集,我们开发了一个简单而有效的递归定理证明流程,并利用 DeepSeek-V3 作为子目标分解和形式化的统一工具。我们促使 DeepSeek-V3 将定理分解为高级证明草图,同时在 Lean 4 中将这些证明步骤形式化,从而生成一系列子目标。 我们使用规模较小的 7B 模型来处理每个子目标的证明搜索,从而减轻相关的计算负担。一旦解决了一个挑战性问题的分解步骤,我们就会将完整的分步形式化证明与 DeepSeek-V3 中的相应思路配对,以创建冷启动推理数据。 利用合成冷启动数据进行强化学习 我们以端到端的方式整理出一组尚未被 7B 证明器模型解决的挑战性问题子集,但所有分解后的子目标都已成功解决。通过组合所有子目标的证明,我们为原始问题构建了一个完整的形式化证明。然后,我们将该证明附加到 DeepSeek-V3 的思路链中,该思路链概述了相应的引理分解,从而将非形式化推理与后续形式化过程紧密结合。 在合成冷启动数据上对证明器模型进行微调后,我们执行强化学习阶段,以进一步增强其连接非形式化推理和形式化证明构造的能力。遵循推理模型的标准训练目标,我们使用二元正确或错误反馈作为奖励监督的主要形式。 最终模型 DeepSeek-Prover-V2-671B 在神经定理证明方面达到了最佳性能,在 MiniF2F 测试中达到了 $88.9$% 的通过率,并在 PutnamBench 的 658 个问题中解决了 49 个。DeepSeek-Prover-V2 为 miniF2F 数据集生成的证明可以ZIP 压缩包形式下载。 3. ProverBench:AIME 和教科书问题的形式化 我们推出了 ProverBench,这是一个包含 325 个问题的基准数据集。其中 15 个问题取自近期 AIME 竞赛(AIME 24 和 25)中的数论和代数问题,形式化后呈现出真实的高中竞赛水平挑战。其余 310 个问题则取自精选的教科书示例和教学教程,构成了一个丰富多样且以教学法为基础的形式化数学问题集合。该基准旨在对高中竞赛问题和本科数学进行更全面的评估。 4. 模型和数据集下载 我们发布了两种模型大小的 DeepSeek-Prover-V2:7B 和 671B 参数。DeepSeek-Prover-V2-671B 在 DeepSeek-V3-Base 基础上进行训练。DeepSeek-Prover-V2-7B 则基于 DeepSeek-Prover-V1.5-Base 构建,并扩展了上下文长度,最高可达 32K 个 token。
只显示前20页数据,更多请搜索
Showing 193 to 216 of 218 results