关键词 "OpenAI token counter" 的搜索结果, 共 24 条, 只显示前 480 条
Bearly is an exceptional AI tool accessible via hotkey, enhancing workflow with advanced capabilities.
Effortlessly bypass CAPTCHAs with advanced AI.
Token-gate content access with AI writing assistance.
All-in-one AI app with multiple AI models.
The best Free OpenAI Sora alternatives for generating AI videos.
Boost productivity with PopAi's powerful AI tool!
A free AI content detector, ChatGPT plagiarism checker, and word counter.
Create AudioBooks or MP3 files from PDFs and eBooks.
LabLab is a platform that encourages innovation with AI technology through hackathons and events.
Free AI chat interface for advanced problem-solving.
ChatGPT alternative for powerful AI chat capabilities
ZeroGPT is a powerful, accurate AI tool for detecting chatGPT content, OpenAI-generated text, and plagiarism.
一款轻量级终端运行编码智能体 —— Codex CLI,该工具现已在 GitHub 完全开源。是OpenAI开发的。 Codex CLI 可以直接在用户的计算机上工作,旨在最大化 o3 和 o4-mini 等模型的推理能力,并即将支持 GPT-4.1 等额外的 API 模型。 Codex CLI 可以在 macOS 12+、Ubuntu 20.04+/Debian 10+、Windows 11 的 WSL2 子系统中使用,要求最少拥有 4GB 内存(建议 8GB)。
TCMLLM由北京交通大学计算机与信息技术学院医学智能团队开发的中医药大语言模型项目,旨在通过大模型方式实现中医临床辅助诊疗(病证诊断、处方推荐等)中医药知识问答等任务,推动中医知识问答、临床辅助诊疗等领域的快速发展。目前针对中医临床智能诊疗问题中的处方推荐任务,发布了中医处方推荐指令微调大模型TCMLLM-PR。研发团队整合了8个数据来源,涵盖4本中医经典教科书《中医内科学》、《中医外科学》、《中医妇科学》和《中医儿科学》、2020版中国药典、中医临床经典医案数据、以及多个三甲医院的涵盖肺病、中风病、糖尿病、肝病、脾胃病等多病种的临床病历数据,构建了包含68k数据条目(共10M token)的处方推荐指令微调数据集,并使用此数据集,在ChatGLM大模型上进行大规模指令微调,最终得到了中医处方推荐大模型TCMLLM-PR。
Langchain-Chachat(原Langchain-ChatGLM)基于Langchain与ChatGLM、Qwen与Llama等语言模型的RAG与Agent应用| Langchain-Chatatch(以前称为 langchain-ChatGLM),基于本地知识的 LLM(如 ChatGLM、Qwen 和 Llama)RAG 和带有 langchain 的代理应用程序 ✅ 本项目支持主流的 LLM、 Embedding 模型与托管数据库,可实现全部使用开源模型离线接入。同时,本项目也支持 OpenAI GPT API 的调用,另外在后续持续补充对主流模型及模型 API 的接入。
LangChain for Java:利用 LLM 的强大功能增强你的 Java 应用程序 LangChain4j 的目标是简化 LLM 与 Java 应用程序的集成。 方法如下: 统一的 API: LLM 提供商(例如 OpenAI 或 Google Vertex AI)和嵌入(向量)存储(例如 Pinecone 或 Milvus)使用专有 API。LangChain4j 提供统一的 API,避免了为每种 API 学习和实现特定 API 的麻烦。为了尝试不同的 LLM 或嵌入存储,您可以轻松地在它们之间切换,而无需重写代码。LangChain4j 目前支持15 多个流行的 LLM 提供商 和15 多个嵌入存储。 全面的工具箱: 自 2023 年初以来,社区一直在构建大量基于 LLM 的应用程序,识别常见的抽象、模式和技术。LangChain4j 已将这些工具提炼为实用代码。我们的工具箱涵盖各种工具,从低级提示模板、聊天内存管理和函数调用,到高级模式(例如 Agents 和 RAG)。对于每种抽象,我们都提供了一个接口以及基于常见技术的多种即用型实现。无论您是构建聊天机器人,还是开发具有从数据提取到检索的完整流程的 RAG,LangChain4j 都能提供丰富的选择。 大量示例: 这些示例展示了如何开始创建各种 LLM 驱动的应用程序,提供灵感并使您能够快速开始构建。 LangChain4j 于 2023 年初在 ChatGPT 热潮中启动开发。我们注意到,众多 Python 和 JavaScript LLM 库和框架缺乏 Java 版本,因此我们必须解决这个问题!虽然我们的名字里有“LangChain”,但该项目融合了 LangChain、Haystack、LlamaIndex 以及更广泛社区的理念和概念,并融入了我们自己的创新元素。
集成20+领先AI模型(包括OpenAI、Anthropic、Google等),支持深度研究和AI代理功能。用户可通过简单界面调用多种模型,适合复杂任务和跨模型比较。
一款支持主流大语言模型、主流聊天平台的聊天的机器人! 可 DIY 的 多模态 AI 聊天机器人 | 🚀 快速接入 微信、 QQ、Telegram、等聊天平台 | 🦈支持DeepSeek、Grok、Claude、Ollama、Gemini、OpenAI | 工作流系统、网页搜索、AI画图、人设调教、虚拟女仆、语音对话 |
PDF scientific paper translation with preserved formats - 基于 AI 完整保留排版的 PDF 文档全文双语翻译,支持 Google/DeepL/Ollama/OpenAI 等服务,提供 CLI/GUI/MCP/Docker/Zotero
Higress 是一款云原生 API 网关,集成了流量网关、微服务网关、安全网关和 AI 网关的功能。 它基于 Istio 和 Envoy 开发,支持使用 Go/Rust/JS 等语言编写 Wasm 插件。 提供了数十个通用插件和开箱即用的控制台。 Higress AI 网关支持多种 AI 服务提供商,如 OpenAI、DeepSeek、通义千问等,并具备令牌限流、消费者鉴权、WAF 防护、语义缓存等功能。 MCP Server 插件配置 higress 功能说明 mcp-server 插件基于 Model Context Protocol (MCP),专为 AI 助手设计,定义了 AI 模型与外部工具和资源交互的标准方式。 功能特点: 无需编写代码:将现有 REST API 转换为 AI 助手可调用的工具。 统一认证、鉴权、限流和可观测性:利用 Higress 网关提供的能力,确保安全性和性能。 快速构建和部署:通过 Higress 插件机制,快速添加新的 MCP Server。 运行属性 插件执行阶段:默认阶段 插件执行优先级:30
🤯 Lobe Chat - an open-source, modern-design AI chat framework. Supports Multi AI Providers( OpenAI / Claude 3 / Gemini / Ollama / DeepSeek / Qwen), Knowledge Base (file upload / knowledge management / RAG ), Multi-Modals (Plugins/Artifacts) and Thinking. One-click FREE deployment of your private ChatGPT/ Claude / DeepSeek application.
DeepWiki :基于 GitHub Repo 源代码生成最新版可对话式文档,由 Devin驱动。 开源项目免费使用,无需注册。 私有项目中使用需在 http://devin.ai 注册账号。 直接访问 https://deepwiki.com,或将 GitHub 链接中的 github 替换为 deepwiki。 即:GitHub 仓库链接中的 github 替换为 deepwiki,即可直接访问对应的 DeepWiki 页面。如:https://deepwiki.com/<user>/<repo> Devin AI 是由 Cognition Labs开发的自主人工智能助手工具,标榜为 “AI 软件开发者”。曾号称全球首个全自动 AI 程序员,因执行成本高导致订阅价格也极高,后来就淡出人们视野了。目前更主流的开发形式是 IDE + MCP(如 Cursor、VSCode、Windsurf 等),半自动化的工具链调用让控制更精准,结果也变得更加可靠。 Devin 这次带来的 DeepWiki 确实是阅读 GitHub 项目的好帮手,在正式开始介绍 DeepWiki 前,我们先来了解一下目前阅读开源项目的痛点: GitHub 主流开源项目介绍以英文 README.md 为主,支持多语言介绍的并不多,对于非母语的人来说,存在一定阅读障碍。 很多仓库可能连比较像样的 README 介绍都没,更别提专门的文档网站或 Blog 了。于开发者而言是灾难性的,需要自行查看源代码或在 issues 中搜寻一些描述。 如果仓库文件超多,上百个文件,或大几十万行代码,想要通过阅读源码来建立项目宏观认知会变得特别难。 阅读一个仓库的源代码或许不难,但面对 GitHub 这种世界级的开发者聚集地,每天都会诞生大量开源项目,纯靠人力阅读总结会被累死(面对海量代码,人会变得麻木)。 在项目文档中不会有功能与源码之间的映射关系说明,但这又是借鉴参考项目时的一个重点需求。 在源码阅读方面,其实 GitHub 本身就做了许多改进,如树状目录,函数依赖图谱等。 随着 GitHub Copilot 的升级,也被集成进 GitHub,通过交互式对话来进一步辅助源码阅读。点击具体代码行号或顶部固定按钮唤醒 AI 对话,可提问项目相关的任何问题。 但以上这些 GitHub 提供的能力远远不够,并不能帮助我们快速建立项目宏观层面的认知(系统架构图、依赖图等)。 DeepWiki 简介 关于 DeepWiki 的详细信息是由以下推文揭露的,我对其进行了梳理。 Cognition Labs 打造了 DeepWiki,一个免费、可对话的 GitHub 仓库百科全书,致力于让每一个开发者都能轻松访问最新、结构化的项目文档。DeepWiki 由 Devin 技术驱动,专为开源项目免费开放,无需注册即可使用。只需将任何 GitHub 仓库链接中的 github 替换为 deepwiki,即可直接访问对应的 DeepWiki 页面。如:https://deepwiki.com/<user>/<repo> 据 Cognition Labs 成员介绍,DeepWiki 在构建过程中,让大语言模型(LLM)全面扫描了完整的代码库。到目前为止,它已经索引了超过 30,000 个热门 GitHub 仓库,处理了超过 40 亿行代码,处理总量超过 1000 亿 tokens,仅索引过程的计算开销就超过了 30 万美元。索引一个仓库的平均成本大约为 12 美元,但团队还是决定让所有开源项目免费使用,无需任何注册门槛。 从系统设计来看,模型在局部理解代码(如函数、模块)方面表现非常出色,但真正的挑战在于理解整个代码库的全局结构。DeepWiki 针对这一难题,采用了分层方法:先将代码库划分为一套套高层次系统(high-level systems),再为每一个系统生成对应的 Wiki 页面,帮助用户在整体上把握项目架构。 它还利用了一个非常有趣的信号——提交历史(commit history)。通过分析哪些文件经常被一起修改,可以构建出文件之间的关联图(graph),从而揭示项目内部许多潜在且重要的结构模式。这一方法进一步增强了 DeepWiki 对代码库内部逻辑关系的理解与呈现。 如果找不到你需要的仓库,团队也很乐意帮你索引任何公开 GitHub 仓库。对于私有仓库,只需注册 Devin 账号即可使用相同功能。此外,DeepWiki 支持分享 Wiki 页面和智能解答链接,方便团队成员始终保持信息同步。
潮汐AIGC问答系统,聚合多模态大模型、知识库、插件和工作流等 Agent 构建能力,致力于为用户提供 LLM 大语言模型落地应用的强大在线平台。 新版本采用 Gin + Vite5 TypeScript Vue3 技术栈,拥有极致的响应速度;在更简洁的界面下保留完整功能,拥有更多的细节但是更加轻量化,拥有新的UI及交互方式,内置6组不同风格的显示效果,以及更流畅的使用体验。 AI对话:(OPENAI、讯飞星火、百度文心、智谱清言、通义千问、腾讯混元、Kimi全系列模型)以及更多自定义模型如deepseek、claude、bing、llama3、gemini、stable-diffusion、suno-v3、DALL-E3等兼容OPENAI API的模型; AI绘画:DALL-E3 Midjourney Flux; AI写作:思维导图、小应用助手、写作、PDF对话; AIPPT:对话式创作演示文稿; WorkFlow:一站式AI智能体搭建平台,支持AI Agent智能对话机器人; 插件:支持联网搜索丨文件问答丨 URL解析丨图像识别丨HTML代码运行等; 支付:支付宝、微信、易支付 登录:邮箱、短信验证、QQ、微信 客户端:Android iOS Windows MacOS支持
在本研究中,我们推出了 MiMo-7B 系列模型,这一系列模型从零开始训练,专为推理任务而生。我们基于 MiMo-7B-Base 进行的强化学习实验表明,我们的模型拥有非凡的推理潜力,甚至超越了规模更大的 32B 模型。此外,我们还对冷启动的 SFT 模型进行了强化学习训练,最终形成了 MiMo-7B-RL,它在数学和代码推理任务上均表现出色,性能堪比 OpenAI o1-mini。 我们开源了 MiMo-7B 系列,包括基础模型、SFT 模型、基于基础模型训练的强化学习模型以及基于 SFT 模型训练的强化学习模型的检查点。我们相信,这份报告以及这些模型将为开发强大的推理 LLM 提供宝贵的见解,造福更广泛的社区。 亮点 预训练:为推理而生的基础模型 我们优化了数据预处理流程,增强了文本提取工具包,并应用多维数据过滤来提高预训练数据中的推理模式密度。我们还采用多种策略来生成海量多样化的合成推理数据。 我们采用三阶段数据混合策略进行预训练。总体而言,MiMo-7B-Base 在约 25 万亿个 token 上进行了预训练。 我们将多标记预测作为额外的训练目标,以增强模型性能并加速推理。 训练后食谱:先驱推理模型 我们精选了 13 万道数学和代码题作为强化学习训练数据,可供基于规则的验证器进行验证。每道题都经过仔细的清理和难度评估,以确保质量。我们仅采用基于规则的准确率奖励机制,以避免潜在的奖励黑客攻击。 为了缓解高难度代码问题的稀疏奖励问题,我们引入了测试难度驱动的代码奖励机制。通过为不同难度级别的测试用例分配细粒度的分数,我们能够利用密集的奖励信号更有效地优化策略。 我们针对简单问题实施数据重采样策略,以提高推出采样效率并稳定策略更新,特别是在 RL 训练的后期阶段。 强化学习基础设施 我们开发了无缝部署引擎 (Seamless Rollout Engine),以加速强化学习 (RL) 的训练和验证。
只显示前20页数据,更多请搜索
Showing 265 to 288 of 293 results