搜索结果

关键词 "优化" 的搜索结果, 共 24 条, 只显示前 480

Tavily

Tavily

Tavily是一个为大型语言模型(LLMs)和检索增强生成(RAG)优化的搜索引擎,旨在提供高效、快速且持久的搜索结果。该产品由Tavily团队开发,目标用户是AI开发者、研究人员以及需要实时、准确、有根据的信息的企业。Tavily Search API通过连接LLMs和AI应用程序到可信赖的实时知识,减少了幻觉和整体偏见,帮助AI做出更好的决策。 Tavily的主要功能和特点 Tavily Search API的核心功能包括: 深度研究:通过单一的API调用,简化数据收集,提供来自可信来源的聚合和精选结果。 智能查询建议和答案:装备AI以自动化的方式深化知识,通过细微的答案和后续查询。 多源优化:与Bing、Google和SerpAPI等其他API相比,Tavily Search API会审查多个来源,从每个来源中找到最相关的内容,以优化LLM上下文。 灵活性和成本效益:Tavily Search API提供更灵活的定价计划和更实惠的成本。 如何使用Tavily 要使用Tavily Search API,开发者可以通过Python SDK轻松与API交互,直接在Python程序中利用搜索功能。开发者还可以自定义字段,如上下文等,以优化搜索结果。Tavily的搜索结果基于来源的可信度和内容质量进行索引和排名,并且能够自主地构建后续查询,深入主题以提供细微的答案和全面的分析。 Tavily的适用人群 Tavily Search API适用于AI开发者、研究人员、企业数据分析师以及任何需要集成高效搜索功能的AI应用程序的开发者。特别是那些使用LLMs和RAG技术的用户,将能从Tavily提供的精确和实时的信息检索中受益。 Tavily的价格 Tavily提供不同的定价计划,以满足不同用户的需求: Researcher计划:免费,每月1,000次API调用。 Project计划:$30/月,每月4,000次API调用。 Bootstrap计划:$100/月,每月15,000次API调用。 Startup计划:$220/月,每月38,000次API调用。 Growth计划:$500/月,每月100,000次API调用。 Add-On计划:$100一次性购买,额外8,000次API调用。 Enterprise计划:提供定制API调用、生产就绪的速率限制、定制的主题和来源以及企业级的安全和隐私。 Tavily产品总结 Tavily Search API是一个专门为AI设计的搜索引擎,它通过提供实时、准确和有根据的信息检索,帮助AI应用程序做出更好的决策。其深度研究、智能查询建议和答案以及多源优化等特点,使其在同类产品中脱颖而出。适用于各种规模的开发者和企业,Tavily的灵活定价计划确保了用户可以根据自己的需求选择合适的方案。

DeTikZify

DeTikZify

DeTikZify是一款创新工具,专为科学家、学者以及任何需要创建精准数学或科学插图的人设计。它基于先进的语言模型,能够理解手绘草图或现有图片,并转换它们成为可直接用于LaTeX文档的TikZ代码,这一过程无需手动编码,大大节省了时间并提高了效率。 项目技术分析 该系统利用深度学习与蒙特卡洛树搜索(MCTS)的巧妙结合,实现智能迭代优化输出。这意味着,即使初始生成可能不完美,DeTikZify也能不断自我改进,逼近理想的图示效果,这一切都不需要额外的模型训练。其核心在于对TikZ语言的深刻理解和强大的视觉到代码的转换算法,实现了从图像到代码的无缝衔接。 应用场景 科研发表:快速将草图概念化为专业级别图形,适合论文发表。 教学辅助:教师可以迅速制作教学示意图,提升课堂讲解的直观性。 个人研究:帮助研究人员高效呈现复杂数据和理论模型。 学术共享:提供了一种标准化方式来重现和修改他人的图形,促进了学术交流。 项目特点 易用性:无论是科研新手还是专家,都能轻松上手,通过简单输入获取复杂的TikZ代码。 高精度转换:即使是细节繁复的图形,也能保持高度准确,忠实于原始设计。 交互式体验:通过Web UI或编程接口,提供了灵活的操作环境,允许实时调整和反馈。 教育资源:附带的教程和例子,使得学习和掌握TikZ编程变得更加平易近人。 开源贡献:基于强大的社区支持,持续迭代优化,任何人都能参与改进和扩展功能。 DeTikZify不仅是技术的进步,更是简化科学沟通的重要一步。它的出现预示着一个更加高效、直观的科研图表制作时代。立即尝试,让你的科学研究和文献展示更上一层楼,无需再被图形制作的繁琐细节所困扰。这个开源项目,等待着每一位寻求创新表达方式的研究者,共同探索科学之美。

Cooragent

Cooragent

清华大模型团队 LeapLab 发布了一款面向 Agent 协作的开源框架:Cooragent。 你只需要说一句「咒语」:「创建一个 AI 情报收集秘书,为我收集最新的 AI 进展。」 魔法就会产生,Cooragent 就会根据你的个人偏好生成你专属的 AI 情报收集秘书,每天自动浏览网页,收集最重要的情报,总结成你喜欢的图文文档发送给你。 一句话创建智能体的工具:Cooragent,可与其他智能体协作完成复杂的任务,支持MCP 有两种工作模式: 1、Agent Factory: 只需描述,Cooragent就会根据需求生成一个智能体,其自动分析需求,通过记忆和扩展深入理解用户需求,挑选合适的工具自动打磨Prompt,逐步完成智能体构建 2、Agent Workflow: 只需描述目标任务,Cooragent会自动分析任务需求,挑选合适的智能体进行协作 提供CLI工具,可以快速创建,编辑,删除智能体 Cooragent 有两种工作模式:Agent Factory和Agent Workflow。 Agent Factory:您只需描述 Agent,Cooragent 便会根据您的需求生成 Agent。在 Agent Factory 模式下,系统会自动分析用户需求,并通过记忆和扩展深入了解用户,无需进行复杂的 Prompt 设计。基于对用户需求的深入了解,Planner 会选择合适的工具,自动细化 Prompt,逐步完成 Agent 的构建。构建完成后,Agent 即可立即使用,但您仍可对其进行编辑,以优化其行为和功能。 代理工作流:您只需描述想要完成的目标任务,Cooragent 会自动分析任务需求并选择合适的代理进行协作。规划器根据代理的专业领域进行组合,规划任务步骤和完成顺序,然后将任务交给任务分发节点“发布”进行发布。每个代理接收各自的任务并协作完成。Cooragent 可以在这两种模式下持续演进,从而创造无限可能。

xiaomi mimo

xiaomi mimo

在本研究中,我们推出了 MiMo-7B 系列模型,这一系列模型从零开始训练,专为推理任务而生。我们基于 MiMo-7B-Base 进行的强化学习实验表明,我们的模型拥有非凡的推理潜力,甚至超越了规模更大的 32B 模型。此外,我们还对冷启动的 SFT 模型进行了强化学习训练,最终形成了 MiMo-7B-RL,它在数学和代码推理任务上均表现出色,性能堪比 OpenAI o1-mini。 我们开源了 MiMo-7B 系列,包括基础模型、SFT 模型、基于基础模型训练的强化学习模型以及基于 SFT 模型训练的强化学习模型的检查点。我们相信,这份报告以及这些模型将为开发强大的推理 LLM 提供宝贵的见解,造福更广泛的社区。 亮点 预训练:为推理而生的基础模型 我们优化了数据预处理流程,增强了文本提取工具包,并应用多维数据过滤来提高预训练数据中的推理模式密度。我们还采用多种策略来生成海量多样化的合成推理数据。 我们采用三阶段数据混合策略进行预训练。总体而言,MiMo-7B-Base 在约 25 万亿个 token 上进行了预训练。 我们将多标记预测作为额外的训练目标,以增强模型性能并加速推理。 训练后食谱:先驱推理模型 我们精选了 13 万道数学和代码题作为强化学习训练数据,可供基于规则的验证器进行验证。每道题都经过仔细的清理和难度评估,以确保质量。我们仅采用基于规则的准确率奖励机制,以避免潜在的奖励黑客攻击。 为了缓解高难度代码问题的稀疏奖励问题,我们引入了测试难度驱动的代码奖励机制。通过为不同难度级别的测试用例分配细粒度的分数,我们能够利用密集的奖励信号更有效地优化策略。 我们针对简单问题实施数据重采样策略,以提高推出采样效率并稳定策略更新,特别是在 RL 训练的后期阶段。 强化学习基础设施 我们开发了无缝部署引擎 (Seamless Rollout Engine),以加速强化学习 (RL) 的训练和验证。

microsoft phi

microsoft phi

phi-4是一个最先进的开放模型,它基于合成数据集、来自筛选过的公共领域网站的数据以及获取的学术书籍和问答数据集构建而成。该方法的目标是确保小型模型能够使用专注于高质量和高级推理的数据进行训练。该模型 phi-4经过了严格的增强和校准过程,结合了监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。 14B 参数,密集解码器专用 Transformer 模型 我们的模型旨在加速语言模型的研究,并将其作为生成式人工智能功能的基石。它适用于通用人工智能系统和应用(主要针对英语),这些系统和应用需要: 1. 内存/计算受限的环境。2 . 延迟受限的场景。3 . 推理和逻辑。 训练数据集 我们的训练数据是用于 Phi-3 的数据的扩展,包括来自以下各种来源的数据: 对公开的文档进行严格的质量筛选,选择高质量的教育数据和代码。 新创建的合成“类似教科书”的数据,用于教授数学、编码、常识推理、世界常识(科学、日常活动、心理理论等)。 获得学术书籍和问答数据集。 高质量的聊天格式监督数据涵盖各种主题,以反映人类在遵循指示、真实性、诚实和乐于助人等不同方面的偏好。 多语言数据约占我们整体数据的 8%。我们注重能够提升模型推理能力的数据质量,并筛选公开的文档,确保其包含的知识水平符合要求。 基准数据集 我们phi-4使用OpenAI 的 SimpleEval和我们自己的内部基准进行了评估,以了解该模型的功能,更具体地说: MMLU:用于多任务语言理解的流行聚合数据集。 数学:具有挑战性的竞赛数学问题。 GPQA:复杂的、研究生水平的科学问题。 DROP:复杂的理解和推理。 MGSM:多语言小学数学。 HumanEval:功能代码生成。 SimpleQA:事实回应。

只显示前20页数据,更多请搜索