搜索结果

关键词 "自动化" 的搜索结果, 共 24 条, 只显示前 480

Tavily

Tavily

Tavily是一个为大型语言模型(LLMs)和检索增强生成(RAG)优化的搜索引擎,旨在提供高效、快速且持久的搜索结果。该产品由Tavily团队开发,目标用户是AI开发者、研究人员以及需要实时、准确、有根据的信息的企业。Tavily Search API通过连接LLMs和AI应用程序到可信赖的实时知识,减少了幻觉和整体偏见,帮助AI做出更好的决策。 Tavily的主要功能和特点 Tavily Search API的核心功能包括: 深度研究:通过单一的API调用,简化数据收集,提供来自可信来源的聚合和精选结果。 智能查询建议和答案:装备AI以自动化的方式深化知识,通过细微的答案和后续查询。 多源优化:与Bing、Google和SerpAPI等其他API相比,Tavily Search API会审查多个来源,从每个来源中找到最相关的内容,以优化LLM上下文。 灵活性和成本效益:Tavily Search API提供更灵活的定价计划和更实惠的成本。 如何使用Tavily 要使用Tavily Search API,开发者可以通过Python SDK轻松与API交互,直接在Python程序中利用搜索功能。开发者还可以自定义字段,如上下文等,以优化搜索结果。Tavily的搜索结果基于来源的可信度和内容质量进行索引和排名,并且能够自主地构建后续查询,深入主题以提供细微的答案和全面的分析。 Tavily的适用人群 Tavily Search API适用于AI开发者、研究人员、企业数据分析师以及任何需要集成高效搜索功能的AI应用程序的开发者。特别是那些使用LLMs和RAG技术的用户,将能从Tavily提供的精确和实时的信息检索中受益。 Tavily的价格 Tavily提供不同的定价计划,以满足不同用户的需求: Researcher计划:免费,每月1,000次API调用。 Project计划:$30/月,每月4,000次API调用。 Bootstrap计划:$100/月,每月15,000次API调用。 Startup计划:$220/月,每月38,000次API调用。 Growth计划:$500/月,每月100,000次API调用。 Add-On计划:$100一次性购买,额外8,000次API调用。 Enterprise计划:提供定制API调用、生产就绪的速率限制、定制的主题和来源以及企业级的安全和隐私。 Tavily产品总结 Tavily Search API是一个专门为AI设计的搜索引擎,它通过提供实时、准确和有根据的信息检索,帮助AI应用程序做出更好的决策。其深度研究、智能查询建议和答案以及多源优化等特点,使其在同类产品中脱颖而出。适用于各种规模的开发者和企业,Tavily的灵活定价计划确保了用户可以根据自己的需求选择合适的方案。

UI-TARS

UI-TARS

UI-TARS-1.5 是一款基于强大的视觉语言模型构建的开源多模态代理,能够在虚拟世界中高效地执行各种任务。 UI-TARS-1.5 这是一款基于视觉-语言模型构建的开源多模态智能体,能够在虚拟世界中高效执行各类任务。 UI-TARS-1.5 基于字节此前提出的原生智能体方案 UI-TARS,通过强化学习进一步增强了模型的高阶推理能力,使模型能够在“行动”前先进行“思考”。 该版本的模型中,团队还展示了一个新的愿景:以游戏为载体来增强基础模型的推理能力。与数学、编程等领域相比,游戏更多依赖直观的、常识性的推理,并较少依赖专业知识,因此,游戏通常是评估和提升未来模型通用能力的理想测试场景。 据介绍,UI-TARS 是一个原生 GUI 智能体,具备真实操作电脑和手机系统的能力,同时,还可操控浏览器、完成复杂交互任务。UI-TARS-1.5 能够实现精准 GUI 操作,基于团队在四个维度的技术探索: 视觉感知增强:依托大规模界面截图数据,模型可理解元素的语义与上下文,形成精准描述。 System 2 推理机制:在动作前生成“思维(thought)”,支持复杂任务的多步规划与决策。 统一动作建模:构建跨平台标准动作空间,通过真实轨迹学习提升动作可控性与执行精度。 可自我演化的训练范式:通过自动化的交互轨迹采集与反思式训练,模型持续从错误中改进,适应复杂环境变化。

MCP link

MCP link

mcp-link是一个开源项目,旨在将任何OpenAPI V3 API自动转换为MCP(Machine Control Protocol)服务器。它通过自动化和标准化解决了现有生态系统中的一些关键问题,如大部分MCP服务器仅是Web API的简单封装,功能接口可能不完整,手动创建MCP接口既耗时又容易出错,以及缺乏标准化的转换流程。 项目技术分析 mcp-link的核心是基于OpenAPI Schema自动生成完整的MCP服务器。其架构清晰,易于集成,并且保证了所有API端点和特性的正确映射。项目使用Go语言开发,支持通过命令行参数进行灵活配置,包括指定端口号、API规范文件URL、目标API基础URL、认证头格式以及路径过滤表达式等。 项目及技术应用场景 mcp-link适用于多种场景,特别是那些需要将现有RESTful API快速集成到AI-driven应用生态系统的开发者。以下是几个应用实例: 自动化测试:通过将现有API转换为MCP服务器,开发者可以轻松地在自动化测试环境中使用这些API。 智能代理集成:AI Agent可以方便地通过MCP协议与转换后的API进行交互,从而实现更智能的决策支持和流程自动化。 第三方服务集成:对于需要连接多个服务以构建复合应用的场景,mcp-link可以极大地简化集成过程。 项目特点 自动转换:基于OpenAPI Schema自动生成MCP服务器,无需手动干预。 无缝集成:现有RESTful API可以立即与AI Agent调用标准兼容。 功能完整:确保所有API端点和特性正确映射。 零代码修改:无需修改原始API实现即可获得MCP兼容性。 开放标准:遵循MCP规范,确保与各种AI Agent框架的兼容性。

STORM and Co-Storm

STORM and Co-Storm

斯坦福大学在AI辅助学术研究领域取得了重大进展,他们的开源工具STORM进化后新增了协作对话机制Co-STORM。这一先进功能使得AI实体能够参与圆桌讨论,模拟人类般的互动。Co-STORM通过整合多个AI专家和一个主持人,在几分钟内生成关于特定主题的深入、经过充分研究的文章,同时具备跟踪和参与对话的能力,通过动态思维导图展示。该工具生成具有多元视角的详细报告,并且可在线免费获取,对研究人员和学生来说是一项值得关注的发展。 Co-STORM框架及其对学术研究的影响已被EMNLP 2024主要会议认可,突显了其对学术写作和信息发现未来的潜在影响。- 斯坦福大学推出了一款名为STORM的工具,利用大语言模型(LLM)辅助编写类维基百科文章。 - STORM可以将输入的主题转换为长篇文章或研究论文,并以PDF格式下载。 - STORM通过检索、多角度提问和模拟专家对话等方式生成写作大纲和内容报告。 - STORM擅长需要大量研究和引用的写作任务。 - STORM的GitHub上的Star量已经超过了24k。 - STORM团队推出了全新功能Co-STORM,引入了协作对话机制和轮次管理策略。 - Co-STORM包括Co-STORM LLM专家、主持人和人类用户。 - Co-STORM模拟用户、观点引导专家和主持人之间的协作对话。 - Co-STORM的评估结果表明其在报告质量和对话质量方面优于基线模型。 - Co-STORM的主持人角色可以根据未使用信息提出问题,帮助用户发现更多信息。 - Co-STORM可以帮助用户找到与目标相关的更广泛、更深层次的信息。 STORM 认为研究过程自动化的核心是自动提出好的问题。直接提示语言模型提出问题效果并不好。为了提高问题的深度和广度,STORM 采用了两种策略: 观点引导提问:给定输入主题,STORM 通过调查类似主题的现有文章来发现不同的观点,并使用它们来控制提问过程。 模拟对话:STORM 模拟维基百科作者和基于互联网资源的主题专家之间的对话,使语言模型能够更新其对主题的理解并提出后续问题。 斯坦福又推出了STORM的升级版 ——Co-STORM,引入了协作对话机制,并采用轮次管理策略,实现了AI 智能体间的圆桌讨论和流畅的协作式 AI 学术研究。

DeepWiki

DeepWiki

DeepWiki :基于 GitHub Repo 源代码生成最新版可对话式文档,由 Devin驱动。 开源项目免费使用,无需注册。 私有项目中使用需在 http://devin.ai 注册账号。 直接访问 https://deepwiki.com,或将 GitHub 链接中的 github 替换为 deepwiki。 即:GitHub 仓库链接中的 github 替换为 deepwiki,即可直接访问对应的 DeepWiki 页面。如:https://deepwiki.com/<user>/<repo> Devin AI 是由 Cognition Labs开发的自主人工智能助手工具,标榜为 “AI 软件开发者”。曾号称全球首个全自动 AI 程序员,因执行成本高导致订阅价格也极高,后来就淡出人们视野了。目前更主流的开发形式是 IDE + MCP(如 Cursor、VSCode、Windsurf 等),半自动化的工具链调用让控制更精准,结果也变得更加可靠。 Devin 这次带来的 DeepWiki 确实是阅读 GitHub 项目的好帮手,在正式开始介绍 DeepWiki 前,我们先来了解一下目前阅读开源项目的痛点: GitHub 主流开源项目介绍以英文 README.md 为主,支持多语言介绍的并不多,对于非母语的人来说,存在一定阅读障碍。 很多仓库可能连比较像样的 README 介绍都没,更别提专门的文档网站或 Blog 了。于开发者而言是灾难性的,需要自行查看源代码或在 issues 中搜寻一些描述。 如果仓库文件超多,上百个文件,或大几十万行代码,想要通过阅读源码来建立项目宏观认知会变得特别难。 阅读一个仓库的源代码或许不难,但面对 GitHub 这种世界级的开发者聚集地,每天都会诞生大量开源项目,纯靠人力阅读总结会被累死(面对海量代码,人会变得麻木)。 在项目文档中不会有功能与源码之间的映射关系说明,但这又是借鉴参考项目时的一个重点需求。 在源码阅读方面,其实 GitHub 本身就做了许多改进,如树状目录,函数依赖图谱等。 随着 GitHub Copilot 的升级,也被集成进 GitHub,通过交互式对话来进一步辅助源码阅读。点击具体代码行号或顶部固定按钮唤醒 AI 对话,可提问项目相关的任何问题。 但以上这些 GitHub 提供的能力远远不够,并不能帮助我们快速建立项目宏观层面的认知(系统架构图、依赖图等)。 DeepWiki 简介 关于 DeepWiki 的详细信息是由以下推文揭露的,我对其进行了梳理。 Cognition Labs 打造了 DeepWiki,一个免费、可对话的 GitHub 仓库百科全书,致力于让每一个开发者都能轻松访问最新、结构化的项目文档。DeepWiki 由 Devin 技术驱动,专为开源项目免费开放,无需注册即可使用。只需将任何 GitHub 仓库链接中的 github 替换为 deepwiki,即可直接访问对应的 DeepWiki 页面。如:https://deepwiki.com/<user>/<repo> 据 Cognition Labs 成员介绍,DeepWiki 在构建过程中,让大语言模型(LLM)全面扫描了完整的代码库。到目前为止,它已经索引了超过 30,000 个热门 GitHub 仓库,处理了超过 40 亿行代码,处理总量超过 1000 亿 tokens,仅索引过程的计算开销就超过了 30 万美元。索引一个仓库的平均成本大约为 12 美元,但团队还是决定让所有开源项目免费使用,无需任何注册门槛。 从系统设计来看,模型在局部理解代码(如函数、模块)方面表现非常出色,但真正的挑战在于理解整个代码库的全局结构。DeepWiki 针对这一难题,采用了分层方法:先将代码库划分为一套套高层次系统(high-level systems),再为每一个系统生成对应的 Wiki 页面,帮助用户在整体上把握项目架构。 它还利用了一个非常有趣的信号——提交历史(commit history)。通过分析哪些文件经常被一起修改,可以构建出文件之间的关联图(graph),从而揭示项目内部许多潜在且重要的结构模式。这一方法进一步增强了 DeepWiki 对代码库内部逻辑关系的理解与呈现。 如果找不到你需要的仓库,团队也很乐意帮你索引任何公开 GitHub 仓库。对于私有仓库,只需注册 Devin 账号即可使用相同功能。此外,DeepWiki 支持分享 Wiki 页面和智能解答链接,方便团队成员始终保持信息同步。

只显示前20页数据,更多请搜索