Connect AI assistants with Tencent RTC SDKs using the Model Context Protocol.
OASIS 2试验显示,50毫克口服司美格鲁肽可显著降低东亚超重或肥胖成人的体重,无论是否伴有2型糖尿病,提供了一种具有可控安全性的有希望的治疗选择。
新的研究表明,每天摄入超过五份水果和蔬菜可以显著降低慢性病风险和死亡率。
新型抑制剂AH001靶向TRPV4-RhoA-RhoGDI1轴以失活RhoA信号传导,有效降低血压并防止高血压模型中的血管重塑,为抗高血压药物开发开辟了新途径。
住院期间开始使用达格列净在两个月内未能显著减少心血管死亡或心力衰竭恶化。然而,荟萃分析支持早期使用 SGLT2 抑制剂可降低住院患者的死亡率和心力衰竭恶化。
中间效应遗传变异显著增加肥厚型心肌病的风险,并影响疾病的严重程度和预后,尤其是在与单基因突变共存时。
DOUBLE-CHOICE随机试验表明,局部麻醉与清醒镇静在经股动脉TAVI中的非劣效性,提示了一种安全的极简麻醉策略,但可能对患者的舒适度有所权衡。
COMPARE-TAVI 1试验显示,在严重主动脉狭窄患者中,Myval经导管心脏瓣膜在TAVI术后1年的复合临床终点上不劣于SAPIEN 3 THVs。
MODICA,一种由线粒体短开放阅读框编码的肽,通过抑制电压依赖性阴离子通道(VDAC)寡聚化、减少细胞凋亡和纤维化,保护心脏功能免受多柔比星毒性的影响,突显了一种新的心脏保护治疗靶点。
这项多中心研究强调了2D斑点追踪超声心动图在MIS-C中早期检测和预后评估左心室功能障碍的实用性,为心血管风险和管理提供了信息。
一项为期20年的前瞻性研究表明,经历过跟踪和获得保护令的女性患心血管事件的风险增加,强调暴力是心血管疾病预防中的关键因素。
高水平的脂蛋白(a)显著预测外周动脉疾病和颈动脉狭窄的发生,以及进展为主要肢体事件,强调其作为非冠状动脉粥样硬化性血管并发症的预后生物标志物的价值。
最新研究发现,PIEZO1 过表达是 2 型遗传性出血性毛细血管扩张症中动静脉畸形的关键驱动因素,揭示了靶向治疗的新途径。
最初设计用于特定心脏诊断的人工智能增强心电图模型,揭示了更广泛的心血管风险检测和预测能力,挑战了其作为特定条件工具的使用,并支持其作为全面心血管生物标志物的角色。
MITRACURE 国际注册研究显示,二尖瓣手术患者通常在疾病进展晚期出现严重症状,修复率较低且住院死亡率显著,强调了早期干预和改进管理策略的必要性。
BHF PROTECT-TAVI随机试验揭示,脑栓塞保护(CEP)装置不能防止经导管主动脉瓣植入(TAVI)后的认知下降,挑战了其神经保护益处的假设。
与标准护理相比,基于生物标志物的ABC-AF风险评分指导的治疗并未改善房颤患者的卒中或死亡结局,这强调了在临床实施前对精准医疗工具进行前瞻性验证的必要性。
这项多中心试验显示,序贯使用COX-2抑制剂帕瑞昔布和伊美昔布显著降低了重症急性胰腺炎(SAP)的发生率,缩短了器官功能障碍持续时间,减少了局部并发症,并降低了30天死亡率,且安全性良好。
一项全面的瑞典研究表明,显微镜下结肠炎(MC)患者发展为抑郁症和焦虑症等精神障碍的风险显著增加,强调了综合临床管理的重要性。
心脏磁共振成像(MRI)T1映射和细胞外体积分数(ECV)提供了心肌纤维化的无创标志物,在心力衰竭各亚型和非缺血性扩张型心肌病中对不良心血管结局显示出一致的预后价值。
了解器官钙化的原因,区分无害与危险类型,并学习如何根据专家建议解读您的健康报告。
<p>Context7 是 Upstash 推出的AI编程辅助工具,为大型语言模型(LLMs)和 AI 代码编辑器提供最新、版本特定的文档和代码示例。通过解析文档、丰富内容、向量化和重新排名等步骤,确保开发者能获取到准确且最新的代码示例和文档。Context7 支持多种工具,如 Cursor、Windsurf、Claude Desktop 等,通过模型上下文协议(MCP)实现集成。</p> <p>使用 Context7 时,开发者只需在提示中添加 use context7,可自动获取相关上下文,提高代码生成的准确性和可靠性。适合快速更新的框架或小众包,显著减少生成错误或过时代码的风险。Context7 的安装和配置相对简单,支持多种安装方式,包括通过 Smithery、Docker 等。</p> <h2 style="font-size: 20px;">Context7的主要功能</h2> <ul> <li>实时文档获取:从官方源(如 GitHub、官方文档网站)拉取最新文档和代码示例,确保开发者获取到的信息是最新的。</li> <li>版本特定:能根据目标库的版本匹配相应的文档和代码示例,避免因版本不一致导致的问题。</li> <li>无缝集成:只需在提示中添加 <code class="segment-code-inline" data-v-30467974="" data-v-16354e31="">use context7</code>,可触发文档注入,与多种 MCP 兼容客户端(如 Cursor、Windsurf、Claude Desktop 等)集成。</li> <li>减少幻觉代码:降低 AI 生成不存在 API 或过时代码的可能性,提高代码生成的准确性。</li> <li>多平台支持:兼容多种开发工具,如 Cursor、Windsurf、VS Code 等。</li> <li>精准的上下文提取:从最新文档中提取干净、相关的代码片段,仅包含代码和描述,没有多余内容。</li> <li>广泛的库支持:目前已支持超过 6000 个流行库,主流框架基本都能找到。</li> <li>免费使用:个人使用每天可免费查询多达 50 次。</li> <li>resolve_library_id:通过提供指定库的模糊关键字,找到具体所指的包。</li> <li>get_library_docs:获取指定包的文档内容,提供真正的文档而非搜索结果。</li> </ul> <h2 style="font-size: 20px;">Context7的工作原理</h2> <ul> <li>解析:从文档中提取代码片段和示例。</li> <li>丰富:使用 LLMs 添加简短解释和元数据。</li> <li>向量化:嵌入内容以便进行语义搜索。</li> <li>重新排名:使用自定义算法对结果进行相关性评分。</li> <li>缓存:从 Redis 提供请求,以获得最佳性能。</li> </ul> <h2 style="font-size: 20px;">Context7地址</h2> <ul> <li>项目官网:<a class="external" href="https://context7.com/?utm_source=medsci" target="_blank" rel="noopener">context7.com</a></li> <li>Github仓库:<a class="external" href="https://github.com/upstash/context7" target="_blank" rel="noopener nofollow">https://github.com/upstash/context7</a></li> </ul>
<p>OpenMemory MCP 是mem0推出的基于开放模型上下文协议(MCP)构建的开源工具,能解决 AI 工具记忆痛点,实现不同工具间共享上下文信息。OpenMemory MCP支持 100% 本地运行,数据存储在用户本地设备上,确保隐私和安全。OpenMemory MCP 具备跨平台支持、标准化内存操作、集中式仪表板等优势,广泛用在软件开发、项目管理、错误跟踪等场景,帮助用户提升工作效率,让 AI 工具的交互更加连贯和高效。</p> <p><img src="https://img.medsci.cn/aisite/img//pp5XJ5dBUB97gIkjvRAMgkVubdZ4JdB8JcljnxbT.png"></p> <h2 style="font-size: 20px;">OpenMemory MCP的主要功能</h2> <ul> <li>跨客户端记忆共享:在不同工具(如Cursor、Claude Desktop等)之间共享记忆,无需重复输入。</li> <li>本地化存储:所有记忆存储在本地,不上传云端,确保隐私和安全。</li> <li>统一管理界面:内置仪表板,方便查看、添加、删除记忆,集中管理。</li> <li>兼容多种客户端:支持所有MCP兼容工具,如Cursor、Claude Desktop、Windsurf等。</li> <li>标准化操作:提供标准化API(如add_memories、search_memory等),方便记忆管理。</li> </ul> <h2 style="font-size: 20px;">OpenMemory MCP的技术原理</h2> <ul> <li>开放模型上下文协议(MCP):基于MCP协议,不同AI工具(如Cursor、Claude等)共享上下文信息,确保数据的延续性。提供标准化的上下文操作(如添加、搜索、删除等),确保不同工具之间的一致性和互操作性。</li> <li>100%本地运行:所有数据存储在本地设备上,无需上传至云端,确保数据的安全性和隐私性。本地运行减少网络延迟,提升数据处理速度和用户体验。</li> <li>私有内存管理:上下文信息在会话结束后不会丢失,持久化存储在本地设备上。提供安全的读写机制,确保不同工具之间可以安全地共享和更新上下文信息。</li> <li>基于Docker的部署:基于Docker的部署方式,简化安装和运行过程。Docker容器确保运行环境的隔离和数据的安全性。</li> <li>零知识证明(ZK)技术:用零知识证明技术,确保数据在本地设备上的全程加密处理与验证。用户在不暴露原始数据的情况下进行数据验证或交易,进一步保护数据隐私</li> </ul> <h2 style="font-size: 20px;">OpenMemory MCP的项目地址</h2> <ul> <li>项目官网: <a href="https://mem0.ai/openmemory-mcp" target="_blank" rel="noopener">https://mem0.ai/openmemory-mcp</a> </li> <li>GitHub仓库: <a href="https://github.com/mem0ai/mem0/tree/main/openmemory" target="_blank" rel="noopener">https://github.com/mem0ai/mem0/tree/main/openmemory</a> </li> </ul>
Deepwiki MCP 服务器 这是一个非官方的 Deepwiki MCP 服务器 它通过 MCP 获取 Deepwiki URL,抓取所有相关页面,将其转换为 Markdown,然后返回一个文档或按页面列出的列表。 特征 🔒域名安全:仅处理来自 deepwiki.com 的 URL 🧹 HTML 清理:删除页眉、页脚、导航、脚本和广告 🔗链接重写:调整链接以使其在 Markdown 中工作 📄多种输出格式:获取一个文档或结构化页面 🚀性能:快速爬行,并发性和深度可调 NLP:仅搜索库名称
浏览并发现 MCP 用例、服务器、客户端和新闻,目前收集超过4000个MCP服务
百度搜索开放广场,集成了6000多个MCP
Higress 是一款云原生 API 网关,集成了流量网关、微服务网关、安全网关和 AI 网关的功能。 它基于 Istio 和 Envoy 开发,支持使用 Go/Rust/JS 等语言编写 Wasm 插件。 提供了数十个通用插件和开箱即用的控制台。 Higress AI 网关支持多种 AI 服务提供商,如 OpenAI、DeepSeek、通义千问等,并具备令牌限流、消费者鉴权、WAF 防护、语义缓存等功能。 MCP Server 插件配置 higress 功能说明 mcp-server 插件基于 Model Context Protocol (MCP),专为 AI 助手设计,定义了 AI 模型与外部工具和资源交互的标准方式。 功能特点: 无需编写代码:将现有 REST API 转换为 AI 助手可调用的工具。 统一认证、鉴权、限流和可观测性:利用 Higress 网关提供的能力,确保安全性和性能。 快速构建和部署:通过 Higress 插件机制,快速添加新的 MCP Server。 运行属性 插件执行阶段:默认阶段 插件执行优先级:30
mcp-link是一个开源项目,旨在将任何OpenAPI V3 API自动转换为MCP(Machine Control Protocol)服务器。它通过自动化和标准化解决了现有生态系统中的一些关键问题,如大部分MCP服务器仅是Web API的简单封装,功能接口可能不完整,手动创建MCP接口既耗时又容易出错,以及缺乏标准化的转换流程。 项目技术分析 mcp-link的核心是基于OpenAPI Schema自动生成完整的MCP服务器。其架构清晰,易于集成,并且保证了所有API端点和特性的正确映射。项目使用Go语言开发,支持通过命令行参数进行灵活配置,包括指定端口号、API规范文件URL、目标API基础URL、认证头格式以及路径过滤表达式等。 项目及技术应用场景 mcp-link适用于多种场景,特别是那些需要将现有RESTful API快速集成到AI-driven应用生态系统的开发者。以下是几个应用实例: 自动化测试:通过将现有API转换为MCP服务器,开发者可以轻松地在自动化测试环境中使用这些API。 智能代理集成:AI Agent可以方便地通过MCP协议与转换后的API进行交互,从而实现更智能的决策支持和流程自动化。 第三方服务集成:对于需要连接多个服务以构建复合应用的场景,mcp-link可以极大地简化集成过程。 项目特点 自动转换:基于OpenAPI Schema自动生成MCP服务器,无需手动干预。 无缝集成:现有RESTful API可以立即与AI Agent调用标准兼容。 功能完整:确保所有API端点和特性正确映射。 零代码修改:无需修改原始API实现即可获得MCP兼容性。 开放标准:遵循MCP规范,确保与各种AI Agent框架的兼容性。
MCPServers 是一个开源的 MCP 服务和客户端目录,帮助开发者发现和分享优秀的 MCP 实现。
FastAPI 是一个高性能、易用且现代的Python Web 框架。无数的Web服务基于 FastAPI 开发。 MCP 作为一种新兴的标准,让AI能够直接调用外部工具和服务。而今天要介绍的 fastapi_mcp 库,让这一切变得简单得令人难以置信 - 只需一行代码,就能将你现有的FastAPI服务转变为MCP工具! FastAPI-MCP 是一个零配置的工具,能够自动将 FastAPI 应用的端点暴露为 MCP 工具。其主要特点包括: 直接集成:可将 MCP 服务器直接挂载到 FastAPI 应用中; 零配置:只需指向 FastAPI 应用即可工作,无需复杂配置; 自动发现:自动发现所有 FastAPI 端点,并将其转换为 MCP 工具; 保留模式和文档:保留请求模型和响应模型的模式,以及所有端点的文档; 支持自定义工具:可在自动生成的工具之外,添加自定义的 MCP 工具。
A comprehensive map of all available MCP servers, from reference implementations to community contributions
Browse MCPs or post a MCP to reach 250,000+ monthly active developers.
github官方服务器
MCP服务器资源收集
开源的MCP服务器资源
收集MCP服务器和客户端资源