富含可发酵碳水化合物的饮食与二甲双胍联合使用,可以改善糖尿病前期个体的餐后血糖水平,增强胰高血糖素样肽 1(GLP-1)的分泌,并有益地改变肠道微生物群,提供了一种个性化的营养-药物策略来预防糖尿病。
Amycretin是一种新型的双重GLP-1和胰淀素受体激动剂,在超重或肥胖成年人中表现出良好的安全性、耐受性和剂量比例药代动力学,支持进一步试验其减重效果。
1期和1b/2a期试验表明,ANGPTL4抑制性抗体MAR001能够安全地降低甘油三酯和残余胆固醇,支持其在现有疗法之外进一步降低ASCVD风险的潜力。
SANA 是一种水杨酸的硝基烯丙基衍生物,通过增强肌酸依赖性产热减少肥胖并改善代谢健康,在临床前和早期临床研究中显示出良好的安全性和有效性。
在肥胖老年人中,结合有氧和抗阻运动与饮食诱导的体重减轻显著改善了胰岛素分泌、代谢健康和身体功能,这可能是通过保留睫状神经营养因子受体和增加IGF-1水平介导的。
与单独使用二甲双胍相比,联合使用二甲双胍和司美格鲁肽可显著改善超重/肥胖多囊卵巢综合征女性的体重减轻、代谢参数、月经功能和自然妊娠率。
最新研究揭示,常见的口腔细菌,特别是草绿色链球菌,可以渗透到动脉斑块中,通过引发炎症和斑块破裂增加心脏病发作的风险。
除了胆固醇和血压,同型半胱氨酸在无声中硬化动脉,推动心血管疾病的进展。最新研究揭示了其生物力学影响及预防策略。
等长运动是一种静态肌肉参与的形式,可以像某些药物一样有效地降低血压,提供了一种简单、无药的方法来保护心脏和血管。
治疗开始后一个月内循环肿瘤DNA(ctDNA)的变化可以预测接受免疫检查点抑制剂治疗的dMMR/MSI-H转移性结直肠癌患者的无进展生存期和总生存期,提供了一种潜在的生物标志物,有助于治疗决策。
一项3期随机试验表明,脑转移瘤的术前立体定向放射治疗(SRT)在安全性方面与术后SRT相当,并且显著缩短了治疗时间,可能改善患者的治疗流程。
SCOT-HEART 2 的一个嵌套子研究显示,与传统的冠心病风险评分相比,冠状动脉 CT 血管造影在无症状高危个体中适度改善了健康生活方式的依从性、预防治疗的接受度以及危险因素的修正。
一项由护士主导、多学科合作的家庭支持干预措施在ICU中适度提高了家庭满意度,并显著改善了沟通质量和情感支持,填补了以家庭为中心的重症护理中的关键空白。
Zimislecel是一种同种异体干细胞衍生的胰岛细胞疗法,对1型糖尿病显示出良好的安全性和疗效,能够恢复生理胰岛功能,并使患者实现胰岛素独立,在1-2期试验中取得了显著成果。
3期试验表明,封装细胞疗法NT-501显著减缓了MacTel患者的光感受器损失,标志着一种具有可接受安全性的有希望的疾病修饰方法。
OASIS 2试验显示,50毫克口服司美格鲁肽可显著降低东亚超重或肥胖成人的体重,无论是否伴有2型糖尿病,提供了一种具有可控安全性的有希望的治疗选择。
新的研究表明,每天摄入超过五份水果和蔬菜可以显著降低慢性病风险和死亡率。
新型抑制剂AH001靶向TRPV4-RhoA-RhoGDI1轴以失活RhoA信号传导,有效降低血压并防止高血压模型中的血管重塑,为抗高血压药物开发开辟了新途径。
住院期间开始使用达格列净在两个月内未能显著减少心血管死亡或心力衰竭恶化。然而,荟萃分析支持早期使用 SGLT2 抑制剂可降低住院患者的死亡率和心力衰竭恶化。
中间效应遗传变异显著增加肥厚型心肌病的风险,并影响疾病的严重程度和预后,尤其是在与单基因突变共存时。
<p>ScrapeGraphAI 是基于大型语言模型(LLM)驱动的智能网络爬虫工具包,专注于从各类网站和HTML内容中高效提取结构化数据。具备三大核心功能:SmartScraper可根据用户提示精准抓取网页中的结构化信息;SearchScraper基于AI驱动的搜索技术从搜索引擎结果中提取关键信息;Markdownify可将网页内容快速转换为整洁的Markdown格式,方便后续处理和存储。</p> <p><img src="https://img.medsci.cn/aisite/img//e05OdgIrIpZU0eVQfBZSZEIoToz2lLyMli5eGQH0.png"></p> <h2 style="font-size: 20px;">ScrapeGraphAI的主要功能</h2> <ul> <li>智能单页爬取:用户只需提供简单提示和网页地址,ScrapeGraphAI能精准提取所需信息,无需编写复杂规则。</li> <li>多页面搜索爬取:可自动从搜索引擎结果中提取多个页面的相关信息,汇总成统一格式。</li> <li>Markdownify:能将网页内容快速转换为整洁的Markdown格式,便于后续处理和存储。</li> <li>自适应爬取:基于LLM技术,ScrapeGraphAI能自动适应网站结构的变化,大幅降低了对频繁维护和更新的需求。</li> <li>多模型支持:兼容OpenAI、Groq、Azure、Gemini等云端模型,以及Ollama本地模型,满足不同场景需求。</li> <li>多平台支持:可以处理XML、HTML、JSON和Markdown等多种文档格式。</li> <li>格式化输出:自动将爬取结果整理为结构化JSON数据,便于后续处理和分析。</li> <li>数据存储:支持将提取的数据保存为CSV文件,方便用户进行进一步的数据管理和分析。</li> <li>语音生成能力:将网页内容转化为音频文件,方便通勤或其他场景下的内容消费。</li> <li>代码生成器:AI可以自动生成可直接运行的Python或Node.js爬虫代码,方便开发者集成到自己的应用或流程中。</li> </ul> <h2 style="font-size: 20px;">ScrapeGraphAI的技术原理</h2> <ul> <li>自然语言驱动:ScrapeGraphAI 支持用户通过简单的自然语言指令来描述需要提取的信息。能自动分析目标网页结构,提取所需数据。</li> <li>图逻辑引擎:ScrapeGraphAI 将爬取过程建模为有向图(Directed Graph),图中的节点代表不同的操作或数据处理步骤,如请求发送、HTML解析、数据提取等。通过图逻辑引擎,爬取任务被分解为多个离散的节点,每个节点负责特定的任务,节点之间通过边连接,形成清晰的数据流动方向。便于并行处理和错误隔离,使整个爬取过程更加可解释和可视化。</li> <li>LLM 的智能解析:ScrapeGraphAI 基于 LLM 的强大语义理解能力,自动解析用户的自然语言指令。LLM 能理解用户的需求,动态生成相应的爬取逻辑。使 ScrapeGraphAI 能自动适应网站结构的变化,网页布局发生改变,也能准确提取关键信息。</li> </ul> <h2 style="font-size: 20px;">ScrapeGraphAI的项目地址</h2> <ul> <li>Github仓库:<a class="external" href="https://github.com/ScrapeGraphAI/Scrapegraph-ai" target="_blank" rel="noopener nofollow">https://github.com/ScrapeGraphAI/Scrapegraph-ai</a></li> </ul>
<div class="markdown-heading" dir="auto"> <p>🚀🤖 Crawl4AI:开源 LLM 友好型网络爬虫和抓取工具。</p> <a id="user-content--crawl4ai-open-source-llm-friendly-web-crawler--scraper" class="anchor" href="https://github.com/unclecode/crawl4ai#-crawl4ai-open-source-llm-friendly-web-crawler--scraper" aria-label="永久链接:🚀🤖 Crawl4AI:开源 LLM 友好型网络爬虫和抓取工具。"></a></div> <p>Crawl4AI 是 GitHub 上排名第一的热门代码库,由充满活力的社区积极维护。它提供速度超快、AI 就绪的 Web 爬取功能,专为 LLM、AI 代理和数据管道量身定制。Crawl4AI 开源、灵活,专为实时性能而构建,为开发者提供无与伦比的速度、精度和部署便捷性。</p> <p><a href="https://github.com/unclecode/crawl4ai#-recent-updates">✨ 查看最新更新 v0.6.0</a></p> <p>🎉 0.6.0 版本现已发布!此候选版本引入了支持地理位置和区域设置的全球感知爬取功能、表格到 DataFrame 的提取、带预热功能的浏览器池、网络和控制台流量捕获、用于 AI 工具的 MCP 集成,以及全新改版的 Docker 部署!<a href="https://docs.crawl4ai.com/blog" rel="nofollow">阅读发行说明 →</a></p> <details> <summary>🤓我的个人故事</summary> <p> </p> <p> </p> <p> </p> <p> </p> </details> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">🧐 为什么选择 Crawl4AI?</h2> <a id="user-content--why-crawl4ai" class="anchor" href="https://github.com/unclecode/crawl4ai#-why-crawl4ai" aria-label="永久链接:🧐 为什么选择 Crawl4AI?"></a></div> <ol dir="auto"> <li>专为 LLM 打造:创建针对 RAG 和微调应用程序优化的智能、简洁的 Markdown。</li> <li>闪电般快速:以实时、经济高效的性能以 6 倍的速度提供结果。</li> <li>灵活的浏览器控制:提供会话管理、代理和自定义挂钩,实现无缝数据访问。</li> <li>启发式智能:使用先进的算法进行高效提取,减少对昂贵模型的依赖。</li> <li>开源且可部署:完全开源,无需 API 密钥 - 可用于 Docker 和云集成。</li> <li>蓬勃发展的社区:由充满活力的社区和排名第一的 GitHub 存储库积极维护。</li> </ol> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">🚀 快速入门</h2> <a id="user-content--quick-start" class="anchor" href="https://github.com/unclecode/crawl4ai#-quick-start" aria-label="永久链接:🚀 快速入门"></a></div> <ol dir="auto"> <li>安装Crawl4AI:</li> </ol> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre># Install the package pip install -U crawl4ai # For pre release versions pip install crawl4ai --pre # Run post-installation setup crawl4ai-setup # Verify your installation crawl4ai-doctor</pre> <div class="zeroclipboard-container"> </div> </div> <p>如果您遇到任何与浏览器相关的问题,您可以手动安装它们:</p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre>python -m playwright install --with-deps chromium</pre> <div class="zeroclipboard-container"> </div> </div> <ol dir="auto" start="2"> <li>使用 Python 运行简单的网络爬虫:</li> </ol> <div class="highlight highlight-source-python notranslate position-relative overflow-auto" dir="auto"> <pre>import asyncio from crawl4ai import * async def main(): async with AsyncWebCrawler() as crawler: result = await crawler.arun( url="https://www.nbcnews.com/business", ) print(result.markdown) if __name__ == "__main__": asyncio.run(main())</pre> <div class="zeroclipboard-container"> </div> </div> <ol dir="auto" start="3"> <li>或者使用新的命令行界面:</li> </ol> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre># Basic crawl with markdown output crwl https://www.nbcnews.com/business -o markdown # Deep crawl with BFS strategy, max 10 pages crwl https://docs.crawl4ai.com --deep-crawl bfs --max-pages 10 # Use LLM extraction with a specific question crwl https://www.example.com/products -q "Extract all product prices"</pre> <div class="zeroclipboard-container"> </div> </div> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">✨ 特点</h2> <a id="user-content--features" class="anchor" href="https://github.com/unclecode/crawl4ai#-features" aria-label="永久链接:✨ 功能"></a></div> <details> <summary>📝 Markdown 生成</summary> <ul dir="auto"> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> </ul> </details> <details> <summary>📊结构化数据提取</summary> <ul dir="auto"> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> </ul> </details> <details> <summary>🌐浏览器集成</summary> <ul dir="auto"> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> </ul> </details> <details> <summary>🔎爬取和抓取</summary> <ul dir="auto"> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> </ul> </details> <details> <summary>🚀部署</summary> <ul dir="auto"> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> </ul> </details> <details> <summary>🎯附加功能</summary> <ul dir="auto"> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> </ul> </details> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">现在就尝试一下!</h2> <a id="user-content-try-it-now" class="anchor" href="https://github.com/unclecode/crawl4ai#try-it-now" aria-label="永久链接:立即尝试!"></a></div> <p>✨ 尝试一下<a href="https://colab.research.google.com/drive/1SgRPrByQLzjRfwoRNq1wSGE9nYY_EE8C?usp=sharing" rel="nofollow"><img style="display: block; margin-left: auto; margin-right: auto;" src="https://img.medsci.cn/aisite/tinymce/2025/05/18/1747536672_BETJSyN5wV.png"></a></p> <p>✨ 访问我们的<a href="https://docs.crawl4ai.com/" rel="nofollow">文档网站</a></p> <div class="markdown-heading" dir="auto"> <h2 class="heading-element" dir="auto" tabindex="-1">安装🛠️</h2> <a id="user-content-installation-️" class="anchor" href="https://github.com/unclecode/crawl4ai#installation-%EF%B8%8F" aria-label="永久链接:安装🛠️"></a></div> <p>Crawl4AI 提供灵活的安装选项,以适应各种用例。您可以将其安装为 Python 包,也可以使用 Docker 安装。</p> <details> <summary>🐍使用 pip</summary> <p> </p> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1"> </h3> <a id="user-content-basic-installation" class="anchor" href="https://github.com/unclecode/crawl4ai#basic-installation" aria-label="永久链接:基本安装"></a></div> <p> </p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre> </pre> <div class="zeroclipboard-container"> </div> </div> <p> </p> <p> </p> <ol dir="auto"> <li> <p> </p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre> </pre> <div class="zeroclipboard-container"> </div> </div> </li> <li> <p> </p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre> </pre> <div class="zeroclipboard-container"> </div> </div> </li> </ol> <p> </p> <hr> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1"> </h3> <a id="user-content-installation-with-synchronous-version" class="anchor" href="https://github.com/unclecode/crawl4ai#installation-with-synchronous-version" aria-label="永久链接:使用同步版本安装"></a></div> <p> </p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre> </pre> <div class="zeroclipboard-container"> </div> </div> <hr> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1"> </h3> <a id="user-content-development-installation" class="anchor" href="https://github.com/unclecode/crawl4ai#development-installation" aria-label="永久链接:开发安装"></a></div> <p> </p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre> </pre> <div class="zeroclipboard-container"> </div> </div> <p> </p> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre> </pre> <div class="zeroclipboard-container"> </div> </div> </details> <details> <summary>🐳 Docker 部署</summary> <blockquote> <p> </p> </blockquote> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1"> </h3> <a id="user-content-new-docker-features" class="anchor" href="https://github.com/unclecode/crawl4ai#new-docker-features" aria-label="永久链接:Docker 的新功能"></a></div> <p> </p> <ul dir="auto"> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> <li> </li> </ul> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1"> </h3> <a id="user-content-getting-started" class="anchor" href="https://github.com/unclecode/crawl4ai#getting-started" aria-label="永久链接:入门"></a></div> <div class="highlight highlight-source-shell notranslate position-relative overflow-auto" dir="auto"> <pre> </pre> <div class="zeroclipboard-container"> </div> </div> <p> </p> </details> <hr> <div class="markdown-heading" dir="auto"> <h3 class="heading-element" dir="auto" tabindex="-1">快速测试</h3> <a id="user-content-quick-test" class="anchor" href="https://github.com/unclecode/crawl4ai#quick-test" aria-label="永久链接:快速测试"></a></div> <p>运行快速测试(适用于两种 Docker 选项):</p> <div class="highlight highlight-source-python notranslate position-relative overflow-auto" dir="auto"> <pre>import requests # Submit a crawl job response = requests.post( "http://localhost:11235/crawl", json={"urls": "https://example.com", "priority": 10} ) task_id = response.json()["task_id"] # Continue polling until the task is complete (status="completed") result = requests.get(f"http://localhost:11235/task/{task_id}")</pre> <div class="zeroclipboard-container"> </div> </div> <p>更多示例,请参阅<a href="https://github.com/unclecode/crawl4ai/blob/main/docs/examples/docker_example.py">Docker 示例</a>。高级配置、环境变量及使用示例,请参阅<a href="https://docs.crawl4ai.com/basic/docker-deployment/" rel="nofollow">Docker 部署指南</a>。</p>
Firecrawl是一项 API 服务,它获取 URL,进行爬取,并将其转换为干净的 Markdown 或结构化数据。我们会爬取所有可访问的子页面,并为每个子页面提供干净的数据。
<p>PodQuest是智能播客发现引擎,帮助用户轻松找到并享受全球优质播客内容。基于智能搜索技术,让用户快速定位到感兴趣的节目,PodQuest支持一键订阅功能,方便用户随时收听最新内容。PodQuest具备AI转写功能,支持将音频内容转为文本,方便用户边看边听。PodQuest推出了播客社区,用户查看他人评价和讨论,营造良好的互动氛围。</p> <h2 style="font-size: 20px;">PodQuest的主要功能</h2> <ul> <li>精准定位:基于智能算法,用户快速找到感兴趣的播客节目,支持精准定位到具体章节。</li> <li>高效检索:支持关键词搜索,帮助用户在海量内容中快速找到目标。</li> <li>一键订阅:支持用户一键订阅喜欢的播客节目,所有订阅内容统一管理,方便随时查看和收听。新发布的播客内容会自动更新,确保用户不会错过任何一集。</li> <li>AI转写::将播客音频内容智能转写为文本,支持用户点击文本快速定位到音频的对应位置。</li> <li>社区互动:用户在平台上查看其他人的评价和讨论,分享自己的想法,营造良好的社区氛围。</li> <li>多平台支持:兼容多种设备,包括 iOS、Android、Mac 等,方便用户随时随地收听。</li> </ul>
MindPal: AI-powered platform for professionals to enhance productivity with various features.
Index Discord channels into Google for easy searching.
Algolia is an AI-powered platform for fast and relevant search experiences.
<p>Felo是免费AI智能搜索引擎,支持社交联网搜索和多语种问答结果。用户可以自然语言提问,Felo能理解并分解问题,同时提供中文和英文搜索结果。Felo以分块形式展示答案,每块都有详细内容和来源链接。Felo还提供社交搜索、专业搜索和主题问答功能,满足不同用户的需求。Felo Pro订阅服务每月14.99美元,提供100次专业搜索和多种AI模型选择。</p> <h2 style="font-size: 20px;">Felo的主要功能</h2> <ul> <li>基础问答:通过自然语言处理技术,理解和分解用户问题,提供中文和英文的搜索结果。</li> <li>社交搜索:集成Twitter、Facebook、Reddit等社交平台的信息,提供社交媒体上的相关内容。</li> <li>小红书搜索:专门针对小红书平台的内容搜索,提供问题拆分和推荐系统。</li> <li>Reddit搜索:针对Reddit平台的内容搜索,提供相关问题和讨论。</li> <li>Pro 搜索:提供更深入和专业的搜索服务,可能包括更高级的搜索算法或更详细的结果。</li> <li>Topic 问答:支持用户将问题归类到特定主题,方便管理和深入探讨。</li> </ul> <h2 style="font-size: 20px;">如何使用Felo</h2> <ul> <li>访问官网:<a href="https://felo.ai?utm_source=medsci" target="_blank" rel="noopener">felo.ai</a></li> </ul>
Web API that enriches AI applications with real-time data.
An AI search engine utilizing large language models and search engines.