这项多中心试验显示,序贯使用COX-2抑制剂帕瑞昔布和伊美昔布显著降低了重症急性胰腺炎(SAP)的发生率,缩短了器官功能障碍持续时间,减少了局部并发症,并降低了30天死亡率,且安全性良好。
一项全面的瑞典研究表明,显微镜下结肠炎(MC)患者发展为抑郁症和焦虑症等精神障碍的风险显著增加,强调了综合临床管理的重要性。
心脏磁共振成像(MRI)T1映射和细胞外体积分数(ECV)提供了心肌纤维化的无创标志物,在心力衰竭各亚型和非缺血性扩张型心肌病中对不良心血管结局显示出一致的预后价值。
了解器官钙化的原因,区分无害与危险类型,并学习如何根据专家建议解读您的健康报告。
探索微妙的肝脏症状如何预示严重疾病,从肝炎到肝癌的发展过程,以及有效习惯保护肝脏健康的方法。
PANDA II 研究表明,流感疫苗接种显著降低了急性心力衰竭患者的死亡率和再住院率,支持将其作为全球心力衰竭管理的标准组成部分。
根据最近的科学研究,仅仅将就寝时间提前一小时就可以帮助体重管理、降低抑郁风险并保护心脏。
一支多学科的中国团队开发了一种基于AI的MRI-病理学基础模型,能够准确、无创地诊断和分级前列腺癌,显著改善临床决策并减少不必要的活检。
了解每天仅需10分钟的靠墙坐如何显著降低血压并带来令人惊讶的好处,从心脏健康到关节护理和体重管理。
间歇性禁食因其代谢和减肥益处而受到欢迎,但新的研究表明,缩短进食窗口可能增加心血管风险,提示需要谨慎并采取个性化方法。
微塑料,直径小于5毫米的塑料颗粒,已悄无声息地通过饮用水、空气和食物渗透到我们的身体中。它们在器官中积累,加速细胞老化,并增加炎症。了解隐藏来源并采取实用措施减少暴露。
本分析比较了接受保留生育功能的激素治疗与子宫切除术治疗的年轻早期子宫内膜癌患者的生存情况,指出40岁以下女性的生存率相当,而接受激素治疗的较年长患者死亡风险增加。
一项大型基于人群的遗传学研究阐明了已知癌症易感基因中罕见致病性变异与单发和多发原发性癌症风险之间的关联,支持对受影响个体进行多基因面板检测。
本文探讨了胃肠道疾病与睡眠障碍之间的关联,强调抑郁作为部分中介因素的重要性,并指出改善睡眠质量需要同时关注肠道和心理健康。
最近的一项调查显示,尽管大多数美国心脏病学家支持心血管健康的生活方式建议,但他们在饮食和身体活动指南方面的个人依从性并不一致。
最近的一项研究表明,超过80%的阿莫西林过敏患者能够耐受哌拉西林-他唑巴坦,尽管约有18%的患者出现交叉反应,这突显了在使用前进行仔细的过敏测试的必要性。
用于肥胖和2型糖尿病管理的GLP-1受体激动剂与总体癌症风险降低17%相关,尤其是激素敏感性癌症,但可能增加肾癌风险。需要进一步研究以明确其安全性和机制。
FDA 已授权辉瑞和莫德纳更新的 COVID-19 疫苗,旨在针对 LP.8.1 亚谱系,扩大了 65 岁以上成人和有高风险条件的个体的疫苗接种范围,增强对不断演变的变异株的免疫防御。
一项在缺血性卒中后2个月开始的为期8周的心肺运动计划,在12个月时改善了认知表现,尽管与对照组相比,海马体积没有显著保留。该干预措施安全可行,为卒中后认知护理提供了有希望的途径。
本研究在呼吸健康个体中建立了可靠的 FeNO 参考值,并强调了影响一氧化氮水平的因素,从而提高了哮喘的诊断和管理。
<p>Macaron 是首个 Personal AI Agent,你的贴心AI伙伴。Macaron 能根据简单请求快速生成实用的生活工具,如健身追踪器、旅行规划器、阅读管理器等,帮助用户更好地生活。Macaron基于深度记忆系统,记住用户偏好、习惯和情绪,无需重复上下文就能理解需求。Macaron不仅关注效率,更注重情感连接,用温暖和同理心陪伴。Macaron 的目标是让生活更有意义,不是单纯追求生产力。</p> <h2 style="font-size: 20px;">Macaron的主要功能</h2> <ul> <li>深度记忆(Deep Memory):支持记住用户的聊天习惯、偏好、情绪和生活经历,无需重复上下文,像真正的朋友一样理解用户。</li> <li>个性化体验:基于个性测试匹配用户,形成独特的性格和互动风格,随着使用不断进化。</li> <li>即时工具生成:用户只需简单描述需求,Macaron 能快速生成实用的生活工具,如健身追踪器、旅行规划器等,无缝融入日常生活。</li> <li>情感连接:用温暖和同理心为设计目标,提供情感支持,像真正的朋友一样陪伴用户。</li> <li>实用功能示例:提供旅行规划、摄影指导、烹饪辅助、阅读管理、健康提醒、园艺提醒等多种实用功能,满足用户多样化需求。</li> </ul> <h2 style="font-size: 20px;">Macaron的官网地址</h2> <ul> <li>官网地址:https://macaron.im/</li> </ul>
<p>企业 IM、在线客服、企业知识库 / 帮助文档、客户之声、工单系统、AI 对话、工作流、项目管理。</p> <h2 style="font-size: 20px;">Docker 快速开始</h2> <h3 style="font-size: 18px;"><a id="user-content-方法一克隆项目并启动docker-compose容器需要另行安装ollama默认使用-qwen306b-模型" class="anchor" href="https://gitee.com/270580156/weiyu/blob/main/README.zh.md#%E6%96%B9%E6%B3%95%E4%B8%80%E5%85%8B%E9%9A%86%E9%A1%B9%E7%9B%AE%E5%B9%B6%E5%90%AF%E5%8A%A8docker-compose%E5%AE%B9%E5%99%A8%E9%9C%80%E8%A6%81%E5%8F%A6%E8%A1%8C%E5%AE%89%E8%A3%85ollama%E9%BB%98%E8%AE%A4%E4%BD%BF%E7%94%A8-qwen306b-%E6%A8%A1%E5%9E%8B"></a>方法一:克隆项目并启动docker compose容器,需要另行安装ollama,默认使用 qwen3:0.6b 模型</h3> <div class="markdown-code-block"> <pre><code class="hljs hljs-bash">git clone https://gitee.com/270580156/weiyu.git &amp;&amp; cd weiyu/deploy/docker &amp;&amp; docker compose -p weiyu -f docker-compose.yaml up -d </code></pre> <div class="markdown-code-block-copy-btn"> </div> </div> <p><a id="user-content-因项目默认使用ollama-qwen306b模型所以需要提前拉取模型配置文件中可以配置其他模型如deepseek-r1等" class="anchor" href="https://gitee.com/270580156/weiyu/blob/main/README.zh.md#%E5%9B%A0%E9%A1%B9%E7%9B%AE%E9%BB%98%E8%AE%A4%E4%BD%BF%E7%94%A8ollama-qwen306b%E6%A8%A1%E5%9E%8B%E6%89%80%E4%BB%A5%E9%9C%80%E8%A6%81%E6%8F%90%E5%89%8D%E6%8B%89%E5%8F%96%E6%A8%A1%E5%9E%8B%E9%85%8D%E7%BD%AE%E6%96%87%E4%BB%B6%E4%B8%AD%E5%8F%AF%E4%BB%A5%E9%85%8D%E7%BD%AE%E5%85%B6%E4%BB%96%E6%A8%A1%E5%9E%8B%E5%A6%82deepseek-r1%E7%AD%89"></a>因项目默认使用ollama qwen3:0.6b模型,所以需要提前拉取模型。配置文件中可以配置其他模型,如deepseek-r1等</p> <div class="markdown-code-block"> <pre><code class="hljs hljs-bash"># 对话Chat模型 ollama pull qwen3:0.6b # 嵌入Embedding模型 ollama pull bge-m3:latest # 重新排序Rerank模型 ollama pull linux6200/bge-reranker-v2-m3:latest # 或者从 huggingface 下载模型 # ollama pull hf.co/&lt;username&gt;/&lt;model-repository&gt; </code></pre> <div class="markdown-code-block-copy-btn"> </div> </div> <h3 style="font-size: 18px;"><a id="user-content-方法二使用-docker-compose-ollama默认安装ollama默认使用-qwen306b-模型" class="anchor" href="https://gitee.com/270580156/weiyu/blob/main/README.zh.md#%E6%96%B9%E6%B3%95%E4%BA%8C%E4%BD%BF%E7%94%A8-docker-compose-ollama%E9%BB%98%E8%AE%A4%E5%AE%89%E8%A3%85ollama%E9%BB%98%E8%AE%A4%E4%BD%BF%E7%94%A8-qwen306b-%E6%A8%A1%E5%9E%8B"></a>方法二:使用 docker compose ollama,默认安装ollama,默认使用 qwen3:0.6b 模型</h3> <div class="markdown-code-block"> <pre><code class="hljs hljs-bash">git clone https://gitee.com/270580156/weiyu.git &amp;&amp; cd weiyu/deploy/docker &amp;&amp; docker compose -p weiyu -f docker-compose-ollama.yaml up -d </code></pre> <div class="markdown-code-block-copy-btn"> </div> </div> <p><a id="user-content-docker-拉取ollama模型配置文件中可以配置其他模型如deepseek-r1等" class="anchor" href="https://gitee.com/270580156/weiyu/blob/main/README.zh.md#docker-%E6%8B%89%E5%8F%96ollama%E6%A8%A1%E5%9E%8B%E9%85%8D%E7%BD%AE%E6%96%87%E4%BB%B6%E4%B8%AD%E5%8F%AF%E4%BB%A5%E9%85%8D%E7%BD%AE%E5%85%B6%E4%BB%96%E6%A8%A1%E5%9E%8B%E5%A6%82deepseek-r1%E7%AD%89"></a>docker 拉取ollama模型。配置文件中可以配置其他模型,如deepseek-r1等</p> <div class="markdown-code-block"> <pre><code class="hljs hljs-bash"># 对话模型 docker exec ollama-bytedesk ollama pull qwen3:0.6b # 嵌入模型 docker exec ollama-bytedesk ollama pull bge-m3:latest # 重新排序Rerank模型 docker exec ollama-bytedesk ollama pull linux6200/bge-reranker-v2-m3:latest # 或者从 huggingface 下载模型 # docker exec ollama-bytedesk ollama pull hf.co/&lt;username&gt;/&lt;model-repository&gt; </code></pre> <div class="markdown-code-block-copy-btn"> </div> </div> <p><a id="user-content-停止容器" class="anchor" href="https://gitee.com/270580156/weiyu/blob/main/README.zh.md#%E5%81%9C%E6%AD%A2%E5%AE%B9%E5%99%A8"></a>停止容器</p> <div class="markdown-code-block"> <pre><code class="hljs hljs-bash">docker compose -p weiyu -f docker-compose.yaml stop </code></pre> <div class="markdown-code-block-copy-btn"> </div> </div> <p><a id="user-content-修改配置否则上传图片文件和知识库无法正常显示" class="anchor" href="https://gitee.com/270580156/weiyu/blob/main/README.zh.md#%E4%BF%AE%E6%94%B9%E9%85%8D%E7%BD%AE%E5%90%A6%E5%88%99%E4%B8%8A%E4%BC%A0%E5%9B%BE%E7%89%87%E6%96%87%E4%BB%B6%E5%92%8C%E7%9F%A5%E8%AF%86%E5%BA%93%E6%97%A0%E6%B3%95%E6%AD%A3%E5%B8%B8%E6%98%BE%E7%A4%BA"></a>修改配置,否则上传图片、文件和知识库无法正常显示</p> <ul> <li>修改 <code>docker-compose.yaml</code> 文件 或 <code>docker-compose-ollama.yaml</code> 文件,修改以下配置项:</li> </ul> <div class="markdown-code-block"> <pre><code class="hljs hljs-bash"># 请将服务器127.0.0.1替换为你的服务器ip BYTEDESK_UPLOAD_URL: http://127.0.0.1:9003 BYTEDESK_KBASE_API_URL: http://127.0.0.1:9003 </code></pre> <div class="markdown-code-block-copy-btn"> </div> </div> <h3 style="font-size: 18px;">源码: <a href="https://gitee.com/270580156/weiyu/" target="_blank" rel="noopener">https://gitee.com/270580156/weiyu/</a> </h3> <h3 style="font-size: 18px;">官网: <a href="https://weiyuai.cn/" target="_blank" rel="noopener">https://weiyuai.cn/</a> </h3>