关键词 "学习" 的搜索结果, 共 20 条, 只显示前 480 条
仲景中医大语言模型(CMLM-ZhongJing)由复旦大学和同济大学联合开发,借鉴人类记忆的过程,通过对中医方药数据的深度学习与推理,建立的一个基于大语言模型的中医诊疗辅助系统。
一个学习 提示词 的网站,有 ChatGPT,Midjourney 的提示词教程、技巧等,他在右上角有中文语言的选择,教程非常详尽
豆包是字节跳动公司基于云雀模型开发的AI工具,提供聊天机器人、写作助手以及英语学习助手等功能,它可以回答各种问题并进行对话,帮助人们获取信息,支持网页 Web 平台, Windows/macOS 电脑版客户端,iOS 以及安卓平台。
上海交通大学清源研究院的研究人员提出了PathoDuet框架,针对病理切片图像的特点,设计了跨尺度定位和跨染色迁移两个预训练任务,有效利用了图像放大倍数和染色方式之间的关联性。PathoDuet在结直肠癌分型和免疫组化标记物表达预测等任务中优于现有方法。此外,通用病理基础模型UNI[39]在超过100万张诊断切片上进行了大规模无监督学习,并在34个任务中展现了卓越的性能。该模型支持分辨率无关分类、少样本学习等,并具备对108种癌症类型的泛化分类能力。
中国科学院深圳先进技术研究院的团队提出了MaCo,通过引入掩蔽对比学习,同时实现了胸部X光图像的细粒度理解和零样本学习。MaCo在6个公开的胸部X光数据集上验证了其效果,在分类、分割、检测等多个任务中超越了10种现有的最先进方法
通用病理基础模型UNI在超过100万张诊断切片上进行了大规模无监督学习,并在34个任务中展现了卓越的性能。该模型支持分辨率无关分类、少样本学习等,并具备对108种癌症类型的泛化分类能力。
我们见证了许多新型特征提取器的出现,它们使用自监督学习在大型病理数据集上进行训练。本存储库旨在提供这些模型的完整列表以及它们的关键信息。
MAPS(用于空间生物学中蛋白质组学分析的机器学习),这是一种机器学习方法,能够从空间蛋白质组学数据中快速、精确地识别细胞类型,并达到人类水平的精度。经多个内部和公开的 MIBI 和 CODEX 数据集验证,MAPS 在速度和精度方面均优于现有的注释技术,即使对于通常具有挑战性的细胞类型(包括免疫来源的肿瘤细胞),也能达到病理学家级别的精度。通过实现快速部署和可扩展的机器学习注释的普及,MAPS 拥有巨大的潜力,可以加速组织生物学和疾病理解的进步。
基于深度学习的组织学和基因组学多模态整合,以改善癌症起源预测
组织病理学图像评估对于癌症诊断和亚型分类至关重要。用于组织病理学图像分析的标准人工智能方法专注于优化针对每个诊断任务的专门模型 。尽管此类方法已取得一些成功,但它们对由不同数字化协议生成的图像或从不同人群采集的样本的普遍性通常有限。在此,为了应对这一挑战,我们设计了临床组织病理学影像评估基础 (CHIEF) 模型,这是一个通用的弱监督机器学习框架,用于提取病理影像特征以进行系统的癌症评估。CHIEF 利用两种互补的预训练方法来提取不同的病理表示:用于图块级特征识别的无监督预训练和用于全切片模式识别的弱监督预训练。我们使用涵盖 19 个解剖部位的 60,530 张全切片图像开发了 CHIEF。 CHIEF 通过在 44 TB 高分辨率病理成像数据集上进行预训练,提取了可用于癌细胞检测、肿瘤起源识别、分子谱表征和预后预测的微观表征。我们使用来自全球 24 家医院和队列的 32 个独立切片集的 19,491 张全切片图像成功验证了 CHIEF。总体而言,CHIEF 的表现比最先进的深度学习方法高出 36.1%,展现了其能够处理在不同人群样本中观察到的领域偏移(domain shift),并采用不同的切片制备方法进行处理。CHIEF 为癌症患者的高效数字病理评估奠定了可推广的基础。
开发能够学习通用且可迁移的 H&E 千兆像素全切片图像 (WSI) 表征的自监督学习 (SSL) 模型,在计算病理学中正变得越来越重要。这些模型有望推进诸如小样本分类、切片检索和患者分层等关键任务。现有的切片表征学习方法通常通过将切片的两个不同增强图像(或视图)对齐,将 SSL 的原理从小图像(例如 224x224 的图像块)扩展到整张切片。然而,最终的表征仍然受限于视图有限的临床和生物多样性。因此,我们假设,用多种标记物(例如免疫组化染色)染色的切片可以用作不同的视图,从而形成丰富的、与任务无关的训练信号。为此,我们引入了 MADELEINE,一种用于切片表征学习的多模态预训练策略。 MADELEINE 已在大量乳腺癌样本(N=4,211 个 WSI,涵盖五种染色)和肾移植样本(N=12,070 个 WSI,涵盖四种染色)上进行了双全局-局部交叉染色比对目标训练。我们展示了 MADELEINE 在各种下游评估(从形态学和分子分类到预后预测)中学习到的载玻片表征的质量,这些评估涵盖了 21 项任务,使用了来自多个医疗中心的 7,299 个 WSI。
此开源项目旨在完全从0开始,仅用3块钱成本 + 2小时!即可训练出仅为25.8M的超小语言模型MiniMind。 MiniMind系列极其轻量,最小版本体积是 GPT-3 的 1/7000,力求做到最普通的个人GPU也可快速训练。 项目同时开源了大模型的极简结构-包含拓展共享混合专家(MoE)、数据集清洗、预训练(Pretrain)、监督微调(SFT)、LoRA微调, 直接偏好强化学习(DPO)算法、模型蒸馏算法等全过程代码。 MiniMind同时拓展了视觉多模态的VLM: MiniMind-V。 项目所有核心算法代码均从0使用PyTorch原生重构!不依赖第三方库提供的抽象接口。 这不仅是大语言模型的全阶段开源复现,也是一个入门LLM的教程。 希望此项目能为所有人提供一个抛砖引玉的示例,一起感受创造的乐趣!推动更广泛AI社区的进步!
LangChain for Java:利用 LLM 的强大功能增强你的 Java 应用程序 LangChain4j 的目标是简化 LLM 与 Java 应用程序的集成。 方法如下: 统一的 API: LLM 提供商(例如 OpenAI 或 Google Vertex AI)和嵌入(向量)存储(例如 Pinecone 或 Milvus)使用专有 API。LangChain4j 提供统一的 API,避免了为每种 API 学习和实现特定 API 的麻烦。为了尝试不同的 LLM 或嵌入存储,您可以轻松地在它们之间切换,而无需重写代码。LangChain4j 目前支持15 多个流行的 LLM 提供商 和15 多个嵌入存储。 全面的工具箱: 自 2023 年初以来,社区一直在构建大量基于 LLM 的应用程序,识别常见的抽象、模式和技术。LangChain4j 已将这些工具提炼为实用代码。我们的工具箱涵盖各种工具,从低级提示模板、聊天内存管理和函数调用,到高级模式(例如 Agents 和 RAG)。对于每种抽象,我们都提供了一个接口以及基于常见技术的多种即用型实现。无论您是构建聊天机器人,还是开发具有从数据提取到检索的完整流程的 RAG,LangChain4j 都能提供丰富的选择。 大量示例: 这些示例展示了如何开始创建各种 LLM 驱动的应用程序,提供灵感并使您能够快速开始构建。 LangChain4j 于 2023 年初在 ChatGPT 热潮中启动开发。我们注意到,众多 Python 和 JavaScript LLM 库和框架缺乏 Java 版本,因此我们必须解决这个问题!虽然我们的名字里有“LangChain”,但该项目融合了 LangChain、Haystack、LlamaIndex 以及更广泛社区的理念和概念,并融入了我们自己的创新元素。
开发者路线图roadmap.sh是一个社区努力创建路线图、指南和其他教育内容,以帮助指导开发人员选择道路并指导他们的学习。Github上有超过31万个星。
Go 开发者路线图,是GO开发者的学习资料库
React学习的资料库,十分全面系统
AspNetCore的学习路线图,有大量的资料库。在github上约2万个星星
skyreels-极速短视频制作软件,智能AI技术,文字转短视频,一键生成小说推文视频,逼真视频.自媒体及个人可以高效快速智能的制作生动有趣的短视频作品,号称能连续生成长视频。 昆仑万维SkyReels团队正式发布并开源SkyReels-V2——全球首个使用扩散强迫(Diffusion-forcing)框架的无限时长电影生成模型,其通过结合多模态大语言模型(MLLM)、多阶段预训练(Multi-stage Pretraining)、强化学习(Reinforcement Learning)和扩散强迫(Diffusion-forcing)框架来实现协同优化。SkyReels-V2现已支持生成30秒、40秒的视频,且具备生成高运动质量、高一致性、高保真视频的能力。
UI-TARS-1.5 是一款基于强大的视觉语言模型构建的开源多模态代理,能够在虚拟世界中高效地执行各种任务。 UI-TARS-1.5 这是一款基于视觉-语言模型构建的开源多模态智能体,能够在虚拟世界中高效执行各类任务。 UI-TARS-1.5 基于字节此前提出的原生智能体方案 UI-TARS,通过强化学习进一步增强了模型的高阶推理能力,使模型能够在“行动”前先进行“思考”。 该版本的模型中,团队还展示了一个新的愿景:以游戏为载体来增强基础模型的推理能力。与数学、编程等领域相比,游戏更多依赖直观的、常识性的推理,并较少依赖专业知识,因此,游戏通常是评估和提升未来模型通用能力的理想测试场景。 据介绍,UI-TARS 是一个原生 GUI 智能体,具备真实操作电脑和手机系统的能力,同时,还可操控浏览器、完成复杂交互任务。UI-TARS-1.5 能够实现精准 GUI 操作,基于团队在四个维度的技术探索: 视觉感知增强:依托大规模界面截图数据,模型可理解元素的语义与上下文,形成精准描述。 System 2 推理机制:在动作前生成“思维(thought)”,支持复杂任务的多步规划与决策。 统一动作建模:构建跨平台标准动作空间,通过真实轨迹学习提升动作可控性与执行精度。 可自我演化的训练范式:通过自动化的交互轨迹采集与反思式训练,模型持续从错误中改进,适应复杂环境变化。
DeTikZify是一款创新工具,专为科学家、学者以及任何需要创建精准数学或科学插图的人设计。它基于先进的语言模型,能够理解手绘草图或现有图片,并转换它们成为可直接用于LaTeX文档的TikZ代码,这一过程无需手动编码,大大节省了时间并提高了效率。 项目技术分析 该系统利用深度学习与蒙特卡洛树搜索(MCTS)的巧妙结合,实现智能迭代优化输出。这意味着,即使初始生成可能不完美,DeTikZify也能不断自我改进,逼近理想的图示效果,这一切都不需要额外的模型训练。其核心在于对TikZ语言的深刻理解和强大的视觉到代码的转换算法,实现了从图像到代码的无缝衔接。 应用场景 科研发表:快速将草图概念化为专业级别图形,适合论文发表。 教学辅助:教师可以迅速制作教学示意图,提升课堂讲解的直观性。 个人研究:帮助研究人员高效呈现复杂数据和理论模型。 学术共享:提供了一种标准化方式来重现和修改他人的图形,促进了学术交流。 项目特点 易用性:无论是科研新手还是专家,都能轻松上手,通过简单输入获取复杂的TikZ代码。 高精度转换:即使是细节繁复的图形,也能保持高度准确,忠实于原始设计。 交互式体验:通过Web UI或编程接口,提供了灵活的操作环境,允许实时调整和反馈。 教育资源:附带的教程和例子,使得学习和掌握TikZ编程变得更加平易近人。 开源贡献:基于强大的社区支持,持续迭代优化,任何人都能参与改进和扩展功能。 DeTikZify不仅是技术的进步,更是简化科学沟通的重要一步。它的出现预示着一个更加高效、直观的科研图表制作时代。立即尝试,让你的科学研究和文献展示更上一层楼,无需再被图形制作的繁琐细节所困扰。这个开源项目,等待着每一位寻求创新表达方式的研究者,共同探索科学之美。
只显示前20页数据,更多请搜索