关键词 "20 styles" 的搜索结果, 共 17 条, 只显示前 480 条
Rate and discover games with Minimap for personalized gaming recommendations.
OpenArt is an AI image generator that enhances creativity and productivity with various AI models and styles.
Replika is an AI chatbot that provides emotional support and mimics users' texting styles.
AI data analyst for data visualization and analysis 人工智能数据分析师,负责数据可视化和分析
一款轻量级终端运行编码智能体 —— Codex CLI,该工具现已在 GitHub 完全开源。是OpenAI开发的。 Codex CLI 可以直接在用户的计算机上工作,旨在最大化 o3 和 o4-mini 等模型的推理能力,并即将支持 GPT-4.1 等额外的 API 模型。 Codex CLI 可以在 macOS 12+、Ubuntu 20.04+/Debian 10+、Windows 11 的 WSL2 子系统中使用,要求最少拥有 4GB 内存(建议 8GB)。
TCMLLM由北京交通大学计算机与信息技术学院医学智能团队开发的中医药大语言模型项目,旨在通过大模型方式实现中医临床辅助诊疗(病证诊断、处方推荐等)中医药知识问答等任务,推动中医知识问答、临床辅助诊疗等领域的快速发展。目前针对中医临床智能诊疗问题中的处方推荐任务,发布了中医处方推荐指令微调大模型TCMLLM-PR。研发团队整合了8个数据来源,涵盖4本中医经典教科书《中医内科学》、《中医外科学》、《中医妇科学》和《中医儿科学》、2020版中国药典、中医临床经典医案数据、以及多个三甲医院的涵盖肺病、中风病、糖尿病、肝病、脾胃病等多病种的临床病历数据,构建了包含68k数据条目(共10M token)的处方推荐指令微调数据集,并使用此数据集,在ChatGLM大模型上进行大规模指令微调,最终得到了中医处方推荐大模型TCMLLM-PR。
月之暗面 (Moonshot AI) 创立于2023年3月,致力于寻求将能源转化为智能的最优解,通过产品与用户共创智能,2023年10月推出全球首个支持输入20万汉字的智能助手产品Kimi。
通义,由通义千问更名而来,是阿里云推出的语言模型,于2023年9月13日正式向公众开放。属于(AI Generated Content,AIGC)领域,是一个MaaS(模型即服务)的底座。为多模态大模型(Multimodal Models)。通义意为“通情,达义”,具备全副AI能力
FastGlioma 模型是一种用于胶质瘤术中检测的视觉基础模型,通过快速分析新鲜手术组织实现肿瘤浸润的精准评估,在 220 名患者测试中达到92.1±0.9% 的 AUC。该模型显著优于传统引导方法,并在不同患者群体和脑肿瘤类型中表现出一致性和零样本泛化能力。
Aignostics公司发布了目前最大规模的腹部CT数据集AbdomenAtlas。该数据集涵盖了广泛的人群特征及多种设备类型,共收录了来自112家医疗机构的20,460例三维CT影像。研究团队由10名放射科医生组成,采用人工智能辅助标注方法,完成了67.3万个高质量解剖结构掩码的标注工作。他们首先对5,246例影像中的22种解剖结构进行人工标注,随后利用半自动化流程,由放射科医生优化模型预测的标注结果。
复旦大学的研究者们提出了面向超声图像的通用基础模型USFM。该模型基于超过200万张多器官超声图像进行训练,采用空间-频率双重掩码建模方法处理低质量图像,在分割、分类和图像增强等多个任务中表现出色。
LangChain for Java:利用 LLM 的强大功能增强你的 Java 应用程序 LangChain4j 的目标是简化 LLM 与 Java 应用程序的集成。 方法如下: 统一的 API: LLM 提供商(例如 OpenAI 或 Google Vertex AI)和嵌入(向量)存储(例如 Pinecone 或 Milvus)使用专有 API。LangChain4j 提供统一的 API,避免了为每种 API 学习和实现特定 API 的麻烦。为了尝试不同的 LLM 或嵌入存储,您可以轻松地在它们之间切换,而无需重写代码。LangChain4j 目前支持15 多个流行的 LLM 提供商 和15 多个嵌入存储。 全面的工具箱: 自 2023 年初以来,社区一直在构建大量基于 LLM 的应用程序,识别常见的抽象、模式和技术。LangChain4j 已将这些工具提炼为实用代码。我们的工具箱涵盖各种工具,从低级提示模板、聊天内存管理和函数调用,到高级模式(例如 Agents 和 RAG)。对于每种抽象,我们都提供了一个接口以及基于常见技术的多种即用型实现。无论您是构建聊天机器人,还是开发具有从数据提取到检索的完整流程的 RAG,LangChain4j 都能提供丰富的选择。 大量示例: 这些示例展示了如何开始创建各种 LLM 驱动的应用程序,提供灵感并使您能够快速开始构建。 LangChain4j 于 2023 年初在 ChatGPT 热潮中启动开发。我们注意到,众多 Python 和 JavaScript LLM 库和框架缺乏 Java 版本,因此我们必须解决这个问题!虽然我们的名字里有“LangChain”,但该项目融合了 LangChain、Haystack、LlamaIndex 以及更广泛社区的理念和概念,并融入了我们自己的创新元素。
百川智能核心团队由来自搜狗、百度、华为、微软、字节、腾讯等知名科技公司的AI顶尖人才组成。百川智能成立不到100天,便发布了Baichuan-7B、Baichuan-13B两款开源可免费商用的中文大模型。2025年1月24日,百川智能发布全场景深度思考模型Baichuan-M1-preview,该模型同时具备语言、视觉和搜索三大领域推理能力,现已在百小应中正式上线。
集成20+领先AI模型(包括OpenAI、Anthropic、Google等),支持深度研究和AI代理功能。用户可通过简单界面调用多种模型,适合复杂任务和跨模型比较。
BitNet 是微软研究院开发的第一个开源、原生 1 位大型语言模型 (LLM),参数规模达 20 亿。 该模型在 4 万亿个标记的语料库上进行训练,表明原生 1 位 LLM 可以实现与类似大小的领先开放权重、全精度模型相当的性能,同时在计算效率(内存、能量、延迟)方面具有显著优势。 github地址:https://github.com/microsoft/BitNet
腾讯混元大模型旗下最新发布的Hunyuan3D-2.0系列开源模型,迎来了五款产品(Turbo、Pro、Standard、Lite、Vision)的全系列开源,构建起完整的工具链体系,标志着中国大模型技术首次在多模态领域实现完整开源布局。从30秒生成高精度3D资产的开源框架,到覆盖文本、图像、视频的全模态开源体系,腾讯混元大模型正以开放姿态引领一场全球范围内的数字创作革命。 这一突破得益于腾讯自主研发的3D生成加速框架FlashVDM,它打破了传统3D生成模型的效率瓶颈,将大规模3D模型的生成时间压缩至秒级,为开源社区与工业界的应用部署提供了可能。 Hunyuan3D-2.0推出了多种模型版本,以适应不同应用需求。例如,多视图版本Hunyuan3D-2-MV能够结合2—4张标准视角图片,捕捉丰富的细节,优化3D生成模型产生的效果。与此同时,mini系列模型通过架构优化与算力提升,降低了硬件要求,可在NVIDIA 4080显卡甚至苹果M1 Pro芯片上运行,使3D模型的应用更为广泛。 腾讯自2024年11月发布第一代3D生成大模型以来,持续推动行业创新。如今Hunyuan3D-2.0在文本一致性、几何精度和画面质量等多项评测中超越业内顶级大模型。
斯坦福大学在AI辅助学术研究领域取得了重大进展,他们的开源工具STORM进化后新增了协作对话机制Co-STORM。这一先进功能使得AI实体能够参与圆桌讨论,模拟人类般的互动。Co-STORM通过整合多个AI专家和一个主持人,在几分钟内生成关于特定主题的深入、经过充分研究的文章,同时具备跟踪和参与对话的能力,通过动态思维导图展示。该工具生成具有多元视角的详细报告,并且可在线免费获取,对研究人员和学生来说是一项值得关注的发展。 Co-STORM框架及其对学术研究的影响已被EMNLP 2024主要会议认可,突显了其对学术写作和信息发现未来的潜在影响。- 斯坦福大学推出了一款名为STORM的工具,利用大语言模型(LLM)辅助编写类维基百科文章。 - STORM可以将输入的主题转换为长篇文章或研究论文,并以PDF格式下载。 - STORM通过检索、多角度提问和模拟专家对话等方式生成写作大纲和内容报告。 - STORM擅长需要大量研究和引用的写作任务。 - STORM的GitHub上的Star量已经超过了24k。 - STORM团队推出了全新功能Co-STORM,引入了协作对话机制和轮次管理策略。 - Co-STORM包括Co-STORM LLM专家、主持人和人类用户。 - Co-STORM模拟用户、观点引导专家和主持人之间的协作对话。 - Co-STORM的评估结果表明其在报告质量和对话质量方面优于基线模型。 - Co-STORM的主持人角色可以根据未使用信息提出问题,帮助用户发现更多信息。 - Co-STORM可以帮助用户找到与目标相关的更广泛、更深层次的信息。 STORM 认为研究过程自动化的核心是自动提出好的问题。直接提示语言模型提出问题效果并不好。为了提高问题的深度和广度,STORM 采用了两种策略: 观点引导提问:给定输入主题,STORM 通过调查类似主题的现有文章来发现不同的观点,并使用它们来控制提问过程。 模拟对话:STORM 模拟维基百科作者和基于互联网资源的主题专家之间的对话,使语言模型能够更新其对主题的理解并提出后续问题。 斯坦福又推出了STORM的升级版 ——Co-STORM,引入了协作对话机制,并采用轮次管理策略,实现了AI 智能体间的圆桌讨论和流畅的协作式 AI 学术研究。
只显示前20页数据,更多请搜索
Showing 217 to 233 of 233 results