关键词 "大模型" 的搜索结果, 共 24 条, 只显示前 480 条
Co-Sight是中兴通讯开源的超级智能体项目,为协同视觉分析平台及智能自动化底座。采用多智能体架构,构建“数字团队”协同体系,通过DAG任务引擎驱动,实现任务的高效调度与执行。Co-Sight具备自我进化能力,能通过执行记录与模型推理自动生成智能总结报告,形成持续改进闭环。注重安全与可靠性,所有操作在沙箱环境中运行,支持日志追溯、权限管控与合规审计。 Co-Sight的主要功能 智能总结
讯飞晓医APP是由科大讯飞医疗推出的一款智能医疗健康助手应用,利用讯飞星火医疗大模型技术,结合丰富的医学数据和深度学习算法,为用户提供症状自查、药物查询、中医辨证、报告解读、医院推荐、科室推荐和饮食建议等多功能服务。该应用旨在通过人工智能技术,提升用户的健康管理效率,优化就医体验,实现个性化、精准的健康咨询和指导,轻松管理自己和家人的健康。 讯飞晓医APP的主要功能 症状自查:用户输入
BILIVE 是基于 AI 技术的开源工具,专为 B 站直播录制与处理设计。工具支持自动录制直播、渲染弹幕和字幕,支持语音识别、自动切片精彩片段,生成有趣的标题和风格化的视频封面。BILIVE 能自动将处理后的视频投稿至 B 站,综合多种模态模型,兼容超低配置机器,无需 GPU 即可运行,适合个人用户和小型服务器使用。 1. Introduction Have you notice
FunGPT 是基于 InternLM2.5 系列大模型开发的开源项目,专为情感调节设计。具备两大核心功能:甜言蜜语模式和犀利怼语模式。甜言蜜语模式能用温暖的话语和独特的夸奖提升用户心情,犀利怼语模式以幽默风趣的方式帮助用户释放压力。FunGPT 采用 1.8B 系列轻量化模型,结合 AWQ 量化技术,既节省 GPU 内存又提升推理速度。 FunGPT的主要功能 甜言蜜语模式:当用户情绪低
KuaiMod 是快手推出的基于多模态大模型的短视频质量判别框架,能高效识别和过滤有害及低质量内容。框架借鉴普通法(Common Law)体系,基于案例驱动的方式动态更新审核策略,快速适应短视频平台上内容的快速变化。KuaiMod 结合视觉语言模型(VLM)和链式推理(Chain-of-Thought,中 CoT)技术,基于用户反馈进行强化学习,实现精准的内容判别。KuaiMod 离线测试准确率高
笔格AIPPT(原比格AIPPT)是一款高效的AI PPT生成办公工具,利用先进的人工智能大模型技术,为用户提供了一个快速便捷的PPT制作体验。用户只需简单地输入想要探讨的主题,该智能软件便能迅速地创建出一套专业的演示文稿。此外,笔格AIPPT还内置了一系列精心设计的PPT模板,用户可以轻松地通过一键操作来更换这些模板,适应不同的演示场合和风格。会员可解锁更多高级功能,支持免费体验。 笔格A
深势科技是全球AI for Science领导者,依托在交叉学科领域的深耕,构建了“深势·宇知”AI for Science大模型体系,并进一步解决科学研究和工业研发领域的关键问题,将众多学科的科研方法从“实验试错 / 计算机”时代带入了“预训练模型时代”,形成了AI for Science的“创新-落地”链路和开放生态,赋能“千行百业”,为人类经济发展最基础的生物医药、能源、材料和信息科学与工程
超级麦吉是一个强大的通用型 AI Agent,专门面向复杂任务场景设计。通过多 Agent 设计体系以及丰富的工具能力支持,超级麦吉支持自主任务理解、自主任务规划、自主行动、自主纠错等智能的能力。它能够理解自然语言指令,执行各类业务流程,并交付最终的目标结果。作为麦吉产品矩阵的旗舰产品,超级麦吉通过开源的方式提供了强大的二次开发能力,让企业能够快速构建和部署符合特定业务需求的智能助手,大幅提升决策
美团正在加速其 AI 战略布局,即将推出一款名为 “NoCode” 的 AI 编程工具,并已悄然注册了 “nocode.cn” 域名,目前该网站正处于灰度测试阶段,预示这款面向非技术用户的全新产品即将正式面世。 该工具由美团研发质量与效率团队打造,定位于新兴的 “Vibe Coding(氛围编程)” 赛道,通过对话式交互实现应用构建,主打 “人人可用” 的 AI 编程体验。 不同于 Curso
AIFlowy 是一个基于 Java 开发的企业级 AI 底层平台,致力于为中国开发者和企业提供高效、开放、本土化的 AI 工具与平台。我们对标字节 Coze、腾讯元器和 Dify 等产品,但更加聚焦于 toB 场景下的深度应用与落地实践。 我们的使命是: “成为中国最具有影响力的人工智能品牌之一,引领核心技术自主创新,推动中国 AI 技术生态繁荣发展和科技自立。” 我们的愿景是:
腾讯元器是腾讯混元大模型团队推出的智能体开放平台,开发者可以通过插件、知识库、工作流等方式快速、低门槛打造高质量的智能体,支持发布到QQ、微信等平台,同时也支持API调用。 类似COZE,Dify,Cherry Studio的智能体开发平台
DMind是DMind研究机构发布的专为Web3领域优化的大型语言模型。针对区块链、去中心化金融和智能合约等场景深度优化,使用Web3数据微调采用RLHF技术对齐。DMind在Web3专项基准测试中表现优异,性能远超一线通用模型,推理成本仅为主流大模型的十分之一。包含DMind-1和DMind-1-mini两个版本,前者适合复杂指令和多轮对话,后者轻量级,响应快、延迟低,适合代理部署和链上工具。
Joy Industrial是京东工业推出的行业首个供应链为核心的工业大模型。模型针对工业场景,依托京东工业在工业数智供应链领域的经验积累和数据沉淀,基于“工业大模型+供应链场景应用”双引擎,构建全栈产品矩阵。Joy Industrial首批推出需求代理、运营代理、商品专家、集成专家、关务代理等AI产品,能解决工业供应链中的数据孤岛、协同冲突等痛点,助力产业降本增效、合规保供,推动产业链结构性变革
Dolphin 是字节跳动开源的轻量级、高效的文档解析大模型。基于先解析结构后解析内容的两阶段方法,第一阶段生成文档布局元素序列,第二阶段用元素作为锚点并行解析内容。Dolphin在多种文档解析任务上表现出色,性能超越GPT-4.1、Mistral-OCR等模型。Dolphin 具有322M参数,体积小、速度快,支持多种文档元素解析,包括文本、表格、公式等。Dolphin的代码和预训练模型已公开,
CoreAgent是网易智企推出的企业级智能体开发协作平台。支持问答、工作流、自主智能体等多种形态的智能体开发、测评和托管。平台采用RAG技术构建知识库,具备高性能检索和高召回效果。自主智能体支持云原生架构的沙箱运行机制,提供安全隔离和资源可控的运行环境,可通过MCP协议调度第三方服务。检测用户输入和生成内容,确保合规。通过多种连接器和智能组件,CoreAgent可与网易CodeWave无缝打通,
朱雀AI检测是腾讯混元安全团队朱雀实验室推出的AI检测工具,包括AI生成图片检测系统和AI生成文本检测系统,识别AI生成的图片和文本内容。AI生成图片检测系统,通过捕捉真实图片与AI生图之间的差异,帮助用户辨别图片是否由AI生成,维护数字内容生态的真实、可信。AI生成文本检测系统,通过对海量AI生成文本和人类写作内容的学习,通过分析文本的特征和模式,可以较为准确地判断文本是否为AI生成,有助于防止
Gemini Diffusion是谷歌推出的实验性文本扩散模型。与传统自回归模型逐词生成文本不同,基于逐步细化噪声生成输出,能快速迭代纠正错误,让Gemini Diffusion在文本生成任务中表现出色,具备快速响应、生成更连贯文本和迭代细化等能力。Gemini Diffusion性能在外部基准测试中与更大规模模型相当,速度更快。Gemini Diffusion作为实验性演示提供,用户加入等待名单
心流是阿里巴巴推出的基于星辰大模型的AI搜索助手,通过智能技术提升用户的知识获取效率。集成了近3000万篇学术论文资源,覆盖Nature、IEEE、ArXiv等权威期刊,支持学术问答、AI精读、段落总结、智能翻译和名词解释等功能,能帮助研究人员和学生快速理解和分析论文内容。心流提供DeepSeek渠道,联网搜索协助思考过程,具备通用问答、慢推理、私人知识库等功能,适用于市场调研、文档分析、内容创作
如影数字人超级直播间,行业首创多模态智能运营,依托“商汤日日新SenseNova”多模态大模型,具备智能选品、素材提炼等能力,能够大幅提高直播间运营效率。无需视频采集即可复刻现有直播间,当日复刻当日播。 支持多平台直播,智能互动逼真形象引流吸粉
视觉语言模型(VLM),基于像素空间推理增强模型对视觉信息的理解和推理能力。模型能直接在视觉输入上进行操作,如放大图像区域或选择视频帧,更细致地捕捉视觉细节。Pixel Reasoner用两阶段训练方法,基于指令调优让模型熟悉视觉操作,用好奇心驱动的强化学习激励模型探索像素空间推理。Pixel Reasoner在多个视觉推理基准测试中取得优异的成绩,显著提升视觉密集型任务的性能。 Pixel R
QwenLong-L1-32B 是阿里巴巴集团 Qwen-Doc 团队推出的,基于强化学习训练的首个长文本推理大模型。模型基于渐进式上下文扩展、课程引导的强化学习和难度感知的回顾性采样策略,显著提升在长文本场景下的推理能力。模型在多个长文本文档问答(DocQA)基准测试中表现优异,平均准确率达到了70.7%,超越OpenAI-o3-mini和Qwen3-235B-A22B等现有旗舰模型,且与Cla
Ming-Lite-Omni是蚂蚁集团开源的统一多模态大模型。模型基于MoE架构,融合文本、图像、音频和视频等多种模态的感知能力,具备强大的理解和生成能力。模型在多个模态基准测试中表现出色,在图像识别、视频理解、语音问答等任务上均取得优异成绩。模型支持全模态输入输出,能实现自然流畅的多模态交互,为用户提供一体化的智能体验。Ming-Lite-Omni具备高度的可扩展性,可广泛用在OCR识别、知识问
银河通用发布全球首个产品级端到端具身 FSD 大模型 ——TrackVLA,一款具备纯视觉环境感知、语言指令驱动、可自主推理、具备零样本(Zero-Shot)泛化能力的具身大模型。 TrackVLA 是银河通用推出的产品级导航大模型,纯视觉环境感知、自然语言指令驱动、端到端输出语言和机器人动作,是一个由仿真合成动作数据训练的“视觉-语言-动作”(Vision-Language-Action, V
VRAG-RL是阿里巴巴通义大模型团队推出的视觉感知驱动的多模态RAG推理框架,专注于提升视觉语言模型(VLMs)在处理视觉丰富信息时的检索、推理和理解能力。基于定义视觉感知动作空间,让模型能从粗粒度到细粒度逐步获取信息,更有效地激活模型的推理能力。VRAG-RL引入综合奖励机制,结合检索效率和基于模型的结果奖励,优化模型的检索和生成能力。在多个基准测试中,VRAG-RL显著优于现有方法,展现在视
只显示前20页数据,更多请搜索
Showing 49 to 72 of 73 results