关键词 "学习" 的搜索结果, 共 13 条, 只显示前 480 条
朱雀AI检测是腾讯混元安全团队朱雀实验室推出的AI检测工具,包括AI生成图片检测系统和AI生成文本检测系统,识别AI生成的图片和文本内容。AI生成图片检测系统,通过捕捉真实图片与AI生图之间的差异,帮助用户辨别图片是否由AI生成,维护数字内容生态的真实、可信。AI生成文本检测系统,通过对海量AI生成文本和人类写作内容的学习,通过分析文本的特征和模式,可以较为准确地判断文本是否为AI生成,有助于防止
Sapling AI 是检测文本是否由AI生成的免费在线工具,用户可以通过上传文本或直接粘贴内容进行检测,工具基于机器学习算法分析文本特征,识别出由 AI 模型(如 ChatGPT 和 GPT-4)生成的内容。Sapling 能在短至 50 个字的文本中进行检测,将 AI 生成的部分高亮显示,同时提供整体的 AI 生成内容比例。 Sapling AI Content Detector的主要功能
Gemini Diffusion是谷歌推出的实验性文本扩散模型。与传统自回归模型逐词生成文本不同,基于逐步细化噪声生成输出,能快速迭代纠正错误,让Gemini Diffusion在文本生成任务中表现出色,具备快速响应、生成更连贯文本和迭代细化等能力。Gemini Diffusion性能在外部基准测试中与更大规模模型相当,速度更快。Gemini Diffusion作为实验性演示提供,用户加入等待名单
Operator是OpenAI推出的首款AI智能体。能像人类一样操作网页浏览器的AI工具,可以自动完成各种在线任务,如预订餐厅、购买机票、填写表单等。Operator基于Computer-Using Agent(CUA)的新模型驱动,模型结合了GPT-4o的视觉能力和强化学习的高级推理能力。通过屏幕截图“观察”网页,使用虚拟鼠标和键盘进行操作。Operator目前处于研究预览阶段,仅对美国的Cha
夸克是阿里推出的AI搜索应用,集成了浏览器搜索、网盘、实用工具等功能。夸克支持手机版、Pad版、Windows电脑PC版,资产一键同步。提供6T超大空间、AI总结、AI生成等智能服务。用户可通过手机扫码快速登录,享受无缝的多端协同体验。夸克极速、安全、高效、高颜值,是你的学习、工作、生活的高效拍档。 夸克的功能特色 智能搜索:夸克基于AI智能引擎提供快速、准确的搜索结果,查资料更快,工作,
VideoTutor是AI教育辅助工具,生成动画讲解视频,帮助学生理解知识点和解题过程。VideoTutor支持SAT数学、AP数学、STEM知识和语言学习等学科领域。用户用文字、截图或语音输入问题,系统自动生成包含动画和语音说明的讲解视频。工具提供个性化学习内容,支持24小时在线学习,适合家长、学生和教师使用,在SAT数学备考方面表现出色。 VideoTutor的主要功能 AI视频生成:
视觉语言模型(VLM),基于像素空间推理增强模型对视觉信息的理解和推理能力。模型能直接在视觉输入上进行操作,如放大图像区域或选择视频帧,更细致地捕捉视觉细节。Pixel Reasoner用两阶段训练方法,基于指令调优让模型熟悉视觉操作,用好奇心驱动的强化学习激励模型探索像素空间推理。Pixel Reasoner在多个视觉推理基准测试中取得优异的成绩,显著提升视觉密集型任务的性能。 Pixel R
Qlib 是一个开源的、面向 AI 的量化投资平台,旨在利用 AI 技术挖掘量化投资的潜力,赋能研究,创造价值,涵盖从探索想法到落地生产的全过程。Qlib 支持多种机器学习建模范式,包括监督学习、市场动态建模和强化学习。 越来越多不同范式的 SOTA Quant 研究成果/论文正在 Qlib 中发布,以协作解决量化投资领域的关键挑战。例如,1)使用监督学习从丰富且异构的金融数据中挖掘市场复杂的非
QwenLong-L1-32B 是阿里巴巴集团 Qwen-Doc 团队推出的,基于强化学习训练的首个长文本推理大模型。模型基于渐进式上下文扩展、课程引导的强化学习和难度感知的回顾性采样策略,显著提升在长文本场景下的推理能力。模型在多个长文本文档问答(DocQA)基准测试中表现优异,平均准确率达到了70.7%,超越OpenAI-o3-mini和Qwen3-235B-A22B等现有旗舰模型,且与Cla
Cartwheel 是 AI 3D 动画生成平台,基于文本到动画(Text-to-Motion)技术,让用户仅需输入文本描述,快速生成高质量的 3D 角色动画。平台结合深度学习模型与传统动画技术,支持动作捕捉、自动化运动合成,与主流 3D 软件无缝集成。Cartwheel 的目标是简化 3D 动画制作流程,帮助动画师和艺术家节省时间,专注于创造性工作。 Cartwheel的主要功能 文本驱
OmniAudio 是阿里巴巴通义实验室语音团队推出的从360°视频生成空间音频(FOA)的技术。为虚拟现实和沉浸式娱乐提供更真实的音频体验。通过构建大规模数据集Sphere360,包含超过10.3万个视频片段,涵盖288种音频事件,总时长288小时,为模型训练提供了丰富资源。OmniAudio 的训练分为两个阶段:自监督的coarse-to-fine流匹配预训练,基于大规模非空间音频资源进行自监
OpenAudio S1是Fish Audio推出的文本转语音(TTS)模型,基于超过200万小时的音频数据训练,支持13种语言。采用双自回归(Dual-AR)架构和强化学习与人类反馈(RLHF)技术,生成的声音高度自然、流畅,几乎与人类配音无异。模型支持超过50种情感和语调标记,用户可通过自然语言指令灵活调整语音表达。OpenAudio S1支持零样本和少样本语音克隆,仅需10到30秒的音频样本
SmolVLA 是 Hugging Face 开源的轻量级视觉-语言-行动(VLA)模型,专为经济高效的机器人设计。拥有4.5亿参数,模型小巧,可在CPU上运行,单个消费级GPU即可训练,能在MacBook上部署。SmolVLA 完全基于开源数据集训练,数据集标签为“lerobot”。 SmolVLA的主要功能 多模态输入处理:SmolVLA 能处理多种输入,包括多幅图像、语言指令以及
只显示前20页数据,更多请搜索
Showing 121 to 133 of 133 results