

简体中文
使用开发者账号登录uniCloud控制台 ,选择uni-ai
栏目。
阅读uni-ai服务协议并点击协议下方的“同意协议并开通”按钮,便可开通uni-ai服务。
uni-ai付费服务按月度套餐购买,您可以根据业务规模,选择合适的套餐下单。
为提供更优质的AI服务体验,我们将于2025年6月25日正式推出uni-ai新版套餐体系。现将升级事宜说明如下:
新旧版本套餐内容如下所示:
版本 | utoken数(新版) | token数(旧版) | 售价 |
---|---|---|---|
体验版 | 300K | 300K | 4.5元/月 |
45元套餐 | 3030K | 45元/月 | |
90元套餐 | 6080K | 90元/月 | |
450元套餐 | 30500K | 450元/月 | |
900元套餐 | 62000K | 900元/月 | |
1800元套餐 | 125000K | 1800元/月 | |
4500元套餐 | 315000K | 4500元/月 | |
9000元套餐 | 650000K | 9000元/月 | |
旗舰版餐 | 1450000K | 20000元/月 |
系统提供了 uniCloud 服务空间白名单安全配置,可以提高接口调用安全性,防止被他人盗用。可点击“添加服务空间”按钮,选择相应的服务空间完成添加服务空间白名单,服务空间添加成功后,只有列表中的服务空间才可以调用当前账号下的uni-ai接口。此列表为空时,不校验调用方的服务空间。
系统可查看uni-ai接口每日调用汇总数据,包括每日调用次数、每日调用成功次数、每日消耗token数等汇总数据。
系统可查看uni-api接口每日调用汇总数据,包括每日调用次数、每日调用成功次数、每日消耗token数等汇总数据。
在uni-ai套餐信息页面点击续费按钮可以对套餐进行续费操作。
在uni-ai套餐信息页面点击变配按钮可以对套餐进行升配操作。升配时需要补足差价。
例:
2023年6月16日,购买2个月体验版套餐,到期时间为2023年8月16日 00:00:00,包月单价为4.5元/月。
在不同的时间点操作升配,需要支付的差价是不同的。
假如选择在第一个月2023年6月17日,将该套餐升级为45元/月的45元版套餐。则需要补差价2个月*(45-4.5)=81元
假如选择在第二个月套餐到期的前一天2023年8月15日,将该套餐升级为45元/月的45元版套餐。则需要补差价1个月*(45-4.5)=40.5元
在uni-ai套餐信息页面点击变配按钮可以对套餐进行降配操作。
注意
套餐到期后,套餐状态将被设置为禁用,无法再使用uni-ai相关功能。如需继续使用,您需要新购套餐。 套餐处于禁用状态后,以您执行新购操作的时间为起点计算包月时长,例如您的套餐在2023年06月10日到期,在2023年06月15日执行新购操作,购买时长为1个月,那么套餐的到期时间即为2023年7月15日。
注意:以下所有折合价格均以4.5元体验版套餐为基准计算得出,套餐规格越高,实际折合价格越低,优惠力度越大。套餐升级说明
本地运行需要HBuilderX版本 >= 4.73
模型名称 | 模型ID | 简介 | 用量 | 消耗 | 折合价格 |
---|---|---|---|---|---|
DeepSeek R1 | deepseek-r1 | DeepSeek R1 是 DeepSeek 团队发布的最新开源模型,具备非常强悍的推理性能,尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 1.067K utokens | 0.016元 | |||
DeepSeek R1 0528 | deepseek-r1-0528 | DeepSeek R1 的重大升级版本,针对复杂推理、多步骤计算更准确;长文理解与生成更连贯、逻辑更清晰;数学、编程等专业性输出更可靠。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 1.067K utokens | 0.016元 | |||
DeepSeek V3 | deepseek-v3 | 推理速度大幅提升,位居开源模型之首,媲美顶尖闭源模型。采用负载均衡辅助策略和多标记预测训练,性能显著增强。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.534K utokens | 0.008元 | |||
DeepSeek-V3-0324 | deepseek-v3-0324 | 推理速度大幅提升,位居开源模型之首,媲美顶尖闭源模型。采用负载均衡辅助策略和多标记预测训练,性能显著增强。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.534K utokens | 0.008元 | |||
Deepseek-V3.1 | deepseek-v3.1 | DeepSeek V3.1 通过显式推理(Think)、动态搜索(Search)、高效工具调用(Tool) 这三驾马车,清晰地瞄准了下一代 AI 智能体的核心能力,清晰地勾勒出一条技术演进路线:一个更自主、更可靠、更能与外部世界交互的智能体(Agent)正在成型。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 0.8K utokens | 0.012元 | |||
Deepseek/Deepseek V3.2 Exp | deepseek/deepseek-v3.2-exp | DeepSeek-V3.2-Exp 模型,是一个实验性(Experimental)的版本。作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.2K utokens | 0.003元 | |||
Deepseek/Deepseek V3.2 Exp Thinking | deepseek/deepseek-v3.2-exp-thinking | DeepSeek-V3.2-Exp 模型,是一个实验性(Experimental)的版本。作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.2K utokens | 0.003元 | |||
Deepseek/Deepseek-V3.1 Terminus | deepseek/deepseek-v3.1-terminus | 此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括: 语言一致性:缓解了中英文混杂、偶发异常字符等情况; Agent 能力:进一步优化了 Code Agent 与 Search Agent 的表现。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 0.8K utokens | 0.012元 | |||
Deepseek/Deepseek-V3.1 Terminus Thinking | deepseek/deepseek-v3.1-terminus-thinking | 此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括: 语言一致性:缓解了中英文混杂、偶发异常字符等情况; Agent 能力:进一步优化了 Code Agent 与 Search Agent 的表现。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 0.8K utokens | 0.012元 | |||
Doubao 1.5 Pro 32k | doubao-1.5-pro-32k | 全新升级的多模态大模型,视觉理解、分类、信息抽取等能力显著提升,并重点增强了解题、视频理解等场景的任务效果。支持 128k 上下文窗口,输出长度支持最大 16K。 | 1K tokens输入 | 0.054K utokens | 0.0008元 |
1K tokens输出 | 0.134K utokens | 0.002元 | |||
Doubao 1.5 Thinking Pro | doubao-1.5-thinking-pro | 仅支持文本输入。在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出,在AIME 2024、Codeforces、GPQA等多项权威基准上达到或接近业界第一梯队水平。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 1.067K utokens | 0.016元 | |||
Doubao 1.5 Vision Pro | doubao-1.5-vision-pro | 全新升级的多模态大模型,视觉理解、分类、信息抽取等能力显著提升,并重点增强了解题、视频理解等场景的任务效果。支持 128k 上下文窗口,输出长度支持最大 16K。 | 1K tokens输入 | 0.2K utokens | 0.003元 |
1K tokens输出 | 0.6K utokens | 0.009元 | |||
Doubao-Seed 1.6 | doubao-seed-1.6 | Doubao Seed 1.6全新多模态深度思考模型,同时支持auto/thinking/non-thinking三种思考模式。 non-thinking模式下,模型效果对比Doubao-1.5-pro/250115大幅提升。支持 256k 上下文窗口,输出长度支持最大 16k tokens。 | 1K tokens输入 | 0.16K utokens | 0.0024元 |
1K tokens输出 | 1.6K utokens | 0.024元 | |||
Doubao-Seed 1.6 Flash | doubao-seed-1.6-flash | Doubao-Seed-1.6-flash 推理速度极致的多模态深度思考模型,TPOT低至10ms; 同时支持文本和视觉理解,文本理解能力超过上一代lite,视觉理解比肩友商pro系列模型。支持 256k 上下文窗口,输出长度支持最大 16k tokens。 | 1K tokens输入 | 0.04K utokens | 0.0006元 |
1K tokens输出 | 0.04K utokens | 0.0006元 | |||
Doubao-Seed 1.6 Thinking | doubao-seed-1.6-thinking | Doubao-Seed-1.6-thinking 模型思考能力大幅强化, 对比 Doubao-1.5-thinking-pro,在 Coding、Math、 逻辑推理等基础能力上进一步提升, 支持视觉理解。 支持 256k 上下文窗口 | 1K tokens输入 | 0.16K utokens | 0.0024元 |
1K tokens输出 | 0.16K utokens | 0.0024元 | |||
GLM-4.5 | glm-4.5 | GLM-4.5 是 GLM 系列的旗舰新模型,拥有 3550 亿个总参数和 320 亿个活动参数。作为混合推理模型,它整合了推理、编码和代理功能,提供用于复杂推理和工具运用的思维模式,以及用于即时响应的非思维模式,可满足快速发展的代理应用日益复杂的需求。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 1.067K utokens | 0.016元 | |||
GLM-4.5-Air | glm-4.5-air | GLM-4.5-Air 是 GLM 系列的另一款旗舰新模型,具备 1060 亿个总参数和 120 亿个活动参数。同样作为混合推理模型,它将推理、编码和代理功能统一,提供思维模式(用于复杂推理和工具运用)与非思维模式(用于即时响应),以适配代理应用的复杂需求。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.534K utokens | 0.008元 | |||
GPT-OSS 120b | gpt-oss-120b | GPT-OSS-120b 是由 OpenAI 推出的开放权重、1170亿参数混合专家(MoE)语言模型,专为高推理能力、智能体应用及通用生产环境场景设计。该模型每次前向传播仅激活51亿参数,并通过原生 MXFP4 量化技术优化,可在单张 H100 GPU 上高效运行。该模型具备三大核心功能:可配置的推理深度、完整思维链访问机制,以及原生工具调用能力(包括函数调用、网络浏览及结构化输出生成)。 | 1K tokens输入 | 0.073K utokens | 0.00108元 |
1K tokens输出 | 0.361K utokens | 0.0054元 | |||
GPT-OSS 20b | gpt-oss-20b | GPT-OSS-20b 是由 OpenAI 基于 Apache 2.0 许可证发布的开源 210 亿参数模型。该模型采用混合专家(MoE)架构,每次前向传播仅激活 36 亿参数,专为低延迟推理及消费级/单 GPU 硬件部署优化设计。模型经 OpenAI Harmony 响应格式训练,具备三大核心能力:可配置的推理等级、微调扩展性,以及包含函数调用、工具使用和结构化输出的 Agent 功能。 | 1K tokens输入 | 0.049K utokens | 0.00072元 |
1K tokens输出 | 0.241K utokens | 0.0036元 | |||
Grok Code Fast 1 | x-ai/grok-code-fast-1 | Grok Code Fast 1是一款高效经济型推理模型,专为智能编码场景打造。该模型通过响应中可见的推理轨迹,让开发者能够精准引导Grok Code实现高质量的工作流程。 | 1K tokens输入 | 0.097K utokens | 0.00144元 |
1K tokens输出 | 0.721K utokens | 0.0108元 | |||
Kimi K2 | kimi-k2 | Kimi K2 是一款先进的混合专家 (MoE) 语言模型,拥有 320 亿个激活参数和 1 万亿个总参数。Kimi K2 采用 Muon 优化器进行训练,在前沿知识、推理和编码任务中表现出色,同时针对代理能力进行了精心优化。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 1.067K utokens | 0.016元 | |||
Kimi K2 0905 | moonshotai/kimi-k2-0905 | Kimi K2 0905 是 Kimi K2 0711 的九月更新版本。该模型由月之暗面(Moonshot AI)研发,是一款大规模混合专家(MoE)语言模型,总参数量达1万亿,前向传播激活参数量为320亿。其上下文支持长度从之前的128K令牌扩展至256K令牌。 本次更新提升了智能体编程能力,在各类框架中实现更高精度和更强泛化性,并增强了前端编程表现,能够为网页、3D等任务生成更具美学价值和功能性的输出。Kimi K2 专门针对智能体能力进行优化,涵盖高级工具使用、逻辑推理和代码合成三大核心领域。其在编程(LiveCodeBench、SWE-bench)、推理(ZebraLogic、GPQA)和工具使用(Tau2、AceBench)等基准测试中表现卓越。该模型采用创新训练架构,集成MuonClip优化器以实现大规模MoE模型的稳定训练。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 1.067K utokens | 0.016元 | |||
MiniMax-M1 | MiniMax-M1 | MiniMax-M1,世界上第一个开源的大规模混合架构的推理模型。M1在面向生产力的复杂场景中能力是开源模型中的最好一档,超过国内的闭源模型,接近海外的最领先模型,同时又有业内最高的性价比。M1有一个显著的优势是支持目前业内最高的100万上下文的输入,跟闭源模型里面的 Google Gemini 2.5 Pro 一样,是 DeepSeek R1 的 8 倍,以及业内最长的8万Token的推理输出。 | 1K tokens输入 | 0.267K utokens | 0.004元 |
1K tokens输出 | 1.067K utokens | 0.016元 | |||
X-Ai/Grok 4 Fast | x-ai/grok-4-fast | Grok 4 Fast是xAI推出的最新多模态模型,具备SOTA级成本效益与200万token上下文窗口。 | 1K tokens输入 | 0.193K utokens | 0.00288元 |
1K tokens输出 | 0.481K utokens | 0.0072元 | |||
通义千问 VL-MAX-2025-01-25 | qwen-vl-max-2025-01-25 | 在图像解析、内容识别以及视觉逻辑推导等任务中,表现出更强的准确性和细粒度分析能力。 | 1K tokens输入 | 0.2K utokens | 0.003元 |
1K tokens输出 | 0.6K utokens | 0.009元 | |||
通义千问-Turbo | qwen-turbo | Qwen3系列Turbo模型,实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-Turbo,达到同规模业界SOTA水平。 | 1K tokens输入 | 0.02K utokens | 0.0003元 |
1K tokens输出 | 0.04K utokens | 0.0006元 | |||
通义千问2.5 VL 72B Instruct | qwen2.5-vl-72b-instruct | 拥有约70亿参数的多模态指令遵循大语言模型,擅长处理图像与文本信息,支持跨模态应用场景。 | 1K tokens输入 | 1.067K utokens | 0.016元 |
1K tokens输出 | 3.2K utokens | 0.048元 | |||
通义千问2.5 VL 7B Instruct | qwen2.5-vl-7b-instruct | 拥有约 70 亿参数的多模态指令遵循大语言模型,擅长处理图像与文本信息,支持跨模态应用场景。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.334K utokens | 0.005元 | |||
通义千问2.5-Max-2025-01-25 | qwen-max-2025-01-25 | 一个大规模 MoE 模型,已在超过 20 万亿个 token 上进行了预训练,并使用精选的监督微调 (SFT) 和从人类反馈中强化学习 (RLHF) 方法进行了进一步的后训练。 | 1K tokens输入 | 0.16K utokens | 0.0024元 |
1K tokens输出 | 0.64K utokens | 0.0096元 | |||
通义千问3 235b A22b Instruct-2507 | qwen3-235b-a22b-instruct-2507 | 基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-235B-A22B)主观创作能力与模型安全性均有小幅度提升。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.534K utokens | 0.008元 | |||
通义千问3 235b A22b Thinking-2507 | qwen3-235b-a22b-thinking-2507 | 基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-235B-A22B)逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 1.334K utokens | 0.02元 | |||
通义千问3 Max Preview | qwen3-max-preview | 通义千问 3 系列 Max 模型 Preview 版本,相较 2.5 系列整体通用能力有大幅度提升。参数量达 1T,大幅减少知识幻觉,模型更智能。 | 1K tokens输入 | 1K utokens | 0.015元 |
1K tokens输出 | 4K utokens | 0.06元 | |||
通义千问3 Next 80b A3b Instruct | qwen3-next-80b-a3b-instruct | 通义千问3 Next 80B A3B Instruct是Qwen3 Next系列中经过指令微调的对话模型,专为快速稳定的响应而优化,不输出"思考"轨迹。该模型面向推理、代码生成、知识问答和多语言应用等复杂任务,同时在对齐性和格式遵循方面保持稳健性能。相较于先前Qwen3指令微调版本,该模型显著提升了超长输入和多轮对话场景下的吞吐量与稳定性,特别适合需要最终答案而非显式思维链的RAG检索增强、工具调用和智能体工作流。 | 1K tokens输入 | 0.067K utokens | 0.001元 |
1K tokens输出 | 0.267K utokens | 0.004元 | |||
通义千问3 Next 80b A3b Instruct | qwen3-max | 通义千问3 Next 80B A3B Instruct是Qwen3 Next系列中经过指令微调的对话模型,专为快速稳定的响应而优化,不输出"思考"轨迹。该模型面向推理、代码生成、知识问答和多语言应用等复杂任务,同时在对齐性和格式遵循方面保持稳健性能。相较于先前Qwen3指令微调版本,该模型显著提升了超长输入和多轮对话场景下的吞吐量与稳定性,特别适合需要最终答案而非显式思维链的RAG检索增强、工具调用和智能体工作流。 | 1K tokens输入 | 0.067K utokens | 0.001元 |
1K tokens输出 | 0.267K utokens | 0.004元 | |||
通义千问3 Next 80b A3b Thinking | qwen3-next-80b-a3b-thinking | 通义千问3 Next 80B A3B Thinking是Qwen3 Next系列中优先进行推理的对话模型,默认输出结构化的"思考"轨迹。该模型专为复杂多步骤问题设计,涵盖数学证明、代码合成/调试、逻辑推理和智能体规划等领域,在知识处理、推理能力、编程辅助、对齐性及多语言评估方面表现卓越。相较于先前Qwen3版本,该模型着重提升了长链思维下的稳定性与推理时的高效扩展性,并通过调优实现了对复杂指令的精准遵循,同时减少重复或偏离任务的行为。 | 1K tokens输入 | 0.067K utokens | 0.001元 |
1K tokens输出 | 0.667K utokens | 0.01元 | |||
通义千问3-235B-A22B | qwen3-235b-a22b | Qwen3 系列的旗舰模型,在编码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等其他顶级模型相比,取得了极具竞争力的成绩。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.534K utokens | 0.008元 | |||
通义千问3-30B-A3B | qwen3-30b-a3b | Qwen3 系列,总参数量达 300 亿,激活参数量达 30 亿,全系列针对 MCP 调用进行了针对性的优化和增强。 | 1K tokens输入 | 0.05K utokens | 0.00075元 |
1K tokens输出 | 0.2K utokens | 0.003元 | |||
通义千问3-32B | qwen3-32b | Qwen3 系列,性能介于 Qwen3-235B-A22B 与 Qwen3-30B-A3B 之间,全系列针对 MCP 调用进行了针对性的优化和增强。 | 1K tokens输入 | 0.134K utokens | 0.002元 |
1K tokens输出 | 0.534K utokens | 0.008元 | |||
通义千问3-Coder 480b A35b Instruct | qwen3-coder-480b-a35b-instruct | Qwen3-Coder-480B-A35B-Instruct是由Qwen团队开发的混合专家(MoE)代码生成模型。该模型专为智能编码任务优化,涵盖函数调用、工具使用及代码库长上下文推理等场景。其总参数量达4800亿,每次前向传播激活350亿参数(动态激活160个专家中的8个)。 | 1K tokens输入 | 0.4K utokens | 0.006元 |
1K tokens输出 | 1.6K utokens | 0.024元 |
模型 ID | 用量 | 消耗 | 折合价格 |
---|---|---|---|
abab6.5s-chat | 1K tokens输入 | 0.067K utokens | 0.001元 |
1K tokens输出 | 0.067K utokens | 0.001元 | |
abab5-chat(已下线 ) | 1K tokens输入 | 1K utokens | 0.015元 |
1K tokens输出 | 1K utokens | 0.015元 | |
abab4-chat(已下线 ) | 1K tokens输入 | 1K utokens | 0.015元 |
1K tokens输出 | 1K utokens | 0.015元 |
模型 ID | 用量 | 消耗 | 折合价格 |
---|---|---|---|
gpt-3.5-turbo | 1K tokens输入 | 0.8K utokens | 0.012元 |
1K tokens输出 | 1.067K utokens | 0.016元 |
鉴于临时鉴权 token 方案直接请求 AI 厂商接口(绕行 DCloud 服务器),且 AI 厂商次日出具账单,因此通过计费网关调用该方案所产生的 token 消耗,将于次日下午 1
点左右完成账单结算。结算时,系统将自动将消耗量转换为 utoken,并从您的 uni-ai
套餐余量中扣除。