昱唯商城

产品分类
  • 腾讯
    腾讯云
    计算
    数据库
    安全
    大数据
    人工智能
    企业应用与云通信
    行业应用
    开发与运维
    未来社区
    通用解决方案
    行业解决方案
    微信解决方案
    存储
    物联网
    容器与中间件
    网络与CDN
    视频服务
    办公协同
    企业服务
    CDN与云通信
    腾讯企点
    企业QQ
    企点客服
    企点营销
    企点解决方案
    企点商通
    企点领航
    腾讯安全
    基础安全
    业务安全
    安全服务
    知道创宇
    创宇信用
    云安全
    业务安全
    安全服务
    安全运营
    区块链安全
    浑天智鉴
    知道创宇解决方案
    企业微信
    企业微信
    腾讯广告
    微信广告
    QQ广告
    腾讯视频广告
    腾讯新闻广告
    优量广告
    腾讯音乐广告
    腾讯看点广告
    腾讯电脑管家企业版
    免费版
    VIP版本(付费版)
    腾讯教育
    微信支付
    腾讯微校
  • 昱唯系列
    昱唯云建站
    昱唯小程序
    昱唯销售系统
    昱唯游戏营销
    昱唯门店系统
    昱唯公众号助手
    昱唯微传单
    昱唯企业邮箱
    昱唯网站优化
    昱唯网站设计
    昱唯建站
    昱唯商城
    昱唯400
    400电话
    1010电话
    95号码
    昱唯ABC
    扫码点餐小程序
    昱唯ABC企业邮箱
    APP开发
    昱唯小票打印机
    昱唯ABC官网系统
    昱唯HI名片
    昱唯安全防护营销型网站
    昱唯ABC小程序
    代理记账
  • 法大大
    电子合同
    SaaS平台
    企业微信版
    本地部署
    混合云
  • 联想
    扬天
    扬天台式机
    扬天笔记本
    一体机
    Think
    Think台式机
    Think笔记本
    联想显示器
    联想显示器
    来酷
    服务器
    工控机
  • 电信天翼云
    计算
    云服务器
    专属云
    数据库
    存储
    CDN
    容器与微服务
    网络
    企业中间件
    管理工具
    云网融合/网络产品
    大数据与AI
    数据分析
    大数据PaaS服务
    大数据SaaS服务
    人脸识别
    印刷文字识别
    自然语言处理
    内容审核
    安全生产
    AI平台产品
    AI SaaS产品
    安全产品
    网络安全
    移动安全
    安全服务
    应用安全
    应用产品
    办公
    视频
    语音通信
    行业
    通用
    场景
    数字平台
    安全
    视频
    视频应用
  • 贝锐
    蒲公英
    路由器
    会员
    向日葵
    硬件
    会员
    花生壳
    硬件
    会员
智能钛弹性模型服务 TI-EMS
智能钛弹性模型服务 TI-EMS 
价格:
2403.00~25200.00
节点规格:
购买数量:
快递: 包邮
产品保证
官方授权代理商
统一定价
可开具普票和专票
产品详情

计费方式

智能钛弹性模型服务 TI-EMS 支持将模型服务部署在公共资源组和专用资源组。资源组使用和管理方式请详见操作指南 资源组管理。
下表展示了不同资源组的计费方式:

资源组类型计费模式计费说明
公共资源组按量计费公共资源组提供公共的大规模计算集群,根据用户服务配置按需分配使用。按资源规格、使用时长及实例数计费。
专用资源组包年包月和按量计费提供独享的计算资源,可用于模型部署。专用资源组不与其他用户共享,更加高效。购买资源节点后即开始计费,目前支持包年包月和按量计费两种模式。使用专用资源组部署上线服务,不再另行收费。

公共资源组

计费公式

使用公共资源组部署服务的费用是按照模型服务运行所占用公共资源的时长来计算的。具体计算公式为:
单个模型服务费用 = 模型服务单实例资源配置单价 * 实例数量 * 使用时长

模型一旦处于部署并处于运行状态即开始收费,请及时关闭无需运行的模型服务。

单次模型服务的收费起点为服务分配到资源并且状态处于运行中,计费终点为服务占用资源释放,服务状态为已停止。

若服务在运行过程中实例数发生变化,则对应的新资源使用时长从实例扩容成功时刻开始计算。服务缩容后,被释放的实例资源在释放成功后停止计费,服务所占用的剩余资源则继续计费。

定价说明

公共资源组按照最小部署单元 Quota 计费,其中 CPU Quota 和 GPU Quota 定价说明如下:

资源类型1Quota资源详情单价区域
CPU 服务1核+2G内存0.3元/Quota/小时北京、上海、广州
CPU 服务1核+4G内存0.4元/Quota/小时北京、上海、广州
GPU 服务1核+5G内存+0.25P4卡2元/Quota/小时北京、上海、广州

计费示例

用户在上海部署了1个 CPU 模型服务,初始运行1个实例,实例占用资源为2核+4GB内存(2Quota),并且用户设置了实例自动伸缩策略,策略所指定的实例数量范围为1-2个。该服务上午10:00完成服务部署并进入运行中状态,上午12:00服务因触发扩容条件完成扩容,实例数量扩展为2个,服务实际占用资源为4核+8GB内存(4Quota),下午2:00由于用户手动停止服务,服务状态变为已停止。上述案例用户使用产生的费用为:

部署资源数量 * 部署资源单价 * 使用时长 = 2(Quota) * 0.3(元) * 2(h) + 4(Quota) * 0.4(元) * 2(h) = 4.4 元

专用资源组

计费公式

专用资源组包含若干节点(TI-EMS 的专用资源组节点类型详见 定价说明),每个节点拥有不同规格的硬件配置,提供不同计算能力。专用资源组节点购买支持包年包月付费和按量付费,两种计费方式的具体计算公式如下:

包年包月总体费用 = 单节点费用 * 节点数量 * 预付费时长。

按量计费根据使用时长不同,共分为三个阶梯,总体费用 = 每个阶梯用量的累加总价。

使用时长阶梯价格
0小时 < 时长 < = 96小时按量计费第一阶梯价格
96小时 < 时长 < = 360小时按量计费第二阶梯价格
时长 > 360小时按量计费第三阶梯价格

定价说明

注意:

目前仅开放了北京、上海、广州地区的机器。

预付费专用资源组可选节点和相应定价如下:

节点规格CPU(核)内存(G)GPU(卡)预付费(元/个/月)
24核48G244802403
24核96G249603595
32核64G326403198
32核128G3212804788
4核20G1P44201 * Tesla P42724
8核32G1T48321 * NVIDIA T43000
20核80G1T420801 * NVIDIA T44800
32核128G1T4321281 * NVIDIA T46600
40核160G2T4401602 * NIVIDIA T49600
36核160G4V100361604 * Tesla V10025200

后付费专用资源组可选节点和相应定价如下:

节点规格






CPU
(核)
内存
(G)
GPU
(卡)
后付费
(元/个/小时)
使用时长
0小时-96小时(含)
使用时长
96小时-360小时(含)
使用时长
360小时以上
8核16G81603.31.81.3
8核32G83204.82.51.8
16核32G163206.33.32.3
16核64G166409.44.83.3
24核48G244809.54.93.5
24核96G2496014.17.25
32核64G3264012.76.64.6
32核128G32128018.89.66.7
64核128G64128025.212.99
64核256G64256037.41913.2
4核20G1P44201 * Tesla P48.44.32.9
8核40G2P48401 * Tesla P416.88.55.8
8核32G1T48321 * NVIDIA T410.65.43.7
20核80G1T420801 * NVIDIA T4178.76
32核128G1T4321281 * NVIDIA T423.411.98.2


智能钛弹性模型服务-TI-EMS-1440_01.jpg智能钛弹性模型服务-TI-EMS-1440_02.jpg智能钛弹性模型服务-TI-EMS-1440_03.jpg智能钛弹性模型服务-TI-EMS-1440_04.jpg

智能钛弹性模型服务(Tencent Intelligence Elastic Model Service,TI-EMS)是具备虚拟化异构算力和弹性扩缩容能力的在线推理平台,能够帮助客户解决模型部署复杂、资源浪费、手工扩展资源效率低下的问题。客户通过使用 TI-EMS 可以实现模型一键部署,自动调整弹性计算资源。同时,智能钛弹性模型服务具备多模型支持、版本管理和灰度升级等丰富完善的功能,其内置的 CPU/GPU 推理加速镜像为客户提供高性能、高性价比的推理服务。

异构算力虚拟化

CPU、GPU 算力虚拟化,一键部署不同类型的机器学习模型和深度学习模型,为用户提供最佳推理服务。

自动弹性扩缩容

您可以选择手动或自动调整弹性实例扩展策略,TI-EMS 会根据业务负载情况,动态、实时、自动管理实例数量,帮助您以最合适的实例数量应对业务情况,为您免去人工部署负担。

模型服务 QoS 保障

TI-EMS 可以帮助您及时发掘线上模型服务的瓶颈,并提供可靠的扩展策略,从而保障您的线上服务正常运行。

高性价比

TI-EMS 可以为您提供小至0.25卡级粒度的算力,通过细粒度算力分配,让您随时随地享受高性价比服务体验。

优化加速

TI-EMS 支持模型和框架的优化加速,提升模型服务运行效率,为您提供优质的推理性能。

功能完善

TI-EMS 提供丰富的多模型支持、版本管理和灰度升级等使用功能,为您的各类业务保驾护航。

实时翻译

实时翻译场景下,线上业务需要应对可能的实时高请求量,TI-EMS 可快速响应并针对性地弹性扩容、高吞吐、低延迟、保障高 QPS 时线上业务平稳运行。

图像分类

在大规模图像处理场景(如图像分类业务)中,TI-EMS 可以全面利用异构资源池,结合模型加速优化和框架优化技术,提高大规模图像处理服务在线推理效率。

语音识别

随着语料库的不断更新,语音识别业务面临着服务的快速更迭,TI-EMS 通过多模型支持、版本管理、支持在线灰度升级,高效应对业务的快速稳定迭代。



会员登录
登录
其他账号登录:
我的资料
购物车
0
留言
回到顶部