AI Inference Server

提供商: SIEMENS

减少将 AI 模型应用于车间所需的成本、工作和时间,帮助您专注于自身的专业领域。

您是否认为 AI 是应对当前挑战的潜在解决方案? 
但您是否也在顾虑将 AI 落地车间、实现持续运营所需的成本与投入呢?
您是否期待在车间实现 AI 模型执行的标准化,并集成监控、调试与远程部署功能?

AI Inference Server 是一款 Edge 应用,旨在于 Siemens Industrial Edge 上标准化 AI 模型的执行。该应用简化了数据采集流程,协调数据传输,并凭借内置的 Python 解释器,兼容所有主流 AI 框架。借助 AI Inference Server,您无需再为每个模型部署单独的自定义容器,而是将 AI 模型作为标准化Edge应用的内容快速上线。AI 与 Siemens Industrial Edge 强强联手,为企业开启高效、灵活、智能化的全新可能——释放潜能,尽在 AI Inference Server!

权利
根据不同的硬件要求*,您可以选择不同版本的 AI Inference Server。

AI Inference Server - 1 pipeline
允许单次执行一个流水线(pipeline)。

AI Inference Server - 3 pipelines
允许同时执行多达三个流水线(pipeline)。

AI Inference Server GPU accelerated
AI Inference Server GPU accelerated 应用可利用高性能 GPU 计算的优势。它允许在 GPU 加速硬件设备上单次执行 1 个流水线(pipeline)。

* 请查看左侧的硬件要求。

一个 Edge 设备只能安装一个 AI Inference Server 应用实例(从上述列表中选择)。
这意味着您可以在单个 Edge 设备上安装 AI Inference Server 或 AI Inference Server - 3 pipelines 或 AI Inference Server GPU accelerated。 
但不能在单个设备上都安装例如 AI Inference Server 和 AI Inference Server GPU accelerated。

产品
数量
价格
AI Inference Server - 1 pipeline

¥0.00
AI Inference Server - 3 pipelines

¥0.00
AI Inference Server GPU accelerated

¥0.00

所选产品无法添加到购物车中。请检查并修改产品选择。

价格: ¥0.00

( ¥0.00 / 年(试用期限结束之后) )
注:最终价格可能含税
You Save: 
计费周期: 
订阅周期: 
访问码
访问码错误
You Purchased this Product before and cannot purchase it again
您已购买过所选产品中的一个或多个试用许可证。请将该类产品数量调整为 0 以继续您的购买。
至少配置一项以添加到购物车
支持的付款方式: 银联支付, 公司帐户付款

Thank you for your interest in the MindSphere application AI Inference Server . A member of the team will get in touch with you shortly about your request.

Best regards,

Your MindSphere team

Your request has been timed out. Please try again.

已添加到购物车

数量

预估总计
结账时将计算税费

主要功能
  • 支持与 Python 兼容的大多数流行的 AI 框架
  • 编排和控制 AI 模型的执行
  • 能够使用 Python 新/旧版本运行 AI 流水线
  • 允许 AI 流水线进行水平扩展,以实现最佳性能
  • 简化输入映射(得益于与 Databus 和其他 Siemens Industrial Edge 连接器的集成)、数据获取、流水线可视化等任务
  • 使用推断统计、日志记录和图像可视化监控和调试 AI 模型
  • 包含流水线版本处理功能
  • 通过用户界面导入模型或远程接收模型
  • 支持在本地设备上为每个流水线持久存储数据
此额外功能仅在 AI Inference Server - 3 pipelines 版本中可用
  • 支持多个流水线同时执行(最多 3 个)
优点
  • 利用 Edge 生态系统的 AI-ready 推理,实现标准化执行 AI 模型
  • 标准化 AI 模型的记录、监控和调试
  • 专为 MLOps 与 AI Model Monitor 集成而设计
AI Inference Server GPU accelerated 版本的其他优势:  
  • 利用 Edge 生态系统的 AI-ready 推理,在 GPU 加速硬件上实现标准化执行 AI 模型

更多信息

感谢您对我们给您业务提供的解决方案感兴趣。

Siemens AG

DI FA CTR SVC&AI IAI

Siemenspromenade 1

91058 Erlangen, Germany

版权所有 © Siemens AG,[2023] 及许可方。保留所有权利。