AI Inference Server

Operado por SIEMENS

Reduce costes, recursos y tiempo para incorporar modelos de IA a la planta de producción y poder dedicar más tiempo a tu experiencia de dominio

¿Consideras que la IA es una solución potencial para tus retos actuales? 
¿Te preocupan los elevados costes y recursos derivados de incorporar la IA a la planta de producción y mantenerla?
¿Tienes intención de estandarizar la ejecución de los modelos de IA en la planta de producción e integrarlos con funcionalidades de supervisión, depuración e implementación remotas?
  
AI Inference Server es la aplicación edge para estandarizar la ejecución de modelos de IA en Siemens Industrial Edge. La aplicación facilita el consumo de datos, coordina el tráfico de datos y es compatible con todos los avanzados entornos de IA gracias al intérprete de Python integrado. Permite implementar el modelo de IA como contenido en una aplicación edge estándar en lugar de implementar contenedores personalizados para modelos individuales. La IA y Siemens Industrial Edge por fin se conectan y AI Inference Server aprovecha las ventajas de los dos ámbitos.

Derechos
Puedes elegir entre varias instancias de AI Inference Server que tienen diferentes requisitos de hardware*

AI Inference Server - 1 pipeline
Permite la ejecución única de un canal.

AI Inference Server - 3 pipelines
Permite la ejecución de hasta tres canales al mismo tiempo.

AI Inference Server GPU accelerated
La aplicación AI Inference Server GPU accelerated aprovecha la computación de alto rendimiento de la GPU. Permite la ejecución única de 1 canal en un dispositivo de hardware acelerado por GPU.

* En la parte izquierda se indican los requisitos de hardware.

Solo se puede instalar una instancia de la aplicación AI Inference Server (de la lista de arriba) en un dispositivo edge.
Significa que puedes instalar AI Inference Server o AI Inference Server - 3 pipelines o AI Inference Server GPU accelerated en un único dispositivo edge. 
Por ejemplo, las aplicaciones AI Inference Servery AI Inference Server GPU accelerated no se pueden instalar en un mismo dispositivo.

Producto
Cantidad
Precio
AI Inference Server

€0,00
AI Inference Server - 3 pipelines

€0,00
AI Inference Server GPU accelerated

€0,00

Tu suscripción de prueba se renovará automáticamente al plazo de suscripción que se indica a continuación, a menos que la canceles 14 días antes de la fecha de renovación.
Los productos seleccionados no se pueden añadir al carrito. Revisa y modifica la selección de productos.

Total: €0,00

( €0,00 / año tras el periodo de prueba )
Declinación de responsabilidad: Pueden aplicarse impuestos
You Save: 
Plazo de facturación : 3 meses de plazo inicialy partir de entonces, suscripción anual
Plazo de suscripción: 3 meses de plazo inicialy partir de entonces, suscripción anual
Código de acceso
Acceso fallido
You Purchased this Product before and cannot purchase it again
Anteriormente adquiriste una licencia de prueba de uno o varios productos seleccionados. Puedes deseleccionar estos productos cambiando la cantidad a 0.
La configuración debe tener al menos un artículo para añadir al carrito
Tipos de pago admitidos: Tarjeta de crédito, Compra por cuenta

Thank you for your interest in the MindSphere application AI Inference Server . A member of the team will get in touch with you shortly about your request.

Best regards,

Your MindSphere team

Your request has been timed out. Please try again.

Añadido al carrito

Cantidad

Total estimado
Impuestos calculados al completar el pago

Funciones clave
  • Admite los entornos de IA más populares compatibles con Python
  • Coordina y controla la ejecución de modelos de IA
  • Capacidad para ejecutar canales de IA con una versión antigua o más reciente de Python
  • Permite escalar horizontalmente los canales de IA para lograr un rendimiento óptimo
  • Simplifica tareas como la asignación de entradas (gracias a la integración con Databus y otros conectores Siemens Industrial Edge), el consumo de datos y la visualización de canales
  • Supervisión y depuración de modelos de IA mediante estadísticas de inferencia, registro y visualización de imágenes
  • Contiene la gestión de las versiones de canales
  • Importación de modelos a través de la interfaz de usuario o de su recepción remota
  • Admite el almacenamiento persistente de datos en el dispositivo local para cada canal
La función adicional solo está disponible en la variante AI Inference Server - 3 pipelines
  • Admite la ejecución de varios canales al mismo tiempo (hasta 3 canales simultáneos)
Ventajas
  • Estandarización de la ejecución de modelos de IA mediante una inferencia preparada para IA con el ecosistema Edge
  • Estandarización del registro, la supervisión y la depuración de modelos de IA 
  • Diseñado para integración de MLOps con AI Model Monitor
Ventajas adicionales de la variante AI Inference Server GPU accelerated: 
  • Estandarización de la ejecución de modelos de IA en hardware acelerado por GPU mediante una inferencia preparada para IA con el ecosistema Edge

Información adicional

Gracias por tu interés en nuestras soluciones.

Siemens AG

DI FA CTR SVC&AI IAI

Siemenspromenade 1

91058 Erlangen, Germany

Copyright © Siemens AG, [2023] y licenciantes. Reservados todos los derechos.