AI Inference Server

Fourni par SIEMENS

Réduisez les coûts, les efforts et le temps requis pour introduire des modèles d'IA sur vos sites de production et vous concentrer sur votre expertise dans le domaine

Considérez-vous l'IA comme une solution potentielle à vos défis actuels ? 
Les coûts et les efforts nécessaires pour l'introduire et l'entretenir dans votre entreprise vous préoccupent-ils ?
La normalisation de l'exécution des modèles d'IA et son intégration avec des capacités de surveillance, de débogage et de déploiement à distance vous intéressent-elles ?
  
AI Inference Server est l'application de pointe permettant de standardiser l'exécution de modèles d'IA sur Siemens Industrial Edge. L'application facilite l'ingestion des données, orchestre le trafic de données et est compatible avec tous les puissants cadres d'IA grâce à l'interpréteur Python intégré. Elle permet le déploiement du modèle d'IA en tant que contenu vers une application Edge standard au lieu du déploiement de conteneur personnalisé pour des modèles uniques. L'IA rencontre enfin Siemens Industrial Edge et AI Inference Server exploite les avantages des deux.

Droits
Vous pouvez choisir parmi plusieurs variantes d'AI Inference Server qui ont des exigences matérielles différentes*

AI Inference Server - 1 pipeline
Permet l'exécution unique d'un pipeline.

AI Inference Server - 3 pipelines
Permet d'exécuter jusqu'à trois pipelines en même temps.

AI Inference Server GPU accelerated
L'application AI Inference Server GPU accelerated tire parti des calculs GPU hautes performances. Elle permet l'exécution unique d'un pipeline sur un dispositif matériel accéléré par GPU.

* Vous trouverez la configuration matérielle requise sur le côté gauche.

Une seule instance d'application AI Inference Server (de la liste ci-dessus) peut être installée sur un appareil Edge.
Cela signifie que vous pouvez installer AI Inference Server, AI Inference Server - 3 pipelines ou AI Inference Server GPU accelerated sur un seul appareil Edge. 
Vous ne pouvez pas installer par exemple les applications AI Inference Server et AI Inference Server GPU accelerated sur un seul appareil.

Produit
Quantité
Prix
AI Inference Server - 1 pipeline

€0,00
AI Inference Server - 3 pipelines

€0,00
AI Inference Server GPU accelerated

€0,00

Votre abonnement d’essai sera automatiquement renouvelé pour la durée d’abonnement indiquée ci-dessous, sauf si vous annulez votre abonnement au moins 7 jours avant la date de renouvellement.
Les produits choisis ne peuvent pas être ajoutés au panier. Veuillez vérifier et modifier votre sélection de produits.

Total: €0,00

( €0,00 / par an après la période d’essai )
Avertissement : Des taxes peuvent s’appliquer
You Save: 
Conditions de facturation :  Durée initiale de 3 mois, abonnement annuel par la suite
Conditions d'abonnement : Durée initiale de 3 mois, abonnement annuel par la suite
Code d'accès
Accès refusé
You Purchased this Product before and cannot purchase it again
Vous avez déjà acheté une licence d'essai pour un ou plusieurs produits sélectionnés. Vous pouvez désélectionner ces produits en réduisant la quantité à 0.
La configuration doit avoir au moins un article à ajouter au panier
Modes de paiement pris en charge: Carte de crédit, Paiement sur acompte

Thank you for your interest in the MindSphere application AI Inference Server . A member of the team will get in touch with you shortly about your request.

Best regards,

Your MindSphere team

Your request has been timed out. Please try again.

Ajouté au panier

Quantité

Total estimé
Taxe calculée au moment du paiement

Fonctionnalités clés
  • Prend en charge la plupart des cadres d'IA populaires compatibles avec Python
  • Orchestre et contrôle l'exécution des modèles d'IA
  • Capacité à exécuter des pipelines d'IA avec une version ancienne et une version plus récente de Python
  • Permet la mise à l'échelle horizontale des pipelines d'IA pour des performances optimales
  • Simplifie les tâches telles que la cartographie des entrées (grâce à l'intégration avec Databus et d'autres systèmes Siemens Industrial Edge), l'ingestion de données et la visualisation du pipeline
  • Contrôle et débogue des modèles d'IA à l'aide de l'interférence statistique, de la journalisation et de la visualisation d'images
  • Contient la gestion de la version du pipeline
  • Importez des modèles via l'interface utilisateur ou recevez-les à distance
  • Prend en charge le stockage de données persistantes sur l'appareil local pour chaque pipeline
La fonctionnalité supplémentaire est disponible uniquement dans la variante AI Inference Server - 3 pipelines
  • Normalise la journalisation, la surveillance et le débogage des modèles d'IA (jusqu'à 3 pipelines simultanés)
Avantages
  • Standardisez l'exécution du modèle d'IA à l'aide d'une inférence prête pour l'IA avec l'écosystème Edge
  • Normalisez la journalisation, la surveillance et le débogage des modèles d'IA 
  • Conçu pour l'intégration MLOps avec AI Model Monitor
Avantages supplémentaires de la variante AI Inference Server GPU accelerated : 
  • Standardisez l'exécution du modèle d'IA sur un matériel accéléré par GPU à l'aide d'une inférence prête pour l'IA avec l'écosystème Edge

Informations complémentaires

Nous vous remercions de l'intérêt que vous portez à nos solutions.

Siemens AG

DI FA CTR SVC&AI IAI

Siemenspromenade 1

91058 Erlangen, Germany

Copyright © Siemens AG, [2023], et ses concédants. Tous droits réservés.