AI Inference Server

Bereitgestellt von SIEMENS

Reduzieren Sie die Kosten, den Aufwand und die Zeit, um KI-Modelle in die Fertigung zu bringen, und helfen Sie dabei, sich auf Ihr Fachwissen zu konzentrieren

Sehen Sie KI als mögliche Lösung für Ihre aktuellen Herausforderungen?  
Sind Sie jedoch besorgt über die hohen Kosten und den Aufwand, KI auf den Shopfloor zu bringen und zu warten? 
Sind Sie daran interessiert, die Ausführung von KI-Modellen in der Fertigung zu standardisieren und sie in Überwachungs-, Debugging- und Remote-Bereitstellungsfunktionen zu integrieren? 
  
AI Inference Server ist die Edge-Anwendung zur Standardisierung der Ausführung von KI-Modellen auf Siemens Industrial Edge. Die Anwendung erleichtert die Datenaufnahme, orchestriert den Datenverkehr und ist dank des eingebetteten Python-Interpreters mit allen leistungsstarken KI-Frameworks kompatibel. Sie ermöglicht die Bereitstellung des KI-Modells als Inhalt in einer Standard-Edge-App anstelle der benutzerdefinierten Containerbereitstellung für einzelne Modelle. AI trifft endlich auf Siemens Industrial Edge und AI Inference Server nutzt die Vorteile von beiden. 

Berechtigung:
Sie können aus mehreren AI Inference Server-Varianten wählen, die unterschiedliche Hardwareanforderungen haben*.

AI Inference Server - 1 Pipeline
Ermöglicht die Ausführung einer einzelnen Pipeline.

AI Inference Server - 3 Pipelines
Ermöglicht die gleichzeitige Ausführung von bis zu 3 Pipelines.

AI Inference Server GPU accelerated
AI Inference Server GPU accelerated App nutzt die Vorteile der leistungsstarken GPU-Berechnung. Es ermöglicht eine Ausführung von einereinzelner Pipeline auf einem GPU-beschleunigten Hardwaregerät.

* Die Hardware-Anforderungen finden Sie auf der linken Seite.
Das bedeutet, dass Sie entweder AI Inference Server oder AI Inference Server – 3 Pipelines oder AI Inference Server GPU accelerated auf einem einzelnen Edge-Gerät installieren können. 
Auf einem einzigen Gerät können Sie z. B. nicht die beiden Anwendungen AI Inference Server und AI Inference Server GPU accelerated installieren.

Produkt
Menge
Preis
AI Inference Server - 1 pipeline

€0,00
AI Inference Server - 3 pipelines

€0,00
AI Inference Server GPU accelerated

€0,00

Ihr Probeabonnement verlängert sich automatisch um die unten angegebene Abonnementlaufzeit, wenn Sie es nicht mindestens 14 Tage vor dem Verlängerungsdatum kündigen.
Die ausgewählten Produkte können nicht zum Warenkorb hinzugefügt werden. Bitte überprüfen und ändern Sie die Produktauswahl.

Betrag: €0,00 / Jahr

( €0,00 / pro Jahr nach Ablauf des Testzeitraums )
Hinweis: Es können zusätzlich Steuern anfallen
You Save: 
Abrechnungsbedingungen: 3 Monate der Erstlaufzeit, danach jährliches Abonnement
Abonnementlaufzeit: 3 Monate der Erstlaufzeit, danach jährliches Abonnement
Zugangscode
Falscher Zugriffscode
You Purchased this Product before and cannot purchase it again
Sie haben bereits eine Testlizenz für eines oder mehrere der ausgewählten Produkte erworben. Sie können die Auswahl dieser Produkte aufheben und die Menge auf 0 abändern.
Die Aufstellung sollte mindestens einen Artikel enthalten, der dem Warenkorb hinzugefügt wird
Unterstützte Zahlungsarten: Kreditkarte, Kauf auf Rechnung

Thank you for your interest in the MindSphere application AI Inference Server . A member of the team will get in touch with you shortly about your request.

Best regards,

Your MindSphere team

Your request has been timed out. Please try again.

Im Warenkorb

Menge

Geschätzte Kosten insgesamt
Steuer wird an der Kasse berechnet
Hauptmerkmale:
  • Unterstützt die gängigsten KI-Frameworks, die mit Python kompatibel sind
  • Orchestriert und steuert die Ausführung von KI-Modellen
  • Möglichkeit, KI-Pipelines sowohl mit einer älteren als auch mit einer neueren Version von Python auszuführen
  • Ermöglicht die horizontale Skalierung von KI-Pipelines für eine optimale Leistung
  • Vereinfacht Aufgaben wie Eingabemapping (dank der Integration mit Databus und anderen Siemens Industrial Edge-Konnektoren), Datenerfassung und Pipeline-Visualisierung
  • Überwachung und Debugging von KI-Modellen mittels Inferenzstatistik, Protokollierung und Bildvisualisierung
  • Enthält die Behandlung von Pipeline-Versionen
  • Importiert Modelle über die Benutzeroberfläche oder empfängt sie aus der Ferne
  • Unterstützt die persistente Datenspeicherung auf dem lokalen Gerät für jede Pipeline

Zusätzliche Funktion ist nur in AI Inference Server - 3 Pipelines Variante verfügbart
  • Unterstützt die gleichzeitige Ausführung mehrerer Pipelines (bis zu 3 gleichzeitige Pipelines)
Vorteile:
  • Standardisierung der Ausführung des KI-Modells mithilfe einer KI-fähigen Inferenz mit dem Edge-Ökosystem
  • Standardisierung der Protokollierung, Überwachung und des Debuggings von KI-Modellen 
  • Entwickelt für die MLOps-Integration mit AI Model Monitor

Weitere Vorteile der GPU-beschleunigten Variante des AI Inference Servers: 
  • Standardisierung der Ausführung des KI-Modells auf einer GPU-beschleunigten Hardware mithilfe einer KI-fähigen Inferenz mit dem Edge-Ökosystem

Weitere Informationen

Vielen Dank für Ihr Interesse an unseren Lösungen für Ihr Unternehmen.

Siemens AG

DI FA CTR SVC&AI IAI

Siemenspromenade 1

91058 Erlangen, Germany

Copyright © Siemens AG, [2023], and licensors. All rights reserved.