AI Inference Server

Fornito da SIEMENS

Riduci i costi, il lavoro e i tempi per portare i modelli di AI in officina e focalizzati sulle competenze del settore

Vedi l'intelligenza artificiale come una potenziale soluzione per superare le sfide attuali? 
Ti preoccupano i costi elevati e l'impegno necessario per portare l'AI in officina e mantenerla?
Vorresti standardizzare l'esecuzione dei modelli di intelligenza artificiale in officina e integrarli con funzionalità di monitoraggio, debugging e deployment a distanza?
  
AI Inference Server è l'applicazione edge per la standardizzazione dell'esecuzione dei modelli AI in Siemens Industrial Edge. L'applicazione facilita il processo di data ingestion, gestisce il traffico dei dati ed è compatibile con tutti i framework di intelligenza artificiale avanzati grazie all'interprete Python incorporato. Consente di implementare i modelli di intelligenza artificiale come contenuto di un'applicazione edge standard, invece di distribuire i container personalizzati per i singoli modelli. L'AI si integra finalmente con Siemens Industrial Edge e AI Inference Server sfrutta i vantaggi di entrambi.

Diritti
È possibile scegliere tra diverse versioni di AI Inference Server, ciascuna con requisiti hardware diversi*

AI Inference Server - 1 pipeline
Consente di eseguire un'unica pipeline.

AI Inference Server - 3 pipeline
Consente di eseguire fino a tre pipeline contemporaneamente.

AI Inference Server con accelerazione GPU
L'applicazione AI Inference Server accelerato da GPU sfrutta le elevate prestazioni di calcolo della GPU. Consente di eseguire un'unica pipeline su un dispositivo hardware con accelerazione GPU.

* i requisiti hardware sono riportati sul lato sinistro.

È possibile installare una sola istanza dell'applicazione AI Inference Server (elenco riportato sopra) su un dispositivo edge.
Questo significa che puoi installare AI Inference Server o AI Inference Server - 3 pipeline o AI Inference Server con accelerazione GPU su un unico dispositivo edge. 
Non puoi installare, ad esempio, le applicazioni AI Inference Server e AI Inference Server con accelerazione GPU su un unico dispositivo.

Prodotto
Quantità
Prezzo
AI Inference Server

€0,00
AI Inference Server - 3 pipelines

€0,00
AI Inference Server GPU accelerated

€0,00

Allo scadere del periodo di prova, l’abbonamento si rinnoverà automaticamente per la durata indicata, a meno che l’utente non disdica 14 giorni prima della data di rinnovo.
I prodotti selezionati non possono essere aggiunti al carrello. Rivedi e modifica la selezione dei prodotti.

Totale: €0,00

( €0,00 / all’anno, dopo il periodo di prova )
Dichiarazione di non responsabilità: Potrebbero essere applicate imposte
You Save: 
Termini di fatturazione: 3 mesi di validità iniziale, successivamente abbonamento annuale
Termini di abbonamento: 3 mesi di validità iniziale, successivamente abbonamento annuale
Codice di accesso 
Accesso non riuscito
You Purchased this Product before and cannot purchase it again
È già stata acquistata una licenza di prova per uno o più prodotti selezionati. È possibile deselezionare i prodotti in questione modificando la quantità a 0.
La configurazione dovrebbe avere almeno un articolo da aggiungere al carrello
Metodi di pagamento supportati: Carta di credito, addebito su conto

Thank you for your interest in the MindSphere application AI Inference Server . A member of the team will get in touch with you shortly about your request.

Best regards,

Your MindSphere team

Your request has been timed out. Please try again.

Aggiunto al carrello

Quantità

Totale stimato
Imposta calcolata al momento del pagamento

Funzionalità principali
  • Supporta i più diffusi framework di intelligenza artificiale compatibili con Python
  • Gestisce e controlla l'esecuzione dei modelli di intelligenza artificiale
  • Possibilità di eseguire pipeline di intelligenza artificiale con una versione meno recente e una più recente di Python
  • Permette di scalare orizzontalmente le pipeline di intelligenza artificiale per ottenere prestazioni ottimali
  • Semplifica attività quali mappatura degli ingressi (grazie all'integrazione con Databus e altri connettori Siemens Industrial Edge), data ingestion, visualizzazione della pipeline
  • Monitoraggio e debug dei modelli di intelligenza artificiale tramite statistiche di inferenza, registrazione e visualizzazione delle immagini
  • Contiene la gestione delle versioni della pipeline
  • Importa i modelli tramite l'interfaccia utente o ricevili in remoto
  • Supporta l'archiviazione dei dati nella memoria persistente sul dispositivo locale per ciascuna pipeline
La funzionalità aggiuntiva è disponibile solo nella versione AI Inference Server - 3 pipeline
  • Supporta l'esecuzione di più pipeline (fino a 3) contemporaneamente
Vantaggi
  • Standardizzazione dell'esecuzione dei modelli AI mediante un'inferenza di AI con l'ecosistema Edge
  • Registrazione, monitoraggio e debugging standardizzati dei modelli AI 
  • Progettato per l'integrazione MLOps con AI Model Monitor
Ulteriori vantaggi della versione AI Inference Server con accelerazione GPU: 
  • Standardizzazione dell'esecuzione dei modelli AI su un hardware con accelerazione GPU mediante un'inferenza di AI con l'ecosistema Edge

Informazioni aggiuntive

Grazie per l'interesse dimostrato verso le nostre soluzioni.

Siemens AG

DI FA CTR SVC&AI IAI

Siemenspromenade 1

91058 Erlangen, Germany

Copyright © Siemens AG, [2023], e licenziatari. Tutti i diritti riservati.