AI Inference Server

提供:  SIEMENS

AIモデルを製造現場に導入するコスト、工数、時間を軽減し、専門業務に集中することができます。

現行の課題を解決するソリューションとしてAIの可能性に期待していますか? 
その一方で、AIを製造現場に導入して維持するコストの高さや工数を懸念していませんか?
製造現場でのAIモデルの実行を標準化し、監視、デバッグ、リモート展開機能と統合することに興味はありますか?
  
AI Inference Serverは、Siemens Industrial EdgeでのAIモデルの実行を標準化するエッジ・アプリケーションです。データの取り込みを容易にし、データ・トラフィックを調整・管理します。また、Pythonインタープリターが組み込まれているため、強力なAIフレームワークと互換性があります。単一モデルのカスタム・コンテナのデプロイではなく、AIモデルをコンテンツとして標準エッジ・アプリへデプロイすることができます。AIがついにSiemens Industrial Edgeと出会いました。AI Inference Serverは両者の利点を活かしています。

サービスに含まれる内容
複数のAI Inference Serverのバリエーション (ハードウェア要件*が異なる) から選択できます。

AI Inference Server - 1 pipeline
1つのパイプラインを単独で実行可能。

AI Inference Server - 3 pipelines
同時に3つのパイプラインまで実行可能。

AI Inference Server GPU accelerated
AI Inference Server GPU acceleratedアプリケーションは、高性能GPUの計算能力を活用します。GPUアクセラレーションをしたハードウェア・デバイス上で1つのパイプラインを実行可能です。

*ハードウェア要件については、左側を参照してください。

AI Inference Serverのアプリケーション・インスタンス(上記のリスト)を1つだけedgeデバイスにインストールできます。
つまり、1つのedge デバイスにインストールできるのは、AI Inference Server、AI Inference Server - 3 pipelines、AI Inference Server GPU acceleratedのいずれかになります。 
1つのデバイスに、例えばAI Inference ServerとAI Inference Server GPU acceleratedアプリケーションをインストールすることはできません。

製品
数量
価格
AI Inference Server

¥0
AI Inference Server - 3 pipelines

¥0
AI Inference Server GPU accelerated

¥0

お客様が評価版の更新日より14日前までにキャンセルされない限り、以下に記載するサブスクリプション期間へと自動更新されます。
選択した製品をカートに追加できません。選択内容を確認のうえ、変更してください。

合計: ¥0

( ¥0 / 年 (評価期間終了後) )
免責条項: 税金が適用される場合あり
You Save: 
請求期間 当初期間3か月、その後は1年間のサブスクリプション
サブスクリプション期間 当初期間3か月、その後は1年間のサブスクリプション
アクセスコード
アクセスエラー
You Purchased this Product before and cannot purchase it again
以前こちらの製品のうちの1つまたは複数の評価版ライセンスをご購入いただいたことがあるため、該当製品の数量を0にして選択を解除してください。
少なくとも1つ以上のアイテムをカートに追加してください。
利用可能な決済方法: クレジットカード, アカウントによる支払い

Thank you for your interest in the MindSphere application AI Inference Server . A member of the team will get in touch with you shortly about your request.

Best regards,

Your MindSphere team

Your request has been timed out. Please try again.

お買い物カゴに追加されました

数量

合計見積り額
税額はチェックアウト時に計算されます

主な特長
  • Pythonと互換性のある、一般的なAIフレームワークに対応
  • AIモデルの実行を調整・管理
  • Pythonの古いバージョンでも、新しいバージョンでも、AIパイプラインを実行可能
  • AIパイプラインの水平スケーリングによって、パフォーマンスを最適化
  • 統合されたDatabusやSiemens Industrial Edgeコネクターを利用して、入力マッピングや、データの取り込み、パイプラインのビジュアル化などのタスクを簡素化
  • 統計的推定、ログ記録、画像のビジュアル化を使用して、AIモデルを監視・デバッグ
  • パイプラインのバージョン管理機能を搭載
  • UIからモデルをインポート、または遠隔でモデルを受信
  • 各パイプラインのデータをローカル・デバイスに永続的に保存可能
AI Inference Server - 3 pipelinesに限り、追加の機能を利用できます。
  • 同時に複数のパイプラインを実行可能 (同時に3つのパイプラインまで)
利点
  • Edgeエコシステム統合型のすぐに使えるAI推論を使ってAIモデルの実行を標準化
  • AIモデルのログ記録、監視、デバッグを標準化 
  • AI Model Monitorを使ったMLOps (機械学習と業務運用) の統合に対応
AI Inference Server GPU accelerated独自の利点 
  • GPUアクセラレーションをしたハードウェアでEdgeエコシステム統合型のすぐに使えるAI推論を使ってAIモデルの実行を標準化

追加情報

シーメンスのソリューションに関心をお寄せいただき、ありがとうございます。

Siemens AG

DI FA CTR SVC&AI IAI

Siemenspromenade 1

91058 Erlangen, Germany

著作権© Siemens AG, [2023]、および使用許諾者。 All rights reserved.