AI Inference Server

제공: SIEMENS

AI 모델을 제조 현장에 도입하고 영역 전문 지식에 집중하는 데 드는 비용, 노력 및 시간을 줄입니다.

AI가 현재 문제에 대한 잠재적인 솔루션이라고 생각하시나요? 
AI를 제조 현장에 도입하고 유지하는 데 드는 높은 비용과 노력이 걱정되시나요?
제조 현장에서 AI 모델 실행을 표준화하고 이를 모니터링, 디버깅 및 원격 배포 기능으로 통합하는 데 관심이 있으신가요?
  
AI Inference Server는 Siemens Industrial Edge에서 AI 모델 실행을 표준화하기 위한 에지 애플리케이션입니다. 이 애플리케이션은 데이터 수집을 용이하게 하고, 데이터 트래픽을 조율하며, 내장된 Python 해석기 덕분에 모든 강력한 AI 프레임워크와 호환됩니다. 이를 통해 단일 모델에 대한 사용자 정의 컨테이너 배포 대신 표준 에지 앱에 콘텐츠로 AI 모델을 배포할 수 있습니다. 이제 Siemens Industrial Edge에 AI를 적용함으로써 AI Inference Server는 양쪽의 이점을 모두 활용합니다.

권한
다양한 하드웨어 요구사항*을 가진 여러 AI Inference Server 사양 중에서 선택할 수 있습니다.

AI Inference Server - 1 pipeline
하나의 파이프라인을 단일 실행할 수 있습니다.

AI Inference Server - 3 pipelines
최대 3개의 파이프라인을 동시에 실행할 수 있습니다.

AI Inference Server GPU accelerated
AI Inference Server GPU accelerated 애플리케이션은 고성능 GPU 계산을 활용합니다. 이를 통해 GPU accelerated 하드웨어 장치에서 하나의 파이프라인을 단일 실행할 수 있습니다.

* 하드웨어 요구사항은 왼쪽에서 확인하시기 바랍니다.

Edge 장치에는 위 목록에 있는 AI Inference Server 애플리케이션 인스턴스 하나만 설치할 수 있습니다.
즉, 하나의 Edge 장치에 AI Inference Server, AI Inference Server - 3 pipelines, AI Inference Server GPU accelerated 중 하나를 설치할 수 있습니다. 
예를 들어, 하나의 장치에는 AI Inference Server 및 AI Inference Server GPU accelerated 애플리케이션을 함께 설치할 수 없습니다.

제품
수량
가격
AI Inference Server

₩0
AI Inference Server - 3 pipelines

₩0
AI Inference Server GPU accelerated

₩0

체험판 구독은 갱신 최소 14일 전에 취소하지 않는 한 아래에 표시된 구독 기간으로 자동 갱신됩니다.
선택한 제품은 장바구니에 추가할 수 없습니다. 선택한 제품 항목을 검토하고 수정하십시오.

총액: ₩0

( ₩0 /년(체험기간 이후) )
고지 사항: 세금이 부과될 수 있음
You Save: 
과금 방식 3개월 초기 기간, 이후 연간 구독
구독 조건 3개월 초기 기간, 이후 연간 구독
액세스 코드
액세스 실패
You Purchased this Product before and cannot purchase it again
이전에 하나 이상의 선택한 제품에 대한 체험판 라이선스를 구매했습니다. 수량을 0으로 수정하면 해당 제품 선택을 취소할 수 있습니다.
장바구니에 추가하려면 구성에 하나 이상의 항목이 있어야 합니다
지원되는 결제 유형: 신용 카드, 계좌이체

Thank you for your interest in the MindSphere application AI Inference Server . A member of the team will get in touch with you shortly about your request.

Best regards,

Your MindSphere team

Your request has been timed out. Please try again.

장바구니에 추가됨

수량

예상 총액
결제 시 세금 계산됨

주요 기능
  • Python과 호환되는 가장 인기 있는 AI 프레임워크 지원
  • AI 모델 실행을 조율하고 제어
  • Python의 이전 버전과 최신 버전에서 모두 AI 파이프라인 실행 가능
  • AI 파이프라인의 수평 확장을 통해 최적의 성능 지원
  • 입력 매핑(Databus 및 기타 Siemens Industrial Edge 커넥터와의 통합 활용), 데이터 수집, 파이프라인 시각화와 같은 작업 간소화
  • 추론 통계, 로깅 및 이미지 시각화를 사용한 AI 모델 모니터링 및 디버깅
  • 파이프라인 버전 처리 포함
  • UI를 통해 모델을 가져오거나 원격으로 수신
  • 각 파이프라인에 대한 로컬 장치에서 영구 데이터 스토리지 지원
추가 기능은 AI Inference Server - 3 pipelines 사양에서만 사용 가능
  • 동시에 여러 파이프라인 실행 지원(최대 3개 파이프라인 동시 실행)
이점
  • Edge 에코시스템으로 AI 지원 추론을 사용하여 AI 모델 실행 표준화
  • AI 모델의 로깅, 모니터링 및 디버깅 표준화 
  • AI Model Monitor와 MLOps 통합을 위한 설계
AI Inference Server GPU accelerated 사양의 추가 이점: 
  • Edge 에코시스템으로 AI 지원 추론을 사용하여 GPU accelerated 하드웨어에서 AI 모델 실행 표준화

추가 정보

Siemens 솔루션에 관심을 가져 주셔서 감사합니다.

Siemens AG

DI FA CTR SVC&AI IAI

Siemenspromenade 1

91058 Erlangen, Germany

Copyright © Siemens AG, [2023], 및 라이선스 제공자. All rights reserved.