예를 들면, Triton 서버 같은 걸 사용하는 지 여쭤본 겁니다.
모델서빙을 위한 추론서버는 어떤 걸 사용하나요?
데이터이쿠의 MLOps 플랫폼은 멀티 GPU 지원이 되나요? (ex: 단일 GPU를 여러 개의 논리적 GPU로 분할하여 여러 작업에 할당하는 기술)
데이터이쿠의 MLOps 플랫폼은 멀티 GPU 지원이 되나요? 예를 들면, 단일 GPU를 여러 개의 논리적 GPU로 분할하여 여러 작업에 할당하는 기술입니다.