DGX SuperPoD의 경우에는 hyperscale AI trainig에 최적화된 infrastructure입니다. inference의 경우에는 SuperPoD보다는 작은 규모의 infrastructure로 구축할 수 있습니다. 각 workload에 따른 효율적인 infrastructure 를 제안드릴 수 있습니다.
질문입니다. 1.처음에는 서버단위로 라이선스를 구입후 추후 시스템확장으로 용량BASE로 라이선스 변경이 가능한지 궁금합니다. 2. 클라우드 백업 시 네트워크 문제로 연결이 끊어졌을때 중단시간과 상관없이 처음부터 백업이 되는건가요? 아니면 업로드 중단된 시점부터 백업이 가능한가요?
[질문] 일반적으로 AI 모델들에 대해 inference에는 training보다 작은 자원이 필요하여 소형 IOT 장비에서 실행하는 경우도 있습니다. GPT-3의 경우에는 inference도 일반적으로 NVIDIA DGX SuperPOD에서 실행가능한지 문의드립니다.