DGX SuperPoD의 경우에는 hyperscale AI trainig에 최적화된 infrastructure입니다. inference의 경우에는 SuperPoD보다는 작은 규모의 infrastructure로 구축할 수 있습니다. 각 workload에 따른 효율적인 infrastructure 를 제안드릴 수 있습니다.
[질문] 넷백업 백업 기능중 압축기능을 선택하고 테이프로 백업시 테이프의 압축률와 어떤 관계성이있나요?
테이프로 백업시 테이프의 압축률은 H/W에 제공하는 압축률로 알고 있습니다.
Tape의 압축률은 S/W에서의 압축률에 결정이 되기때문에 Tape압축률은 크게 의미가 없습니다.
[질문] 일반적으로 AI 모델들에 대해 inference에는 training보다 작은 자원이 필요하여 소형 IOT 장비에서 실행하는 경우도 있습니다. GPT-3의 경우에는 inference도 일반적으로 NVIDIA DGX SuperPOD에서 실행가능한지 문의드립니다.