DGX SuperPoD의 경우에는 hyperscale AI trainig에 최적화된 infrastructure입니다. inference의 경우에는 SuperPoD보다는 작은 규모의 infrastructure로 구축할 수 있습니다. 각 workload에 따른 효율적인 infrastructure 를 제안드릴 수 있습니다.
[질문] 클라우드라고 하면 무조건 공기관 제안영업에 철옹성 같은 벽이 큽니다. 도입에 필요한 데모와 Certi 그리고 동등 보장성이 증명되어야 해서 참 어렵습니다. 이에 대한 영업 사례등을 일부 공개나 소개 부탁합니다.
[질문] 일반적으로 AI 모델들에 대해 inference에는 training보다 작은 자원이 필요하여 소형 IOT 장비에서 실행하는 경우도 있습니다. GPT-3의 경우에는 inference도 일반적으로 NVIDIA DGX SuperPOD에서 실행가능한지 문의드립니다.