DGX SuperPoD의 경우에는 hyperscale AI trainig에 최적화된 infrastructure입니다. inference의 경우에는 SuperPoD보다는 작은 규모의 infrastructure로 구축할 수 있습니다. 각 workload에 따른 효율적인 infrastructure 를 제안드릴 수 있습니다.
[질문] 성공적인 XDR 전략을 위해서는 클라우드, 엔드포인트, 네트워크와 같은 다양한 보안 그룹 간의 사일로를 단순히 훌륭한 XDR 솔루션 도입으로 허물 수 있을지요? 사람과 프로세스도 이에 맞춰 발전해야 할 것 같은데요. 지속적인 지원이 가능할지요? 내재화되기까지 시간이 상당히 걸릴꺼 같은데요.
[질문] 일반적으로 AI 모델들에 대해 inference에는 training보다 작은 자원이 필요하여 소형 IOT 장비에서 실행하는 경우도 있습니다. GPT-3의 경우에는 inference도 일반적으로 NVIDIA DGX SuperPOD에서 실행가능한지 문의드립니다.