DGX SuperPoD의 경우에는 hyperscale AI trainig에 최적화된 infrastructure입니다. inference의 경우에는 SuperPoD보다는 작은 규모의 infrastructure로 구축할 수 있습니다. 각 workload에 따른 효율적인 infrastructure 를 제안드릴 수 있습니다.
[질문] R사의 속도 증속기를 사용하는데 Azure 이용시 이 제품을 같이 써도 되는지? 아니면 필요없는지 문의드립니다.
국제전용회선에 대한 속도 이슈로 WAN가속기를
많이 사용하시는데 효과가 적은 경우가 많지요.
ER은 이를 대체하는 서비스는 절대 아니며
MS의 자원을 우회적으로 활용할 수 있는 사례로 봐야 할 듯 합니다. (SLA가 없습니다)
WAN 가속기를 대체할 수 있는 기술로
세종텔레콤에는 글로벌가속 서비스가 있습니다
필요하시면 연락 주십시오
sharon@sejongtelecom.net
[질문] 일반적으로 AI 모델들에 대해 inference에는 training보다 작은 자원이 필요하여 소형 IOT 장비에서 실행하는 경우도 있습니다. GPT-3의 경우에는 inference도 일반적으로 NVIDIA DGX SuperPOD에서 실행가능한지 문의드립니다.