A100 , H100 모두 80GB의 HBM메모리를 기반으로 하고 있습니다. 해당 GPU를 기반으로 GPT와 같은 대규모 언어모델 학습을 포함하여 다양한 AI워크로드 학습, 그리고 HPC등 연산이 많이 필요한 워크로드 전방위에서 활용되고 있습니다.
[질문] 클라우드라고 하면 무조건 공기관 제안영업에 철옹성 같은 벽이 큽니다. 도입에 필요한 데모와 Certi 그리고 동등 보장성이 증명되어야 해서 참 어렵습니다. 이에 대한 영업 사례등을 일부 공개나 소개 부탁합니다.
[질문] DGX Cloud는 60GB VRAM을 탑재한 8대의 NVIDIA H100 또는 NVIDIA A100에서 동작하며 노드 전체에서 메모리의 총량은 640GB가 된다고 하는데 실감이 나지 않는데 좀 이 용량으로 할 수 있는 것으로 어떤일을 할 수있는지요?