AI 용 GPU카드는 GPU Internal memory를 HBM2+를 사용하튼 카드를 사용하길 권장하며 Host memory와의 datatransfer latency를 줄이기 위해서 CUDA의 Data handling을 위한 다양한 기법들을 제공하고있습니다.
감사합니다.
[질문] 클라우드라고 하면 무조건 공기관 제안영업에 철옹성 같은 벽이 큽니다. 도입에 필요한 데모와 Certi 그리고 동등 보장성이 증명되어야 해서 참 어렵습니다. 이에 대한 영업 사례등을 일부 공개나 소개 부탁합니다.
[질문] 게임이 아닌 AI등의 computation bound 작업을 많이 할 시, CPU Performance Bottleneck이 가장 적은 CPU나 memory, storage 벤치마크 결과가 있나요?