4세대 Tensor 코어는 FP64, TF32, FP32, FP16, INT8을 비롯한 모든 정밀도에서 속도를 개선하며, 트랜스포머 엔진은 FP8과 FP16을 함께 활용해 대규모 언어 모델의 정확도를 유지하면서 메모리 사용량을 줄이고 성능을 향상하고 있고, 초대형 모델에서 최대 30배 더 높은 AI 추론 성능을 보여주고 있습니다.
[질문] VM과 컨데어너의 가장 큰 차이점은 GUEST os의 유무인데 이 GUEST OS가 무겁고 이에 대한 화환성에 문제가 있어서 인것으로 생각되는데 컨테이너가 수만개 만들어서 그것은 관리하기가 어려운데 컨데이터의 구성요소를 좀 더 늘리고 그 수를 줄여서 관리를 좀 더 쉽게 할 수 있는 방안은 없는지요?
[질문]A100에서는 Volta 세대에서는 지원안하던 추론연산에 대한 Tensor 추론 가속 기능이 추가되어 성능이 개선되었는데 H100은 추론성능을 개선하기위해 어떤 개선이 이루어졌는지 궁금합니다.