4세대 Tensor 코어는 FP64, TF32, FP32, FP16, INT8을 비롯한 모든 정밀도에서 속도를 개선하며, 트랜스포머 엔진은 FP8과 FP16을 함께 활용해 대규모 언어 모델의 정확도를 유지하면서 메모리 사용량을 줄이고 성능을 향상하고 있고, 초대형 모델에서 최대 30배 더 높은 AI 추론 성능을 보여주고 있습니다.
[질문] 성공적인 XDR 전략을 위해서는 클라우드, 엔드포인트, 네트워크와 같은 다양한 보안 그룹 간의 사일로를 단순히 훌륭한 XDR 솔루션 도입으로 허물 수 있을지요? 사람과 프로세스도 이에 맞춰 발전해야 할 것 같은데요. 지속적인 지원이 가능할지요? 내재화되기까지 시간이 상당히 걸릴꺼 같은데요.
[질문]A100에서는 Volta 세대에서는 지원안하던 추론연산에 대한 Tensor 추론 가속 기능이 추가되어 성능이 개선되었는데 H100은 추론성능을 개선하기위해 어떤 개선이 이루어졌는지 궁금합니다.