순수 Matrix연산을 비교해보면 20x의 성능향상이 있고 BERT 모델 학습 시 기존 V100 FP16연산 대비 6배의 성능 향상을 보여줍니다. FP32대비라면 더 많은 성능 향상을 기대할 수 있습니다.
이전 세대의 TensorCore는 FP32 및 FP64가 지원되지 않았고 CUDA core만 활용했기 때문에 throughput 면에서 TensorCore를 해당 datatype에서 활용할 수 있는 A100에서는 엄청난 성능향상을 이룰 수 있었습니다.
타사제품에 비해서 뭐가다른지궁금합니다.솔루션을 하는 목적 무엇인지 궁금합니다 .DGX Super PoD 대한설명좀해주세요...보안문제는 어떻게 되는지 궁금합니다
[질문] 저희 웹사이트가 웹과 앱 모두 진입하도록 되어 있는데 저희가 배포한 앱으로 위장하여 유입되는 트래픽이 있습니다.
앱에 사용자 키값과 앱식별자값이 있는데 해커가 앱을 리버싱해서 로그인 시도를 하는것을 포착했는데요
실제 로그인 안되지만 보안 리소스를 낭비하게 되어서 고민인데
대응할수 있는 방안이 있을지요
정상적인 앱을 식별할 수 있는 어떤 값이나 방법이 있다면, 그것을 저희 분산 클라우드에 설정해서 해당 값을 확인하고, 정상적인 앱의 트래픽만 실제 리소스로 전달하도롤 설정할 수 있을것 같습니다.
질문] F5 Distributed Cloud DDoS 방어에서 L3-L7 DDoS 방어를 통해서 리소스의 가용성을 원활하게 확보하고 보장할 수 있는 방법에 대해서 질문드립니다
F5는 Distributed Cloud에서 DDoS방어를 위해서, 행위기반의 머신러닝 분석 방법을 제공합니다. 이를 통해서, 특정 IP를 차단하는것이 아니라(IP도 차단할 수는 있습니다만), 특정 공격만을 정교하게 찾아 내어서 차단하도록 동작합니다.
[질문] 작년에 Nvidia 컨퍼런스에서 FP32가 FP16보다 드라마틱하게 성능이 빠르지 않다고 했었던게 기억나는데 FP16에서는 어느정도 성능의 개선이 되었나요?