DGX SuperPoD의 경우에는 hyperscale AI trainig에 최적화된 infrastructure입니다. inference의 경우에는 SuperPoD보다는 작은 규모의 infrastructure로 구축할 수 있습니다. 각 workload에 따른 효율적인 infrastructure 를 제안드릴 수 있습니다.
[질문1] 현재 시만텍 SEP+ATP 제품 POC 진행 중입니다.
구성은 내부(사내사설망)에서만 연동이 되는 구성이고
임직원모바일 단말은 내부망에 붙을 수 없는 구조입니다.
외부망(Wifi, 3G, LTE 등)통신하는 임직원단말도
내부망 ATP와 연동해서 사용자를 식별하고 관리하도록 구성을 할 수 있나요?
[질문2] 금융관련 앱등 정상 앱들과 충돌은 없는가요?
질문1: 아직 ATP제품과 연동 되지는 않지만 SIEM과 연동 되기 때문에 같이 가시성을 가져가실수 있습니다.
질문2: 아직 일반앱과 보고된 충돌은 없습니다. VPN기능을 가진 앱은 충돌가능성이 있습니다.
[질문] 솔루션을 모바일에서 사용하게되면 모바일에 성능 영향이 있을듯합니다. 어느정도 인가요?
베터리 영향도 3% 정도 입니다.
[질문] 일반적으로 AI 모델들에 대해 inference에는 training보다 작은 자원이 필요하여 소형 IOT 장비에서 실행하는 경우도 있습니다. GPT-3의 경우에는 inference도 일반적으로 NVIDIA DGX SuperPOD에서 실행가능한지 문의드립니다.