[질문] vGPU의 AI활용을 위한 VM에 대해서 Server에서 vGPU를 활용하여 학습모델 Training후 Dell Edge Gateway에 Inference Engine을 탑재할수 있는 vGPU가 있는지 문의드리며, 서버에서의 학습, 엣지게이트웨이에서의 추론모델 탑재한 사례가 있는지 문의드립니다.
[질문] VM과 컨데어너의 가장 큰 차이점은 GUEST os의 유무인데 이 GUEST OS가 무겁고 이에 대한 화환성에 문제가 있어서 인것으로 생각되는데 컨테이너가 수만개 만들어서 그것은 관리하기가 어려운데 컨데이터의 구성요소를 좀 더 늘리고 그 수를 줄여서 관리를 좀 더 쉽게 할 수 있는 방안은 없는지요?
[질문] vGPU의 AI활용을 위한 VM에 대해서
Server에서 vGPU를 활용하여 학습모델 Training후 Dell Edge Gateway에 Inference Engine을 탑재할수 있는 vGPU가 있는지 문의드리며, 서버에서의 학습, 엣지게이트웨이에서의 추론모델 탑재한 사례가 있는지 문의드립니다.