경량화 모델 가속화를 위한 추론 가속화 솔루션인 TensorRT (https://developer.nvidia.com/ko-kr/tensorrt) 와 생성형 AI 가속화 솔루션인 TensorRT-LLM (https://github.com/NVIDIA/TensorRT-LLM) 솔루션을 제공하고 있습니다.
[질문] VM과 컨데어너의 가장 큰 차이점은 GUEST os의 유무인데 이 GUEST OS가 무겁고 이에 대한 화환성에 문제가 있어서 인것으로 생각되는데 컨테이너가 수만개 만들어서 그것은 관리하기가 어려운데 컨데이터의 구성요소를 좀 더 늘리고 그 수를 줄여서 관리를 좀 더 쉽게 할 수 있는 방안은 없는지요?
[질문] 엔비디아는 고성능의 대용량 AI 처리 이외에도 경량화된 AI를 위해 어떤 노력과 서비스를 제공/개발하고 있는지 문의 드립니다