[질문] 지금 저 아키텍쳐를 보며 드는 가장 큰 질문은 저런 아키텍쳐가 유용한 경우가 어떤 것인가입니다. Data movement는 기본적으로 비효율적인 것이고, storage silos 가 프로그램의 성능을 제한할 수 있지만, AI training의 ensembles (하나의 테이타셋을 이용하여 여러 알고리듬을 동시에 돌리는 ensemble learning)을 제외하면 DNN에서 저런 아키텍쳐가 필요하다는 생각이 안듭니다. 어떤 경우 저런 아키텍쳐가 유용한가요?
대규모 기관/기업에서 AI 풀 혹은 클라우드 형식으로 여러가지 서비스를 자체 지원을 하고 있는 경우가 많습니다. 그래서 하나의 서비스 단위는 BeeGFS 혹은 ONTAP AI를 사용하고, 데이터 파이프라인을 만들어서 또 다른 서비스를 지원할 수 있는 것이 하나의 유즈케이스가 되겠습니다.
[질문] VM과 컨데어너의 가장 큰 차이점은 GUEST os의 유무인데 이 GUEST OS가 무겁고 이에 대한 화환성에 문제가 있어서 인것으로 생각되는데 컨테이너가 수만개 만들어서 그것은 관리하기가 어려운데 컨데이터의 구성요소를 좀 더 늘리고 그 수를 줄여서 관리를 좀 더 쉽게 할 수 있는 방안은 없는지요?
[질문] 지금 저 아키텍쳐를 보며 드는 가장 큰 질문은 저런 아키텍쳐가 유용한 경우가 어떤 것인가입니다. Data movement는 기본적으로 비효율적인 것이고, storage silos 가 프로그램의 성능을 제한할 수 있지만, AI training의 ensembles (하나의 테이타셋을 이용하여 여러 알고리듬을 동시에 돌리는 ensemble learning)을 제외하면 DNN에서 저런 아키텍쳐가 필요하다는 생각이 안듭니다. 어떤 경우 저런 아키텍쳐가 유용한가요?