Runway 는 하이브리드 네트워크 지원을 지향하며, Saas 는 물론 온프레미드에서도 판매합니다.
ML Enginner 분들이 적절하게 평가된 모델은 model registry 에 저장이 될 수 있으나, Runway 에서는 이를 손쉽게 import 해와서 추론 서비스를 제공합니다.
ML 개발자가 작성된 task workflow 를 수립하거나 scheduling 하여 실행하는 기술입니다.
생산라인에 적용된 ML 모델들을 운영하는데에는 HW 스펙에 따라 제한이 될 수 있습니다. 클라우드 환경에서는 scaling 가능합니다.
병합이 되는 포인트는 크게 2가지가 있는데요 model registry 와 data store 가 되겠습니다. 저희는 다양한 시스템과의 integration 을 지원하며, 필요시 이를 지원해드릴 수 있습니다.
엑셀을 통한 코드생성은 활용은 가능하지만 모든 기능이 지원되진 않습니다. Runway 내에는 ssh protocol 및 jupyter notebook 서비스가 지원되므로 ML Engineer 들이 손쉽게 사용할 수 있습니다.
영상 장비를 통한 data 는 별도의 application 을 통해 storage 에 적재된다면 Runway 와 손쉽게 통합할 수 있습니다.
저희는 손쉽게 system integration 할 수 있는 전략들을 수립하고 있습니다. 앱이 아니더라도 DB 나 별도의 data system 을 통해서도 event-driven 처리 가능합니다.
MLOps 인 Runway 는 모델의 학습과 운영을 일관된 시스템내에서 달성할 수 있게 하며 이를 통해 운영의 효율성과 비용 절감에 도달할 수 있습니다.
Runway 는 low-code 를 기반으로 일관된 모델 학습 개발 환경을 제공하며, 학습된 모델을 drag-and-drop.과 같은 직관적인 UI 를 통해 운영의 효율성을 꾀하고 있습니다.
Runway 는 독자 개발한 소프트웨어를 기반으로 하고 있으며 외부 시스템과의 connectivity 를 확보하기 위해 필요에 따라 오픈소스를 활용하고 있습니다.
Runway 제품의 CPU,Disk,Memory 로 구성된 H/W Spec 이 있으며, 고객사 필요해 따라 GPU 가 장착되어있으면 됩니다.
본사에서는 컴퓨팅 클러스터를 구성하여 시스템를 구성하는 서비스를 제공하고 있습니다.
일반적으로, datahouse 와 같은 시스템에 적재하고 이를 별도의 data visualization system 으로 고객사마다 customized 된 dashboard 를 구성하게 됩니다.
클라우드 플랫폼인 환경에서는 scaling 이 가능한 storage system 에 적재할 수 있습니다. 적재하더라도 ETL 을 통해 효과적으로 version control 및 이를 통한 task scheduling&pipelining 이 되어야 합니다.
운영 중인 모델의 품질을 객관적인 데이터로 평가할 수 있다면 자동으로 진행할 수 있습니다. 이렇게 사후적인 모델의 품질 평가는 모델 드리프트를 통해 이루어집니다.
제조분야는 비교적 모델 추론 서비스의 안정성과 정확도를 요한다면, 금융 서비스쪽은 서비스의 고가용성이나 다양하고 빠르게 변하는 모델의 요구사항을 신속하게 처리할 수 있어야 할 것으로 생각합니다.
AI 플랫폼을 구성하는 MLOps 시스템 관점에서는, Low-code 를 통한 AI 모델 workflow 를 달성할 수 있습니다. 외부에 적재되어 있는 데이터를 손쉽게 dataset 으로 구축하여 이를 ml code editor 를 통해 구성된 인프라내에서 학습이 가능하고, 모델의 version control 를 통해 원하는 배포 endpoint 에 서비스를 제공할 수 있습니다.
AI 모델의 성능 유지를 위해선 모델 운영 관점에서 모델의 성능 저하를 관찰해야 합니다. 관찰된 모델의 성능 저하를 통해 특정 파이프라인들을 진행시키며, 데이터 파이프라인과 모델 학습 파이프라인을 수행한 후 획득한 모델 배포 산출물을 현장에 배포하게 됩니다.