문제마다 달라질 것이기 때문에 정확한 비율로 얘기하기는 어렵겠지만 데이터파이프라인의 경우가 일반적으로 훨씬 많은 리소스가 소요됩니다. 데이터 파이프라인에서 관리해야 하는 데이터의 양이 더 많기도 하고 데이터의 소스가 추가되거나 운영중 프로그램 변경으로 인해 유입되는 데이터가 약속된 형태에서 바뀌는 등 많은 이슈들이 발생하게 되고 이를 모두 관리하는 데에 많은 툴과 시간을 투자하시게 됩니다.
답변 감사합니다. 현재 소속된 조직에서도 단기적 성과물에 집착해서 앞단인 Data Pipeline에 대해서는 등한시하는 상황입니다. 그래서 실제 실무자들은 앞단에 발목이 잡히거나 일을 위한 일을 양산하고 있지요...
[질문]이제는 온프레미스와 비교가 아니라 클라우드 간의 서비스나 비용을 따져볼 수 밖에 없는것 같습니다. 전송비용이라던지 다른 클라우드 서비스보다 비용이 비싸서 쓰기가 부담 스러운 부분이 있습니다. 가격 변동이 있을 수도 있는 것인지? 이를테면 신규 장비가 들어오면 구형장비는 비용을 할인해 준다던지... 이런게 될런지요?
비용적인 부담이 있으시다면 다양한 시나리오 형태로 컨설팅이 가능합니다.
Azure에서 제공하는 RI(Azure Reserved Virtual Machine Instances)서비스 부분도 활용하시는 것도 좋아 보입니다.
SBCK로 연락주시면 도움을 드리겠습니다.
[질문] 방송국의 시스템은 실시간 데이터 처리나 특정 시간에 많은 트래픽이 몰리는 상황때문에 퍼블릭, 프라이빗, 하이브리드 클라우드등을 구축하였을때 transaction처리에서 딜레이가 생기것같은데 어떠한 툴이나 방법으로 해결하시나요?
Azure CDN의 경우 트래픽 폭증에 따른 원본서버 보존을 위한 Origin shield 기능등이 있으며 IaaS, PaaS 형태의 서비스에서는 Auto scaling 기능을 많이 활용하고 있습니다.
감사합니다.
[질문] 흔히들 얘기하는게 Data Pipeline 단을 구성하는게 전체 업무의 대부분을 차지한다고 얘기합니다. 오늘 주제인 배포와 운영 관점에서 두 Pipe Line 구성에 어느 정도 비율로 Resource가 할당되어야 할까요?