중복제거를 하기 위해서는 실제 스토리지에 저장된 데이터의 딕셔너리를 운영해야 되고, 또 그 딕셔너리를 해시값으로 저장해서 전송되어 오는 데이터와 비교해서 이미 저장되어 있는 데이터는 걸러내고 새로운 데이터만 저장해야 되는데 이때 블록을 비교하는 사이즈가 가변적으로 다양한 사이즈를 가져야 중복을 걸러내는 효율이 높아지게 됩니다.
가변블록과 대비되는 방식이 고정블록 방식입니다. 이 경우에는 고정된 사이즈, 예를 들면 8K 사이즈의 블록의 해시값만으로 비교하기 때문에 중복제거 효율이 떨어지게 됩니다.
[질문]이제는 온프레미스와 비교가 아니라 클라우드 간의 서비스나 비용을 따져볼 수 밖에 없는것 같습니다. 전송비용이라던지 다른 클라우드 서비스보다 비용이 비싸서 쓰기가 부담 스러운 부분이 있습니다. 가격 변동이 있을 수도 있는 것인지? 이를테면 신규 장비가 들어오면 구형장비는 비용을 할인해 준다던지... 이런게 될런지요?
비용적인 부담이 있으시다면 다양한 시나리오 형태로 컨설팅이 가능합니다.
Azure에서 제공하는 RI(Azure Reserved Virtual Machine Instances)서비스 부분도 활용하시는 것도 좋아 보입니다.
SBCK로 연락주시면 도움을 드리겠습니다.
[질문] 방송국의 시스템은 실시간 데이터 처리나 특정 시간에 많은 트래픽이 몰리는 상황때문에 퍼블릭, 프라이빗, 하이브리드 클라우드등을 구축하였을때 transaction처리에서 딜레이가 생기것같은데 어떠한 툴이나 방법으로 해결하시나요?
Azure CDN의 경우 트래픽 폭증에 따른 원본서버 보존을 위한 Origin shield 기능등이 있으며 IaaS, PaaS 형태의 서비스에서는 Auto scaling 기능을 많이 활용하고 있습니다.
감사합니다.
가변블록 방식이 어떻게 효율이 좋은지? 원리를 알려주세요.