자체 튜닝한 embedding 모델과 sLLM 을 제공하고 있습니다. 프로젝트의 사이즈 혹은 성격에 따라서, 자사 모델 사용을 제안하기도 합니다.
해당 기능은 제공이 가능합니다.
RAG 서비스 시, 병목이 발생할 가능성이 가장 높은 구성요소는 당연히 LLM 영역이 될 것 같습니다.
일반적으로 sLLM 은 10B (100억) 파리미터 이하의 오픈소스 LLM 을 말합니다.
안녕하세요.